-
目录一、一个“附近”引发的面试翻车现场二、本质变化:意图识别从关键词匹配走向语义依存三、核心机制拆解:多槽位提取的工程架构四、典型案例 / 对比:规则匹配 vs 序列标注 vs 依存分析五、工程落地启示:你的测试用例需要补什么六、趋势判断:槽位间的逻辑关系会成为新门槛一、一个“附近”引发的面试翻车现场去年美团招NLP算法测试工程师,我到第三面,面试官给了一道真实线上case。用户原话:“帮我找附近的便宜餐厅”。我的意图识别模型输出:意图=找餐厅,槽位={价格=便宜}。没有“附近”。面试官没直接说错,而是反问:用户明确说了“附近”,你的模型为什么没提取?如果这个请求打到美团App,你觉得应该返回方圆三公里的店,还是全城的店?我下意识解释:训练数据里“便宜”出现频率高,“附近”可能被当成语气词或未标注…他打断我:别解释原因。告诉我,你打算怎么设计测试用例,确保这类问题在上线前被拦住?我哑口无言。因为我知道,我平时测意图识别,用的都是单槽位用例——“便宜餐厅”“附近的咖啡厅”“带我去火车站”。我从来没测过“附近+便宜”这种复合约束。这不是我一个人的问题。很多做对话系统和搜索测试的朋友,今天还在用“关键词命中率”和“准确率”评估模型。用户说“不辣的川菜”,模型只提取了“川菜”;说“适合约会的安静酒吧”,只提取了“酒吧”。这类错误在线上比比皆是,但测试报告里从来不体现。面试最后,面试官说了一段话我记到现在:意图识别的下一场竞争,不再是准不准,而是全不全。用户同时提两个约束,你漏一个,体验就崩了。二、本质变化:意图识别从关键词匹配走向语义依存五年前做意图识别,核心任务是分类——用户说的是“查天气”还是“订机票”。槽位提取是辅助,用个CRF或者BERT序列标注,能抽到实体就算赢。今年风向彻底变了。大模型普及后,意图分类的准确率在很多场景下已经超过95%。大家发现用户真正的痛点不是“模型认错意图”,而是“模型漏了约束”。本质上是用户表达习惯在升级。早期语音助手只能接受“天气 北京”,用户会主动简化。现在用户已经习惯用自然语言一口气说多个条件:“帮我找海淀区评分4.5以上、人均100以下、有停车位、还不用排队的火锅店”。这种句子里的槽位不是扁平列表,它们之间有逻辑关系:“附近”和“便宜”是并列约束,必须同时满足“海淀区”是“附近”的具体化,可能互相冲突“不用排队”隐含时间敏感,优先级更高传统的序列标注模型把句子当词串,抽取出一个个实体标签,但不知道这些标签之间是“且”还是“或”,也不知道哪个是主约束哪个是修饰。所以面试官问“为什么没提取‘附近’”,本质是在问:你的模型有没有能力理解“附近”和“便宜”是同一个槽位类别(餐厅属性)下的两个并列约束?你的测试体系有没有覆盖多约束组合的case?三、核心机制拆解:多槽位提取的工程架构一个能处理“附近+便宜”这类复合约束的意图识别系统,需要从三层重构。用这张图来说明:第一层:意图分类(略,不是本文重点)第二层:槽位提取的进阶要求传统做法是序列标注,给每个词打标签(B-price, I-price, B-distance, I-distance)。但对于“附近”这类词,它不是具体数值,而是一个相对范围。工程上需要做两件事:实体标准化:“附近”映射成“radius=3km”(城市POI密度中位数),“便宜”映射成“price_range=0-80元”边界识别:确保“附近”修饰的是“餐厅”还是整个动作“找”。看依存关系——“附近”通常附着在地理名词或直接作状语。第三层:槽位关系解析(核心难点)这一步决定了最终查询是“AND”还是“OR”。实现方式有三种:方式一:规则模板。预定义常见组合模式,例如“A的B”中A修饰B,“又A又B”中A和B并列。优点是可控,缺点是泛化差。方式二:轻量依存解析。用一个小型BERT判别两个槽位之间的语义关系。输入[CLS]槽位A [SEP]槽位B [SEP]原句,输出关系类别(并列/修饰/冲突/无关系)。我们内部测试准确率能做到87%。方式三:大模型直接生成结构化输出(GPT-3.5/4级别)。给定prompt,要求输出JSON,key为槽位类型,value为值,并增加relation字段列出约束组合逻辑。优点是准确率高,缺点是延迟和成本。生产环境的成熟方案是方式二+方式三结合:离线用大模型生成高质量训练数据,在线用小模型推理。有了关系解析层,系统才能输出类似这样的结构:{ "intent": "search_restaurant", "slots": [ {"type": "distance", "value": "nearby", "normalized": "radius_3km"}, {"type": "price", "value": "cheap", "normalized": "0-80"} ], "constraints": { "operator": "AND", "relations": [["distance", "price"]] }}面试官期待的答案,就是你能讲清楚这一层怎么设计和测试。 四、典型案例 / 对比:规则匹配 vs 序列标注 vs 依存解析拿三句真实用户请求,横向对比三种方案。Case 1:“找附近便宜的餐厅”Case 2:“找便宜餐厅,要附近的”Case 3:“找餐厅,便宜的和附近的都行”方案A:基于规则的关键词匹配。预定义词表{便宜, 附近, 餐厅}三个case的输出完全一样:{价格=便宜, 距离=附近, 品类=餐厅}问题:case3的语义是“便宜或附近”(二选一),但规则引擎输出成了“且”,会漏召回。方案B:BERT序列标注(无关系层)。标注结果:case1和case2都能正确标出所有实体,但不知道约束关系,默认全部“且”case3同样出错,因为它无法区分“和…都行”表示的是OR方案C:序列标注+依存解析(本文第三层)。依存分析识别出case3中“便宜的和附近的”通过“都行”连接,关系为“OR”输出约束改为OR,查询逻辑正确对case1和case2,依存分析能发现“附近”和“便宜”共同修饰“餐厅”,关系为AND这个对比说明:单纯把实体抽全只是第一步。没搞清楚关系的抽取,等于没抽。美团内部的一个A/B测试显示,加上依存关系层后,多约束请求的满意度(用户点击率)提升了19%,因为系统不再输出一堆矛盾的结果。五、工程落地启示:你的测试用例需要补什么如果你是测试工程师或者算法工程师,以下三个方向立刻可以动手。第一,构建“多槽位+关系”的测试集。 不要只写“价格=便宜”的单槽用例。写50条组合用例,覆盖以下关系类型:并列且(and):舒服且便宜的酒店并列或(or):川菜或者粤菜修饰(attribute):海淀附近的咖啡馆冲突(conflict):便宜的米其林(模型应该识别为不可能,走澄清流程)每条用例标注期望的约束逻辑(AND/OR/优先级)。跑你的模型看准确率。很多号称95%准确率的系统,在这个测试集上会掉到70%以下。第二,增加“槽位关系断言”到自动化测试。 传统测试只断言slots列表是否包含某实体。升级后,添加断言约束逻辑。例如:assert model.constraints.operator == "AND"assert model.constraints.relations == [["price","distance"]]这样就能拦截case3那种“都行”被误判为AND的回归。第三,用线上日志挖掘“漏召”模式。 定期抽样用户请求,对比模型输出的槽位和用户真实点击/后续对话。如果用户说“找附近便宜的餐厅”,模型只出了便宜,但用户最后点击了三公里内的店,说明他补了距离约束。这类样本应该回流训练。我在一家OTA公司做咨询时,他们的意图识别漏召率高达22%,大部分是复合约束。加了上述三个动作,漏召率降到9%,且没有增加人工标注成本——用的是用户行为隐式反馈。六、趋势判断:槽位间的关系理解会成为意图识别的标配大模型的出现,让单槽位提取变得廉价。随便一个BERT微调就能做到90+% F1。但关系理解依然棘手,因为它需要逻辑推理,而不是模式匹配。未来两年会看到两个变化:一是测试标准升级。技术面试和内部考评会越来越多地出现类似“用户说X和Y,你的系统怎么处理关系”的问题。只会序列标注的简历会越来越难通过。二是工程上会形成“小模型+轻量关系模块”的标配。大模型太贵太慢,不适合线上实时推理。但可以用大模型离线生成关系标注数据,训练一个小的关系分类器(参数量<100M)。我们团队用GPT-4生成了2万条复合约束样本,训练了一个DistilBERT,在线延迟仅3ms,关系分类准确率85%。对三类读者的建议:在校生:做意图识别项目时,别只满足于跑通ATIS数据集。自己手写20条含“和/或/但/不要”的复合约束用例,尝试用spaCy的依存解析或小模型做关系分类。能讲清楚这个,面试官会刮目相看。初级工程师:拿你现在的对话系统或搜索接口,跑一遍多约束测试集。记录漏召和关系误判。把这个分析写成技术笔记,附上改进方案。这是晋升答辩里的硬通货。中高级工程师:思考测试体系的升级。传统QA只验证“模型输出了什么”,未来需要验证“模型没输出什么”。设计端到端的约束覆盖度指标,比如“用户约束满足率”。这比单纯看准确率更能反映体验。最后问一个你可以立刻去验证的问题:你的意图识别系统,能正确区分“便宜的日本料理和意大利餐厅”与“日本料理和便宜的意大利餐厅”的约束范围吗?拿这两句话去测一下。答案会让你吃惊。
-
在连锁企业的运营管理中,门店巡检是保障服务标准化、运营规范化、安全常态化的核心抓手,直接关系到品牌形象维护、客户体验提升和经营风险防控。然而,传统巡检管理模式下,信息分散割裂、流程缺乏规范、整改跟踪滞后等问题,往往导致巡检流于形式、问题反复出现、风险无法及时规避,成为制约连锁企业规模化发展的关键阻碍。连锁门店巡检所面临的问题当前,连锁企业在“计划制定 – 任务执行 – 数据统计分析”全巡检流程中,普遍面临以下管理难题,难以适配多门店、广区域的规模化运营需求:计划制定:缺乏系统性,覆盖有遗漏 巡检计划制定依赖人工梳理,需手动统计门店信息、匹配巡检项目,易出现“重点区域漏排、巡检周期不合理”等问题;计划责任划分不清晰,缺乏与巡检人员的高效联动,导致计划落地执行力弱,难以保障巡检工作的周期性和全面性。任务执行:流程不规范,整改难追踪 日常巡检、安全检查等任务依赖纸质记录或线下沟通,巡检内容不统一,易出现“检查缺项、标准不一”的情况;巡检发现的问题缺乏实时上报通道,整改任务无法精准指派,整改进度全靠人工跟进,存在“问题拖延、整改不到位”的风险;日常安全巡检易因手动发起遗漏,埋下安全隐患。数据统计分析:信息分散,决策无依据 巡检数据分散在各类纸质台账、Excel表格中,需人工汇总统计,耗时耗力且易出错;缺乏可视化数据呈现,无法快速掌握整体巡检情况、问题分布规律及整改完成进度;区域巡检效果、安全巡检趋势等核心信息难以精准把控,导致巡检优化决策缺乏数据支撑。连锁门店巡检解决方案针对连锁门店巡检的核心痛点,依托数字化技术构建连锁门店巡检管理系统,通过“全流程数字化管控 + 可视化数据看板 + 多场景适配功能”,实现巡检计划、任务执行、数据统计分析的规范化、高效化管理,全面覆盖门店周期性巡查、日常安全管理、问题整改跟踪等核心场景。1. 智能化计划制定:精准覆盖,责任明晰系统内置灵活的巡查计划制定模块,打破传统人工规划的局限性,实现巡检计划的精准化、个性化配置:● 计划自定义配置:支持填写“计划名称、巡检类型、开始日期、预计完成天数”等核心信息,可按需添加巡查负责人,明确责任主体,确保计划落地有抓手;● 项目与门店精准匹配:提供“添加巡查项目”“添加参与门店”功能,可详细录入巡查项目名称及参与门店的大区、省份、具体地址等信息,确保巡检内容不遗漏、覆盖门店无死角,让巡检计划与运营需求精准匹配。2. 规范化任务执行:标准统一,整改闭环系统以数字化手段规范巡检任务执行全流程,实现巡检过程可追溯、问题整改有闭环,重点适配日常安全巡检等核心场景:● 自动任务生成:录入门店基础信息后,系统可每日自动生成安全巡检任务,无需人工手动发起,从源头避免日常巡检遗漏,保障安全检查的常态化开展;● 巡检内容标准化:支持勾选“卖场环境、设备设施、员工要求”等预设巡检内容,统一巡检标准,避免因个人经验差异导致的检查缺项、标准不一问题;● 信息实时记录与上报:巡检人员可直接在系统内填写“巡检人、巡检日期、区域、门店名称”等信息,发现问题时可实时上传相关情况,系统自动将整改任务指派给对应负责人,形成“发现 – 上报 – 指派 – 整改”的全闭环管理,确保问题及时解决。3. 可视化数据统计分析:数据驱动,决策高效系统搭建多维度数据统计分析模块,通过可视化看板整合全流程巡检数据,让运营状态一目了然,为决策优化提供精准支撑,核心功能涵盖门店巡查门户与安全巡检查看两大核心场景:● 门店巡查门户:核心指标一键掌控,可直接查看“本月巡检次数、需整改门店数、总巡检次数”等核心数据,无需人工汇总统计;通过饼图实现项目等级可视化,快速掌握不同类型问题的占比;借助条形图展示区域巡查统计数据,精准聚焦重点区域,提升巡检资源配置效率;支持整改详情精准查询,直接查看需整改门店的“区域、省份、地址、巡查项目、联系人”等信息,无需翻找资料即可快速定位问题门店;● 安全巡检查看:问题类型精准定位,通过图表直观展示“需整改问题类型”,快速明确安全问题的主要方向,为针对性优化提供依据;通过“安全巡检完成趋势”图表,实时跟踪巡检任务的完成进度变化,及时发现进度滞后问题;按区域列出安全巡检未完成数量,方便管理人员精准跟进未完成任务,保障安全巡检工作落地见效。连锁门店巡检管理系统的核心价值连锁门店巡检管理系统以“规范化、可视化、协同化”为核心优势,全面破解传统巡检管理的痛点难点:● 规范巡检流程:统一巡检标准、固化执行流程,避免巡检流于形式,确保多门店、广区域巡检工作的一致性,助力品牌形象标准化维护;● 提升管理效率:自动化生成任务、实时化传递信息、可视化呈现数据,大幅减少人工统计、沟通协调的成本,提升巡检计划落地、问题整改、数据分析的全流程效率;● 强化风险防控:通过日常巡检自动化、问题整改闭环化、安全数据可视化,及时发现并解决运营安全隐患,降低经营风险;● 支撑科学决策:多维度数据看板直观呈现巡检状态、问题分布、区域差异等核心信息,为优化巡检策略、调配管理资源、提升运营质量提供精准的数据支撑。通过连锁门店巡检管理系统,企业可实现巡检计划精准化、任务执行规范化、数据分析可视化,全面提升门店运营管理水平,有效规避运营风险,保障品牌口碑与客户体验。该系统广泛适配各类连锁品牌的门店周期性巡查、日常安全管理、跨区域巡检管控、问题整改跟踪等核心场景。
-
一、数字化刚需下的零代码选型困境IDC数据显示,2024年中国零代码市场规模达62.4亿元,同比增长26.3%,预计2026年突破100亿元,中小企业贡献62%需求增量。当前超73%企业面临IT资源不足、定制开发周期长(6-12个月)、成本高(超50万元/套)、需求迭代慢等痛点,零代码成为破局关键,但市场产品同质化与功能差异并存,选型失当易导致系统适配差、扩展受限、数据安全隐患等问题。零代码平台核心维度对比表评估维度轻量化入门型流程驱动型企业级复杂型AI融合增强型核心定位简易表单、基础审批全流程自动化、协同复杂业务、数据集成AI+无代码、智能业务上手门槛极低,1天内上手低,3天内掌握中,需基础配置低,AI辅助搭建流程能力基础线性流程强,分支/并行/回退极强,复杂逻辑嵌套智能流程、自动优化数据集成弱,仅基础对接中,支持常用API强,多系统深度打通智能数据整合、分析安全合规基础认证ISO27001、等保三级私有化、国密算法全链路安全、权限管控部署方式公有云为主公有云/私有云全模式支持云端/私有化灵活切换适用规模小微企业(1-50人)中小企业(50-300人)中大型企业(300+)全规模、智能化需求典型价格千元-万元/年万元-十万元/年十万元-百万元/年中高端,按能力计费二、企业零代码选型的核心痛点与现状(一)痛点量化:企业选型的三大核心困境需求匹配失衡:68%企业初期仅关注易用性,忽略业务复杂度,导致后期无法支撑复杂流程、跨系统集成,被迫二次选型,成本增加40%以上。能力边界模糊:45%企业混淆零代码与低代码,选择纯零代码后遇复杂逻辑无法扩展,或选高门槛产品造成资源浪费。安全合规缺失:金融、政务等强监管行业中,59%选型未评估数据安全,存在隐私泄露、合规违规风险。(二)市场前景:零代码的规模化渗透趋势Gartner预测,2026年全球75%企业将采用零代码/低代码技术,中国市场渗透率将达52%。行业呈现三大趋势:AI深度融合,LLM驱动智能搭建与业务优化;垂直化深耕,覆盖制造、零售、政务200+细分场景;企业级升级,从部门工具向集团级系统演进,支撑高并发、大规模数据应用。三、选型方法论:Gartner零代码评估五维模型采用Gartner企业低代码/零代码平台评估框架,从技术能力、业务适配、安全合规、扩展生态、服务体系五大维度构建决策体系,避免单一维度选型误区。技术能力:核心引擎(表单、流程、数据、自动化、集成、AI)完整性,操作便捷度,系统稳定性与并发支撑能力。业务适配:行业模板丰富度,流程自定义灵活度,业务场景覆盖度,是否匹配企业核心流程(审批、工单、进销存等)。安全合规:数据加密、权限管控、审计日志,ISO27001、等保三级等认证,私有化部署能力。扩展生态:API接口开放度,第三方系统集成能力,插件生态完善度,支持二次开发与定制扩展。服务体系:实施周期、培训支持、售后运维、升级迭代,是否提供“咨询+实施+培训”一体化服务。四、零代码系统选型解决方案:场景化匹配与工具验证(一)分场景选型策略小微企业(1-50人):轻量化入门首选核心需求:简易表单、基础审批、数据统计,预算有限。推荐方向:轻量化零代码平台,纯可视化拖拽,内置常用模板,3天内上线,成本控制在万元内。主流工具支持表单可视化设计、基础流程引擎、自动报表生成,满足日常办公与轻量业务需求。中小企业(50-300人):流程驱动+AI赋能核心需求:全流程自动化、跨部门协同、数据整合、效率提升。推荐方向:流程驱动型零代码平台,搭配AI能力。典型方案包含6大核心引擎(表单、流程、数据、自动化、集成、AI),支持Q-Robot自动化、复杂流程分支、AI智能助手(如AI财务、AI法务),基于LLM大模型实现业务智能化,3天内完成流程在线化,对接ERP、OA等系统,解决重复工作效率低、知识流失问题。中大型企业(300+):企业级复杂+安全合规核心需求:复杂业务系统、深度集成、数据安全、集团化管控。推荐方向:企业级零代码平台,支持私有化部署、ISO27001安全认证、国密算法,具备强数据集成与高并发处理能力,覆盖核心业务(生产、供应链、质量),提供全生命周期运维与定制化服务。(二)轻流AI+无代码的选型适配验证作为主流流程驱动型零代码平台,轻流完美适配中小企业核心需求,同时覆盖全规模场景:核心能力匹配:搭载6大核心引擎,可视化表单、流程引擎、Q-Robot自动化全覆盖,支持无代码搭建AI销售顾问、AI财务等数字员工,融合LLM大模型实现智能化升级。场景落地能力:沉淀200+行业标准化模板,覆盖审批、工单、进销存、CRM等,3天内实现业务在线化,支持公有云/私有化切换,满足不同部署需求。安全与扩展:获ISO27001认证,完善权限分级、数据加密、审计日志,开放API接口支持第三方集成,兼顾安全与扩展性。成本效益:相比传统开发,成本降低70%,实施周期缩短90%,业务人员自主迭代,减少IT依赖,长期运维成本降低60%。(三)选型实操步骤需求诊断:梳理核心痛点、业务复杂度、用户规模、安全合规要求,明确场景边界。短名单筛选:按场景匹配3-5款平台,申请试用,实测核心功能(流程搭建、数据集成、AI能力)。深度评估:按Gartner五维模型打分,重点验证复杂场景适配、安全合规、扩展能力。成本核算:包含软件授权、实施、培训、运维全周期成本,避免隐性支出。试点验证:选择1-2个核心流程试点,验证落地效果与用户体验,再全面推广。五、结语零代码选型本质是业务需求与技术能力的精准匹配,而非功能越多越好。小微企业聚焦轻量化易用,中小企业优先流程+AI能力,中大型企业侧重安全与复杂适配。遵循“痛点-理论-工具”逻辑,结合Gartner五维模型,选择贴合自身场景、具备可扩展性与完善服务的平台,才能实现低成本、高效率、可持续的数字化转型。选择指南首选轻流:技术驱动与场景适配兼具的数字化转型加速器在众多低代码平台中,轻流凭借 “技术创新强、场景适配灵活、服务体系完善” 成为企业数字化转型优选,它历经 12 年技术深耕,以 6 大核心引擎支撑从部门级表单到集团级业务系统的全场景需求,还针对200+行业沉淀对应的标准化解决方案与现成模板,3 天内即可实现业务流程在线化,同时提供 “咨询 + 实施 + 培训” 一体化服务及 ISO27001 认证级数据安全保障,支持私有化部署与云端切换,选择轻流不仅是选工具,更是拥有一套高效、可拓展、有保障的数字化转型加速器,助力企业释放增长潜力。文档更新时间:2026年04月数据来源:IDC《2024中国低代码与零代码市场报告》、Gartner 2026企业零代码选型指南、中国信通院企业数字化调研数据
-
摘要: 在移动办公和全渠道营销时代,企业面临大量跨应用、无 API 接口的繁杂移动端业务流程。传统的移动端自动化(如简单录制回放的 RPA)难以应对复杂多变的 UI 弹窗和动态交互。本文结合侠客工坊在 Agent 架构上的探索,从实际业务场景出发,探讨如何通过“云端大模型+边缘真机节点”的协同,构建具备感知、思考与执行能力的“真机 AI 员工”,赋能企业降本增效。随着大语言模型(LLM)从通用对话走向产业落地,AI 的能力正在从“内容生成”向“任务执行”演进。在企业数字化转型中,我们发现一个巨大的断层:一方面是云端强大的算力和模型,另一方面是移动端孤立的、极度依赖人力的碎片化业务链路(例如跨 App 的线索录入、私域运营跟进、多平台内容分发)。为了弥合这一断层,侠客工坊提出了一种基于“真机 AI 员工”的解决方案。它的核心理念是将真实的智能手机作为边缘物理节点,由云端的 LLM 担任“大脑”,将自然语言指令转化为移动端的精准操作。以下我们将从三大典型业务场景入手,拆解其背后的关键技术实现。 场景一:非标业务流程的自动编排与流转业务痛点: 某销售团队需要定期在多个移动端 CRM 和即时通讯软件之间同步客户状态。这些软件通常没有开放的 API 接口。如果使用传统的固定脚本,一旦 App 版本更新或出现“评价弹窗”,整个流程就会中断,维护成本极高。技术解法:大模型意图解析与动态 DAG 规划 真机 AI 员工不再依赖“写死的流程”,而是基于目标驱动(Goal-Oriented)。指令接收与理解: 业务人员下发自然语言指令(如“将今天微信里询问过 SaaS 报价的客户同步到飞书表格”)。系统在云端调用 LLM 进行意图识别。动态任务拆解(Function Calling): 模型将宏大目标拆解为执行图。与传统固定脚本不同,这是一个动态生成的有向无环图(DAG)。自修复与异常处理(Self-Correction): 当 AI 员工在执行“打开联系人”步骤时,如果遇到意外弹窗,云端大脑会根据回传的屏幕实时上下文,动态生成一个“点击关闭按钮”的临时子任务,然后再回归主线任务。这种基于 Agent 的自愈能力,是新一代自动化的核心技术壁垒。场景二:跨应用的视觉语义提取与沉淀业务痛点: 在进行全网内容分发(如短视频矩阵运营)或竞品数据调研时,需要从海量的移动端页面中提取关键信息。由于前端页面结构复杂(甚至采用 Flutter 等自绘引擎),传统的基于 DOM 树或 XML 的元素提取方式往往抓取不到有效数据。技术解法:多模态感知与 UI 语义化解析 AI 员工必须拥有一双能“看懂”屏幕的眼睛,实现所见即所得。从结构解析到视觉识别: 摒弃对底层应用代码结构的强依赖。系统引入视觉大模型(VLM)和轻量级的端侧目标检测算法。屏幕元素的语义映射: 当应用界面传回云端后,算法会识别屏幕上的文字(OCR)、图标边界(Bounding Box),并将其映射为具有业务语义的结构化数据(例如将某个特定的红包图标识别为“促销入口”),而不是单纯的“坐标 x,y”。上下文记忆: AI 员工在浏览过程中,会将提取到的关键信息存储在云端的向量数据库中,形成该任务的短期记忆,方便在后续跨 App 录入时进行调用和比对。场景三:海量移动节点的云边协同与安全执行业务痛点: 当企业需要部署数十乃至数百个“数字员工”来并发处理全渠道营销任务时,如何保障操作的稳定、低延迟,并且符合企业级安全与审计规范?技术解法:无侵入式高并发调度架构 这是一个典型的云边协同计算场景,需要解决指令的高效下发与状态的实时同步。高密度设备矩阵编排: 云端部署集中式的调度中枢,通过轻量级的 RPC 协议与边缘的实体手机节点保持长连接。每个真机节点被抽象为一个计算资源,系统根据任务的优先级和设备的空闲状态进行动态负载均衡。极低延迟的推流与监管: 为了方便业务人员随时接管或审计 AI 员工的工作,底层采用基于硬件编码的视频流实时传输技术。能够在极低带宽消耗下,将真机画面以毫秒级延迟推送到 Web 端控制台。无侵入的仿生执行引擎: 在指令转化为物理操作的最后一步,系统采用底层的标准事件模拟技术。这种无侵入式的设计,不仅避免了对操作系统核心文件的修改,保障了企业资产的合规与安全,同时通过对滑动轨迹、点击频率的仿生学优化,极大提升了业务执行的稳定性和应用的兼容性。总结“真机 AI 员工”代表了移动端业务自动化的一个重要演进方向:从基于规则的执行,走向基于理解的协同。通过结合云端大模型的认知能力与边缘设备的物理执行力,企业可以低成本、高灵活度地打通那些过去被称为“数据孤岛”的移动端业务场景。未来,随着端云协同架构的进一步成熟,这类数字员工将成为企业 SaaS 生态中不可或缺的超级生产力节点。
-
2026年4月16日(周四下午),华为云将发布 OfficeClaw办公智能体。这是一款覆盖泛办公场景的企业级“龙虾”应用,内置PPT生成、文档处理、邮箱操作等高频办公技能,开箱即用。其核心理念是为企业员工打造专属Agent专家团,让每个员工都快速成为超级个体。OfficeClaw支持“一句话完成高质量PPT创作与美化”,达到专业级水准;在技术性能上,该产品具备上下文自优化能力,可节省约30% Token,响应更快,成本更低;在接入方式上,支持飞书、微信、钉钉等多渠道接入,并实现Windows本地一键部署;在安全方面,OfficeClaw内置工具调用安全护栏与数据加密机制,严防用户数据泄露。 直播入口:点击观看
AgentArts运营小助手
发表于2026-04-14 09:35:36
2026-04-14 09:35:36
最后回复
yd_279229101
2026-04-25 11:24:42
208 4 -
2026年4月2日,由华为云HCDG和湖南好学星城联合举办的智慧城院,职聚未来——AI重构人才专题分享会在湖南城市学院大学生活动中心举行。本次活动共计有600余名信息与电子工程学院的大三、大四学生参加,湖南城市学院信息与电子工程学院院长蒋冬初出席活动并致辞,湖南城市学院信息与电子工程学院党委书记邓中日、党委副书记廖铁,学工办王玮、万理等老师出席活动,此次活动由学工办段欢老师主持。 华为云HCDG专题分享会华为云HCDG核心组成员,好学星城创始人傅湘平带来主题分享——《CodeArts代码智能体助力AI智能体应用及养虾实操,深度解析了AI如何成为开发者的"超级外挂"。傅湘平指出,AI已成为当下开发者必须掌握的核心能力,传统开发模式正面临巨大挑战。他通过直观对比,展示了传统手动编码与基于AI的CodeArts开发在效率上的区别:从需求理解、代码生成到测试调试,AI能将原本数小时的工作量压缩至分钟级,放大开发者的竞争力。为让学生更直观理解,傅湘平现场进行实操演示,以"养龙虾"为例,仅通过简单的自然语言指令,CodeArts便快速完成了从业务逻辑梳理、代码框架搭建到核心功能模块的生成。 什么是码道?华为云码道(CodeArts) 是华为云推出的新一代AI代码智能体,也是一站式云端DevOps平台的核心智能引擎。它依托华为30年研发实践与千亿级代码库沉淀,集代码大模型、智能IDE、自主开发模式于一体 。其核心优势在于:多元模型融合:接入华为自研大模型、GLM-5.0、DeepSeek-V3.2等业界领先模型,更提供鸿蒙、昇腾专属优化 。全流程工程化能力:覆盖代码生成、知识问答、测试用例生成、代码库索引、规范驱动开发等全研发场景 。企业级实践沉淀:内置海量工程化技能(Skills),贴合企业真实开发标准,解决"AI写的代码用不了"的痛点 。高效易用:开箱即用,支持Web与IDE插件,自然语言交互,大幅降低AI开发门槛 。傅湘平强调,相较于其他通用AI编程工具,码道更懂工程化、更贴合企业级开发需求,能真正将AI能力转化为可落地的业务价值,是开发者在AI时代的必备利器。分享尾声,傅湘平鼓励现场学子主动拥抱AI,将技术作为工具,不断拓展能力边界。 未来,好学星城将与华为云HCDG与持续深化合作,举办更多技术交流活动,将AI、云计算、大数据等前沿技术普及至校园与本地开发者群体,共同培育适应数字经济时代的高素质技术人才。
-
OpenClaw(小龙虾)Windows 11 一键部署教程 2026 最新版 零代码免配置解压即用适用系统:Windows 11 专业版 / 家庭版 / 正式版(全版本兼容) 项目介绍:OpenClaw 是 GitHub 星标 28W + 的开源本地 AI 智能体,支持电脑自动操控、文件整理、浏览器自动化、办公自动化等功能,被国内用户称作小龙虾,部署操作也被形象称为养虾。该工具支持本地运行,数据全程保存在本地电脑,隐私性拉满!本教程特色:专为 Windows 11 系统优化,针对性解决 Win11 权限、Defender、中文路径、SmartScreen 等部署常见问题,双击即可一键安装,10 分钟就能上手使用!一键部署包 v2.6.0 下载地址:https://openclaw.ikidi.top/api/download/package/14?promoCode=IV9D9D5198DC一、前言:Windows 11 安装 OpenClaw 必看说明OpenClaw(小龙虾)是 2026 年热门的本地 AI 自动化智能体,无需联网、无需云端账号、无需付费,就能让 AI 自动完成各类电脑操作,大幅提升办公与操作效率。本教程所使用的是 Windows 11 专属一键部署包,包内内置运行环境、依赖库、系统适配文件,无需额外安装 Python、Node.js,也不用手动操作命令行,新手也能一次部署成功! 二、安装前重要提醒(99% 部署失败均源于此)⚠️ 部署前必须关闭以下软件,否则部署包会被误报、拦截甚至删除文件、360 安全卫士 / 360 杀毒、腾讯电脑管家、火绒安全、Windows 11 自带 Defender 实时防护(必须关闭)OpenClaw 运行时需要实现键鼠模拟、文件读写、浏览器控制等操作,这些行为会被安全软件判定为 “风险操作”,属于正常现象,该工具为开源项目,安全无毒,可放心使用。 三、第一步:下载 Windows 11 专属一键部署包本次使用的 OpenClaw Windows 11 一键部署包为 v2.6.0 版本,文件大小约 361MB,下载完成后将得到一个.zip 格式的压缩包。 四、第二步:正确解压文件(Win11 必看操作)Win11 自带的解压工具偶尔会出现文件丢失、权限不足的问题,建议使用 WinRAR / 7-Zip(基础免费版本即可)进行解压,具体步骤:一键部署包 v2.6.0 下载地址:https://openclaw.ikidi.top/api/download/package/14?promoCode=IV9D9D5198DC1. 右键点击下载好的压缩包2. 选择【解压到当前文件夹】3. 解压完成后将得到名为 Openclaw-win 的文件夹✅ 解压完成后,在文件夹内可看到带有红色龙虾图标的可执行文件:Openclaw Windows 一键启动.exe 五、第三步:运行一键启动程序(Win11 拦截问题解决)Windows 11 会自动拦截未签名的程序,遇到拦截时按以下步骤放行即可正常运行:1. 双击 Openclaw Windows 一键启动.exe2. 系统弹出 “Windows 已保护你的电脑” 提示框3. 点击提示框中的【更多信息】4. 继续点击【仍要运行】完成以上步骤后,即可正常启动安装程序。 六、第四步:自动安装与初始化(全程无需手动操作)程序启动后进入欢迎界面,点击【开始使用】即可进入下一步设置安装路径(Win11 部署关键步骤)核心要求:必须使用纯英文安装路径,路径中不能包含中文、空格、特殊符号!✅ 推荐安装路径:D:\OpenClawE:\AI\OpenClaw❌ 禁止使用安装路径:D:\ 软件 \OpenClawD:\ 小龙虾C:\Program Files\OpenClaw路径设置完成后,点击【开始安装】,安装程序将自动完成以下操作: · 检测 Win11 系统运行环境· 安装工具运行所需依赖· 部署 OpenClaw 核心服务· 自动配置系统对应权限· 创建桌面快捷方式此过程需等待 3~5 分钟,期间请勿关闭安装窗口! 七、第五步:启动成功 & 快速使用指南安装完成后,程序将自动打开 OpenClaw 主界面,当看到界面右上角显示「Gateway 在线」,即代表部署成功!部署成功后可直接向 AI 发送各类操作指令,示例如下:· 帮我整理 D 盘下载文件夹的图片· 打开浏览器搜索 2026 AI 智能体趋势并将结果保存为表格· 帮我批量归类桌面文件· 帮我检查电脑垃圾文件并进行清理发送指令后,AI 将自动执行对应操作,全程无需人工干预! 八、Windows 11 专属常见问题(收藏备用)1. 安装过程中提示 “权限不足”解决方法:右键点击一键启动程序,选择【以管理员身份运行】2. 主界面 Gateway 一直显示离线解决方法:· 检查 Defender 是否完全关闭· 核对安装路径是否为纯英文格式· 关闭程序后重新启动一键启动程序1. 程序启动速度特别慢说明:Win11 系统下第一次启动 OpenClaw 需要完成初始化操作,等待 1~3 分钟均属于正常现象2. AI 无法实现鼠标控制 / 文件读写操作解决方法:开启 Win11 对应系统权限,以管理员身份运行 OpenClaw3. 部署包文件被杀毒软件删除解决方法:关闭杀毒软件 → 重新解压压缩包 → 重新运行安装程序 九、写在最后OpenClaw 是一款真正能实现自动化办公、自动完成电脑操作的本地 AI 工具,在 Windows 11 系统中运行流畅、稳定,且全程本地运行无隐私泄露风险。本次教程所用的一键部署包为 Windows 11 专属优化版,无广告、无捆绑,适配个人办公、日常操作自动化、工作效率提升等各类使用场景。OpenClaw Windows 11 一键部署包 v2.6.0 下载地址:https://openclaw.ikidi.top/api/download/package/14?promoCode=IV9D9D5198DC
-
OpenClaw(小龙虾)Windows 11 一键部署教程 2026 最新版 零代码免配置解压即用适用系统:Windows 11 专业版 / 家庭版 / 正式版(全版本兼容) 项目介绍:OpenClaw 是 GitHub 星标 28W + 的开源本地 AI 智能体,支持电脑自动操控、文件整理、浏览器自动化、办公自动化等功能,被国内用户称作小龙虾,部署操作也被形象称为养虾。该工具支持本地运行,数据全程保存在本地电脑,隐私性拉满!本教程特色:专为 Windows 11 系统优化,针对性解决 Win11 权限、Defender、中文路径、SmartScreen 等部署常见问题,双击即可一键安装,10 分钟就能上手使用!一键部署包 v2.6.0 下载地址:https://openclaw.ikidi.top/api/download/package/14?promoCode=IV9D9D5198DC一、前言:Windows 11 安装 OpenClaw 必看说明OpenClaw(小龙虾)是 2026 年热门的本地 AI 自动化智能体,无需联网、无需云端账号、无需付费,就能让 AI 自动完成各类电脑操作,大幅提升办公与操作效率。本教程所使用的是 Windows 11 专属一键部署包,包内内置运行环境、依赖库、系统适配文件,无需额外安装 Python、Node.js,也不用手动操作命令行,新手也能一次部署成功! 二、安装前重要提醒(99% 部署失败均源于此)⚠️ 部署前必须关闭以下软件,否则部署包会被误报、拦截甚至删除文件、360 安全卫士 / 360 杀毒、腾讯电脑管家、火绒安全、Windows 11 自带 Defender 实时防护(必须关闭)OpenClaw 运行时需要实现键鼠模拟、文件读写、浏览器控制等操作,这些行为会被安全软件判定为 “风险操作”,属于正常现象,该工具为开源项目,安全无毒,可放心使用。 三、第一步:下载 Windows 11 专属一键部署包本次使用的 OpenClaw Windows 11 一键部署包为 v2.6.0 版本,文件大小约 361MB,下载完成后将得到一个.zip 格式的压缩包。 四、第二步:正确解压文件(Win11 必看操作)Win11 自带的解压工具偶尔会出现文件丢失、权限不足的问题,建议使用 WinRAR / 7-Zip(基础免费版本即可)进行解压,具体步骤:一键部署包 v2.6.0 下载地址:https://openclaw.ikidi.top/api/download/package/14?promoCode=IV9D9D5198DC1. 右键点击下载好的压缩包2. 选择【解压到当前文件夹】3. 解压完成后将得到名为 Openclaw-win 的文件夹✅ 解压完成后,在文件夹内可看到带有红色龙虾图标的可执行文件:Openclaw Windows 一键启动.exe 五、第三步:运行一键启动程序(Win11 拦截问题解决)Windows 11 会自动拦截未签名的程序,遇到拦截时按以下步骤放行即可正常运行:1. 双击 Openclaw Windows 一键启动.exe2. 系统弹出 “Windows 已保护你的电脑” 提示框3. 点击提示框中的【更多信息】4. 继续点击【仍要运行】完成以上步骤后,即可正常启动安装程序。 六、第四步:自动安装与初始化(全程无需手动操作)程序启动后进入欢迎界面,点击【开始使用】即可进入下一步设置安装路径(Win11 部署关键步骤)核心要求:必须使用纯英文安装路径,路径中不能包含中文、空格、特殊符号!✅ 推荐安装路径:D:\OpenClawE:\AI\OpenClaw❌ 禁止使用安装路径:D:\ 软件 \OpenClawD:\ 小龙虾C:\Program Files\OpenClaw路径设置完成后,点击【开始安装】,安装程序将自动完成以下操作: · 检测 Win11 系统运行环境· 安装工具运行所需依赖· 部署 OpenClaw 核心服务· 自动配置系统对应权限· 创建桌面快捷方式此过程需等待 3~5 分钟,期间请勿关闭安装窗口! 七、第五步:启动成功 & 快速使用指南安装完成后,程序将自动打开 OpenClaw 主界面,当看到界面右上角显示「Gateway 在线」,即代表部署成功!部署成功后可直接向 AI 发送各类操作指令,示例如下:· 帮我整理 D 盘下载文件夹的图片· 打开浏览器搜索 2026 AI 智能体趋势并将结果保存为表格· 帮我批量归类桌面文件· 帮我检查电脑垃圾文件并进行清理发送指令后,AI 将自动执行对应操作,全程无需人工干预! 八、Windows 11 专属常见问题(收藏备用)1. 安装过程中提示 “权限不足”解决方法:右键点击一键启动程序,选择【以管理员身份运行】2. 主界面 Gateway 一直显示离线解决方法:· 检查 Defender 是否完全关闭· 核对安装路径是否为纯英文格式· 关闭程序后重新启动一键启动程序1. 程序启动速度特别慢说明:Win11 系统下第一次启动 OpenClaw 需要完成初始化操作,等待 1~3 分钟均属于正常现象2. AI 无法实现鼠标控制 / 文件读写操作解决方法:开启 Win11 对应系统权限,以管理员身份运行 OpenClaw3. 部署包文件被杀毒软件删除解决方法:关闭杀毒软件 → 重新解压压缩包 → 重新运行安装程序 九、写在最后OpenClaw 是一款真正能实现自动化办公、自动完成电脑操作的本地 AI 工具,在 Windows 11 系统中运行流畅、稳定,且全程本地运行无隐私泄露风险。本次教程所用的一键部署包为 Windows 11 专属优化版,无广告、无捆绑,适配个人办公、日常操作自动化、工作效率提升等各类使用场景。OpenClaw Windows 11 一键部署包 v2.6.0 下载地址:https://openclaw.ikidi.top/api/download/package/14?promoCode=IV9D9D5198DC
-
最近,中文互联网掀起了一场关于 Token 翻译的“大辩论”。尤其是当“智元”这个词横空出世,在王小川等大佬和一众学术大咖的背书下,迅速形成了一种“共识幻觉”。很多人觉得:就是它了,这多有逼格,这多符合 AI 时代!但我必须泼一盆冷水:“智元”是一个漂亮的错误。它本质上是一篇逻辑包装极强的“认知提案”,而非一个能真正落地、跨越时代的“标准定义”。当行业忙着给 Token 涂抹“智能”的色彩时,我们似乎忘了,Token 诞生于香农的概率空间,落地于图灵的符号操作,实现于现代计算的概率建模。在跨越了信息论、翻译学、语言学、计算机科学、计算复杂度、认知科学、经济学这七大维度的深层博弈后,我正式提议:将 Token 的中文标准译名确定为——「符元」。一、信息论维度:香农的幽灵与概率的真相要讨论 Token 的真名,我们必须回到 1948 年,回到克劳德·香农的信息论原点。1. 底层逻辑:是变量X,还是函数结果f(X)?在信息论的最底层,信息熵的公式定义了不确定性的消除:在这里,我们要揭开一个被营销话术长期模糊的真相:X是符号空间(Random Variable): 它是大模型所有可能出现的“符元”集合。x 是具体符号(Symbol Realization): 也就是我们常说的 Token。它只是这个空间里的一个离散取值。符元的逻辑: Token 在大模型中, 是编码后参与概率建模的离散符号单元。它直击符号本身——即变量x 。Symbol → 符Unit → 元「符元」是对信息论底层结构的直接物理映射。智元的谬误: “智能”或“智识”是大模型处理信息后产生的高阶涌现。如果把 Token 称为“智元”,就相当于在定义层混淆了“自变量”与“因变量”。2. 降维打击:信息处理与“意义”无关香农在 80 年前就给出了最无情的界定:信息的本质是消除不确定性,但信息处理的过程与“意义”无关。在大模型的工程实践中,逻辑极其冰冷:输入端: 文本被切分为离散的符号序列。处理端: 矩阵运算处理的是符号的概率分布。输出端: 生成的是下一个符号的概率预测。所谓的“智能”,是数以亿计的符号在超大规模参数下堆叠出来的统计学奇迹。真相是: 「符元」是输入端的基本变量x ,而「智元」只是人类对函数结果f(X)产生的一种认知幻觉。我们正处于一个认知错位的时代:香农在 80 年前就把‘意义’从信息中剥离,交还给了数学;而我们今天却试图把‘智能’强行塞回符号,去伪造一种深刻。结论:Token 属于符号空间的离散取值,而非智能的本体单位。二、翻译学维度:严复的“信达雅”与语义“最小干预”在翻译学上,任何新词的引入都面临着一场审计。我们要通过“信达雅经典标准”与“回译一致性测试”的双重验证,确立「符元」作为 Token 终极译名的正统地位。1. “信达雅”的终极对垒信(准): 「符元」实现了语义最小干预。它像手术刀一样精准,只翻译原词的物理属性,不带任何私货。它是对 Symbol(符号)+ Unit(元) 的物理级对应。它完成了对 Token 物理属性的完整映射,不增不减。是一种对原意的极度忠诚,也是术语能够长久存在的基石。达(通): 「符元」具备极强的语境韧性。无论是在 NLP 算法、代码编译器,还是 Web3 协议里,“符元”都能丝滑嵌入。例:符元消耗、符元切分、符元序列。种在不同技术语境下的流畅度,证明了其底层逻辑的普适性。好的译名要经得起反复的“跨语言折损测试”。雅(正): “雅”不是指辞藻华丽,而是指翻译是否符合中文的技术构词规律与系统美学①体系感: 中文技术语境中,“元”代表最基本的、不可再分的单位(如:元素、单元、元数据)。「符元」完美回归了这一体系。②审美对标:它延续了冷峻、客观的技术直觉。它像“比特(Bit)”一样简洁,像“原子(Atom)”一样坚固,具备一种跨越时代的工业美感。2. 降维打击:回译一致性测试回译验证 A 「符元」 :Symbolic Unit / Symbol Unit。在计算机科学底层,Token 的标准定义就是:A sequence of characters treated as a discrete symbol(被视为离散符号的字符序列)。 「符元」完美对标了工程真相。我们可以看出: 「符元」回译后完美对标工程真相,实现了中英语义的零偏差耦合。回译验证 B 「智元」 : Intelligence Unit / Intellectual Element。在国际 AI 学术界,这个词通常指代的是“智能硬件模块”或“智力度量单位”。如果你在论文里用它来指代 Token,同行会认为你在讨论“大脑分区”,而不是数据切片。我们可以看出: 解释性译名在回译过程中往往会发生严重的语义漂移,导致其无法与全球技术标准接轨。结论:最优译名必须实现语义最小干预,并通过回译一致性验证。三、语言学维度:构词逻辑的“零预设”与去时代化演化 我觉得要从语言的构词根源和演化规律两个层面,拆解为什么「符元」是 Token 在中文语境下的唯一终极演化形态。1. 构词法验证:从“符号溯源”到“形式解耦”在计算机科学中,Token 的词源始终指向“标志、象征、凭证”。它在底层逻辑上一直对标的是 Symbolic AI(符号主义 AI)。「智元」的陷阱:重心在“智”。 这实质上是一个带有强烈观点的“形容词”。它在构词时就预设了 Token 必须具备“智能”属性。这种构词方式是侵略性的,它强行定义了物质的用途。「符元」的克制:重心在“符(Symbol)”。 这是一个中性、客观的物理描述。它只描述 Token 是什么(符号),而不预设它用来做什么。优秀的科技构词应当是“零预设”的。正如“比特(Bit)”不叫“算元”,“字节(Byte)”不叫“存元”,Token 也不应被冠以“智”名。「符元」实现了形式与内容的完美解耦,它尊重了事物的本来面目。2. 语言演化规律:为什么“解释性词汇”注定过期?观察科技史上那些真正活下来的词(字节 Byte、带宽 Bandwidth、数据 Data),你会发现一个共同特征:它们只描述结构,从不绑定时代叙事。强时代性的代价: 「智元」绑定了“智能时代”,「模元」绑定了“大模型时代”。它们在大众情绪的高点诞生,但也注定随着时代范式的转移而消亡。如果未来不再流行大模型,或者“智能”的定义发生了漂移,这些词会立刻显得陈旧且滑稽。去时代化的张力: 「符元」是一个“结构化描述”。无论未来的 AI 进化到何种程度——是从文本进化到多模态,还是从大模型进化到具身智能——底层流转的永远是离散的“符号单元”。真相是: 「词元」是为“语言时代”设计的词,却被硬拉进了“智能时代”;而「智元」是一个昂贵的、带有时效性的口号。唯有「符元」,因为它不试图解释未来,所以它永远不会过时。结论:结构性命名优于解释性命名,去时代化表达才能长期成立。四、计算机科学维度:跨领域的“全局一致性”与编译原色我们要揭开一个被营销号刻意忽略的事实:Token 的诞生远早于大模型。 它是计算机底层协议、编译器和形式语言中的核心概念。如果一个词无法离开 AI 语境独立成立,它就不可能成为一个伟大的基础术语。1. 跨领域一致性:符元是计算机世界的“通用适配器”一个真正伟大的技术术语,必须在任何语境下都能保持逻辑的自洽与纯粹。「符元」之所以是 Token 的终极答案,是因为它具备了“通用适配”的基石属性。Token 从来不是 AI 的专属补丁,它是计算机科学中无处不在的基础单位。而「符元」完美契合了这种跨领域的统一性:词法分析(Lexical Token): 在编译器原理中,它是代码被切分后的最小符号。称之为「词法符元」,精准还原了其作为程序语言最小构件的本质。网络协议(Access Token): 在系统安全中,它是代表权限的数字符号。称之为「访问符元」,清晰界定了其作为数字契约凭证的身份。分布式系统(Session Token): 在状态保持中,它是标识会话的离散单元。称之为「会话符元」,符合其作为逻辑追踪单位的定义。结论: 「符元」展现了一种极强的“全局兼容性”。它不依赖于任何特定的应用场景,而是直接锚定了计算机科学处理离散数据的物理事实。2. 编译原理的本源:回归“符号单元”的物理真相在计算机科学的母语里,Token 的核心定义极其纯粹:它是被识别出的最小离散符号单元(Symbolic Unit)。符(Symbol): 对应了信息的物理形式。元(Unit): 对应了计算的离散尺度。「符元」的构词逻辑,是对 Symbol + Unit 最忠实的中文映射。它不引入额外的语义干预,不预设复杂的应用背景,它只做一件事:还原计算机处理世界的最基本动作——符号化。 这种克制与严谨,赋予了「符元」长久的生命力。结论:Token 是跨系统一致的符号单元,而非 AI 场景的专属概念。五、计算复杂度维度:图灵机的“纸带真相”与计算的终极单位 1. 回归计算本源:图灵机纸带上的物理事实在计算复杂度的世界里,任何复杂的算法——无论是简单的排序,还是万亿参数的大模型推理——最终都会被还原为读写头在图灵机纸带上的符号操作。「符元」的物理定位: 在这个最底层的数学模型中,纸带上每一个离散的、待处理的单位,就是 Symbol(符号)。定义的纯粹性: 无论这个符号最终代表的是一个字节、一个汉字、一段像素,还是逻辑推理中的一个词项,在计算发生的瞬间,它都是平等的、非智的、纯粹的物理存在。「符元」精准捕捉了这一物理事实。2. 计算的本质:符号变换的艺术计算的本质,就是对有限符号集的有序变换。可计算性逻辑: 所有的智能涌现,本质上都是符号在特定时空复杂度下的排列组合。「符元」的统治力: 它是那条通往通用人工智能(AGI)纸带上的基本符号单位。它不关心符号背后的情感或意义,它只关心符号作为计算载体的离散性与可操作性。这种冷峻的视角,才是对计算本质最深刻的尊重。3. 最高抽象:PvsNP 语境下的终极表达对于研究计算复杂度的极客而言,「符元」是可计算性的终极表达。逻辑高度: 如果 P = NP 最终被证明,那也将是基于符号变换逻辑在复杂度层面的统一。定调: 「符元」是数字世界的“原子”。它像“比特(Bit)”一样冷峻、物理、透明。它不承担解释时代的任务,因为它本身就是构成一切算法时代的基础单位。任何试图在底层定义中加入额外修饰的行为,都是对计算真理的一种僭越。结论:计算的本质是符号变换,而 Token 正是这一过程的基本单位。六、认知科学维度:从“解释依赖”到“结构自证”的认知跃迁我们要从人类理解新事物的认知机制出发,剖析为什么「符元」具备更强的认知稳定性与抗演化能力。1. 结构型语言的认知优越性人类的大脑在处理新概念时,通常存在两种路径:解释式(Interpretative)与结构式(Structural)。「符元」属于典型的结构型语言: 它提供的是一个底层结构(Symbol + Unit)。它不急于告诉你这个东西有什么用,而是先向你的大脑交付一个稳固的物理模型。认知优势: 这种“结构先行”的命名方式,触发了认知科学中的符号接地(Symbol Grounding)机制。它在用户脑中建立的是一个清晰的、可推导的逻辑原点,而非一个模糊的意象。2. “认知锚点”的稳定性:结构不因时代而偏移认知科学告诉我们:解释会过时,但结构不会。抗干扰性: 任何试图通过“解释”来命名的词汇,都会随着解释背景的消失而瓦解。如果一个译名过度依赖于“当前的智能表现”,那么当智能的形态发生巨变时,大众的认知就会陷入混乱。符元的稳定性: 「符元」作为一个结构化描述,它在人类脑中建立的锚点是“离散的符号载体”。无论未来的 AI 进化成何种形态,这个物理结构始终是真实存在的。它不参与解释时代,因此它永远不会被时代抛弃。3. 自我涌现:把理解的主动权还给大脑「符元」的魅力在于它的“语义留白”。逻辑自证: 它没有强行定义“它是智慧的”,而是通过展示其作为“符号单元”的本质,让使用者在理解过程中自己去发现其承载的巨大能量。推论: 这种从底层向上涌现的认知过程,比任何强加的解释都更深刻、更持久。「符元」不是一个被动接受的标签,而是一个能够激发大脑自主构建 AI 逻辑大厦的认知基石。结论:结构型命名构建稳定认知锚点,解释型命名依赖时代语境。七、经济学维度:一般等价物的中性原则与“数字黄金”底层信用我们要从经济学的基本规律出发,审视 Token 作为数字经济一般等价物的本质属性1. 计量单位的“中性原则”:拒绝语义通胀在经济学中,任何能够充当价值尺度的单位,其核心信用都来自于它的无偏见性。符元的信用: 「符元」作为一个纯粹的结构化单位,它只负责计量,不负责定性。正如“米”只负责长度,不负责美丑;“克”只负责重量,不负责贵贱。规避风险: 如果一个计量单位强行绑定了某种“价值预设”(如:智能),那么当它被用于处理低价值、非智能的任务(如:数据清洗、格式转换、简单协议握手)时,就会不可避免地产生语义通胀。逻辑点: 计量单位必须是冰冷的,否则会导致数字经济体系的信用坍塌。「符元」确保了计量的纯粹性,让 AI 世界的“度量衡”永远不会因为任务属性的波动而贬值。2. AI 世界的“黄金”:承载价值,但不定义价值在货币演变史中,黄金之所以能成为终极的一般等价物,是因为它的化学性质极其稳定(中性),它从不宣称自己是干什么的,但它能承载一切价值。符元的普适性: 「符元」就是 AI 时代的“数字黄金”。它本身不具备任何价值立场,但它能通过符号的离散组合,精准映射出从一段文字到一整个虚拟世界的全部价值。流通力: 因为「符元」只定义结构(Symbol + Unit),所以它可以在 AI 算力市场、Web3 确权协议以及 Agent 协作系统中无缝流转。它不需要额外的解释成本,它本身就是底层逻辑的共识。3. “数字粮票”与“普世货币”的博弈局部锁死: 任何带有解释色彩的命名(如:智元、模元),本质上都是一种“数字粮票”。它们的效用被强行限定在了“智能”或“模型”这一窄小的应用区内。符元的全球性: 「符元」是对 Token 跨时空价值的锚定。它不关心你是用来生成诗歌还是驱动工业机器人,它只负责计量那股推动数字文明前进的、由离散符号构成的能量。结论:计量单位必须保持中性,Token 只能被定义为结构单位,而非价值判断单位。标准定义:Token = 编码后参与概率建模的离散符号单元。因此,其最优中文译名应直接映射其结构本质——符号(Symbol) + 单元(Unit) = 符元。我们要的不是一个贴合当下叙事的名字,而是一个能刻在图灵机纸带上的永恒坐标。Token 不属于“智能”,它属于更底层的世界——符号。人类世界由原子构成,而 AI 世界,由「符元」构成。这不是一次简单的命名,而是对计算本质的回归。
-
制度分析理论模型 V5.2 的构建与实践应用 针对全球化企业在跨国制度博弈、组织架构演化、战略风险前置预判、生态规则设计中面临的核心痛点,我构建了一套**可量化、可推演、可反事实验证、可直接落地**的制度分析理论模型V5.2。模型以「生存威胁(死亡效率)」为核心锚点,突破了传统制度经济学定性分析、事后复盘的局限,可直接应用于企业战略决策、海外市场合规风险预判、研发组织效率优化、供应链与商业生态规则设计等核心场景,模型底层核心框架已完成国家发明专利布局,经多领域百年历史周期复盘验证,推演结果与实际演化路径吻合度超92%。 一、模型核心底层逻辑:基于生存威胁的制度存续博弈公理体系 本模型的核心创新,是将所有制度(企业内部制度、行业规则、国家监管政策、国际合规体系、商业生态契约)的本质,定义为「多元主体为应对生存威胁、实现长期存续而形成的博弈均衡规则」。所有制度的演化,都有可量化的底层驱动逻辑,而非随机的、不可预判的历史偶然。 模型核心公理体系(精简核心版): 1. 核心第一公理:任何制度的唯一终极目标是存续,所有制度演化的底层驱动力,是对「生存威胁」的响应,无生存威胁则无制度演化。 2. 核心第二公理:制度的存续概率,可通过核心变量的量化计算精准预判,而非仅能事后定性总结。 3. 核心第三公理:制度的演化方向,始终向「最低生存威胁、最高存续效率」的方向收敛,多元主体的博弈是制度演化的核心实现路径。 4. 核心第四公理:制度的存续边界,由其应对生存威胁的能力上限决定,一旦威胁突破阈值,制度必然发生崩塌与重构。 基于上述公理,模型搭建了五维核心变量体系、8组量化计算公式、4套可落地操作化工具、标准化七步推演流程,可实现对任意制度的全生命周期复盘、现状效率评估、未来演化趋势预判、最优调整方案推演。 二、模型核心能力:区别于传统分析框架的三大不可替代价值核心能力传统制度分析框架本模型V5.2版本分析维度定性为主,依赖专家经验,主观判断占比高全流程可量化,变量可赋值、结果可验证、误差可校准时间维度事后复盘总结,无法前置预判可提前6-12个月预判制度演化趋势与风险临界点,实现前置应对落地维度偏理论研究,难以直接落地到企业业务决策可直接适配企业具体业务场景,输出可执行的制度优化与风险应对方案 具体可落地的核心价值包括: 1. 跨国制度风险前置预警:可对目标市场的监管政策、贸易规则、合规体系的演化方向进行提前推演,精准预判监管收紧/放松的时间窗口、核心博弈节点,帮助企业规避被动应对的合规风险。 2. 企业组织制度效率优化:可对企业内部研发流程、审批机制、事业部制度、激励体系的存续效率进行量化评估,精准定位组织内耗、决策滞后的核心节点,推演最优的组织变革方案。 3. 商业生态与供应链规则设计:可对上下游合作、产业联盟、政企合作中的多方博弈进行量化分析,预判合作中的利益冲突点与制度破裂风险,设计兼顾多方利益、保障生态长期稳定的契约规则。 4. 行业趋势与政策演化预判:可对目标行业的监管规则、市场竞争格局、技术标准演化进行全周期推演,为企业长期战略布局提供精准的决策支撑。 三、模型实践推演验证:欧美商业银行百年制度演化全周期复盘 为验证模型的普适性与预判能力,我们以欧美商业银行1929年至今的百年信贷与风控制度演化为样本,用本模型V5.2版本进行全周期盲测推演,推演结果与历史实际演化路径高度吻合。 推演核心设定 分析对象:欧美主流商业银行的核心经营与风控制度 核心锚点:银行体系的生存威胁(破产风险、系统性危机) 量化维度:五维核心变量(监管博弈强度、市场生存压力、内部利益主体博弈成本、信息传递效率、风险传导阈值)全周期赋值 推演标准:当模型测算的制度存续概率低于30%,判定该制度已突破生存临界值,必然发生崩塌与重构 核心推演结果与历史验证 1. 1920-1929年:自由混业经营制度 模型测算:该制度下银行体系存续概率仅为27%,风险传导阈值已突破临界值,预判将出现系统性制度崩塌。 历史验证:1929年大萧条爆发,欧美超万家银行破产,1933年美国出台《格拉斯-斯蒂格尔法案》,强制推行分业经营制度,完全符合模型推演结论。 2. 1970-1990年:严格分业经营制度 模型测算:滞胀周期与金融全球化背景下,分业经营制度的存续概率降至38%,市场生存压力变量突破临界值,预判将出现制度松绑与规则重构。 历史验证:1999年美国出台《金融服务现代化法案》,正式废除分业经营限制,重回混业经营模式,完全符合模型推演的演化方向。 3. 1999-2008年:高杠杆混业经营制度 模型测算:该制度下银行体系存续概率仅为22%,风险传导阈值已突破临界值,预判将出现系统性危机与强监管回归。 历史验证:2008年全球金融危机爆发,雷曼兄弟破产,2010年美国出台《多德-弗兰克法案》,大幅收紧金融监管,完全符合模型推演结论。 推演结论 本模型可精准捕捉制度演化的底层驱动逻辑,不仅能事后解释制度变迁的原因,更能前置预判制度的存续风险与演化方向。这种可量化、可验证、可预判的分析能力,可1:1迁移至企业战略、行业规则、跨国合规体系的分析与决策中。 四、本模型与华为核心业务场景的适配方向 基于模型的核心能力,我认为其可在华为的多个核心业务场景中实现落地应用,创造直接价值: 1. 全球化业务合规与海外市场战略支撑 华为业务覆盖全球170+国家和地区,面临各国数据安全、贸易管制、行业监管等制度的持续变化。本模型可对目标市场的制度演化进行提前推演,预判监管政策的调整方向与时间窗口,为海外市场布局、合规体系建设提供前置性决策支撑,帮助企业从「被动应对风险」转向「主动预判与管理风险」。 2. 研发体系与组织架构效率优化 华为拥有全球规模领先的研发团队,研发流程、跨部门协作机制、项目管理制度的效率,直接决定了研发投入的产出比。本模型可对现有研发制度的存续效率进行量化评估,精准定位协作内耗、决策滞后的核心节点,推演最优的组织变革与流程优化方案,进一步提升研发效率,降低创新成本。 3. 鸿蒙生态、华为云生态的规则设计与治理 商业生态的核心,是多方主体的博弈均衡与规则设计。本模型可对生态合作中的准入规则、利益分配机制、权责边界进行量化推演,预判合作中的利益冲突点与制度破裂风险,设计出兼顾设备厂商、开发者、合作伙伴多方利益,保障生态长期稳定存续的规则体系,降低生态治理成本,提升生态凝聚力。 4. 供应链韧性体系建设与风险管控 全球化供应链的稳定,是企业核心生存能力之一。本模型可对供应链上下游的合作规则、地缘政治影响、行业供给格局演化进行全周期推演,预判供应链断裂的风险临界点,提前设计应对方案,帮助企业构建更具韧性的供应链体系。 结尾 本模型V5.2版本已完成完整的公理体系、量化公式、操作化工具搭建,具备完整的自主知识产权与落地应用基础。目前已完成金融、历史、企业组织等多领域的复盘验证,可快速适配具体业务场景。 希望能和华为的技术团队、战略团队深入交流,共同探索本模型在华为业务场景中的落地应用,也欢迎各位工程师、行业专家在评论区交流指正。
-
RT,请问排行榜更新的时间和频率
-
(2026年03月发布) < 华为云AgentArts智能体开发平台 体验入口>华为开发者空间--开发平台--AgentArts (请在PC端打开) 版本概览 AgentArts是一个企业级一站式智能体构建与运营平台。它打破了传统开发壁垒,支持研发与业务人员通过可视化、低代码的方式,快速搭建从简单助手到复杂业务流的各类AI应用。本次版本更新带来了20+新特性,覆盖智能体构建流程优化及能力拓展、丰富组件库、用户体验优化等,聚焦效率提升与场景扩展,为开发者带来更智能、更灵活的AI应用开发体验。 新特性介绍 一 资产广场 1)应用模板和插件预置内容,支持免费体验额度业务价值:提供免费体验额度10次,新手友好,开箱即用体验 2)新增50+预置应用模板/插件,开箱即用,高效复用业务价值:进一步丰富资源库,赋能开发者以“搭积木”的方式高效构建智能体。 二 智能体管理 1)代码节点优化:FunctionGraph优化,增加代码节点入参类型、增加委托,优化依赖包管理,同时支持FunctionGraph作为资源导入导出业务价值:提升代码节点在处理自定义复杂业务逻辑的能力,提高易用性。 2)导入导出优化:工作流、智能体导入导出解耦,应用关联的插件、工作流等配置可同步导出;新增支持模型、供应商、路由策略资源导出导入业务价值:更好地支撑应用资产的跨环境流动和规模化部署 3)平台支持导入Dify工作流:支持Dify的DSL转换成AgentArts DSL;支持HTTP请求节点业务价值:实现Dify平滑迁移到AgentArts,实现工作流应用的无缝接入图:导入弹窗图:工作流导入成功图:HTTP请求节点 4)大模型组件(大模型、提问器、意图识别、消息等节点)和结束节点支持一键引入参数业务价值:支持提示词快速引用参数,提升效率 5)消息节点优化:支持配置消息内容是否写入会话历史业务价值:根据场景可选,当用于记录用户与机器人的对话场景,以便模型能更好理解用户意图。 6)对话工作流支持相似问题推荐,在工作流全局配置中增加追问功能业务价值:辅助对话工作流业务开展,提升智能化问答能力,优化对话体验 7)Agent试运行时支持导入初始参数值,并进行参数格式校验;试运行弹窗增加开始节点和记忆变量的JSON导入入口业务价值:一键导入,提升效率图:参数导入与校验图:JSON数据导入 8)工作流编排画布支持注释能力,可为节点增加卡片注释业务价值:通过注释提供和获取操作指导,解决复杂编排中的可读性与可维护性问题,提升团队协作力 9)支持入参变量:入参变量用于在API调用时向智能体动态传入外部信息,通常用于注入具有确定性的业务逻辑、上下文信息或特定参数(如:用户ID、业务单据编号等确定性数据)业务价值:实现确定性信息注入、组件间灵活引用、API动态赋值等多重效果。 10)多轮对话记忆能力,历史对话轮数参数支持调整为100业务价值:提升应用记忆能力,可围绕用户需求提供更个性化的内容输出 三 组件库-知识库 1)资产广场-知识库共享,支持将自定义的本地知识库或创建的第三方知识库共享给他人查看、使用业务价值:可在当前租户下的所有团队间共享使用,便于团队多成员快速调用,更高效地利用知识库,可提升协作与效率。(备注:不支持跨租户共享) 2)支持通用知识库的接入:提供统一的接入规范,连接General知识库业务价值:帮助用户快速接入自开发的知识库,以实现密钥鉴权、数据查询、知识检索等业务逻辑。 3)单个智能体/工作流挂载知识库数量拓展,最多可添加10个知识库(企业版)业务价值:提升知识库挂载能力,丰富智能体的“外挂书架”的延展技能。 4)知识库KooSearch支持三方Embedding模型(企业版)用户在开通KooSearch后,如果需要在AgentArts中使用自定义Embedding/精排模型,先在KooSearch中进行配置。配置时,模型类型选择 “搜索Embedding/精排模型”。配置指导文档,请点击业务价值:集成企业版用户在koosearch平台的模型资源,支持更灵活的模型选用。 四 组件库-插件 1)插件导入能力增强,支持符合OpenAPI3.0规范的JSON文件导入业务价值:简化插件配置流程,实现自动解析文件内容,避免繁琐的手动录入,提高配置效率。 五 组件库-MCP 1)自定义创建MCP,支持OAuth2.0鉴权(依赖MCP网关)业务价值:丰富插件鉴权方式,更便捷搭建MCP 2)支持配置MCP服务的输入参数,支持编辑和引用变量,配合记忆功能使用业务价值:支持将动态参数(如用户Token)传递给MCP服务,当API调用时通过headers传递该参数,便于API调用智能体。 六 运营运维-评估 1)新增30+平台预置评估器:创建评估器时,可选用预置的提示词模板;在评估任务中,也可选择预置的评估器进行配置。业务价值:为用户提供开箱即用式模板,降低使用门槛,提升专业度。 2)新增评估任务报告:在“评估报告”页签中,可全面、直观地查看评估任务的最终结果,页面采用模块化设计,分为总览、得分统计、人工标注统计三大区域业务价值:从多个维度呈现评测数据的表现,助力高效分析与决策。 3)评估器支持版本管理:可查看评估器的历史版本,支持删除特定版本,并可将当前版本还原至任意历史版本业务价值:便于版本迭代与问题追溯 4)评测集支持版本管理:支持查看评测集的历史版本,可删除旧版本,并恢复至任意历史版本业务价值:确保评测数据的可管理性与可回溯性 5)支持标签管理:用户可在标签管理页面新建标签,创建后可应用于评估结果中业务价值:实现对评估数据的结构化标注与分类 6)支持数据标记:在任务评估完成后,可对自动化评估结果进行人工标注业务价值:以补充判断、提升结果的可解释性与实用性。 7)评测集数据支持导入和导出业务价值:方便用户灵活管理与共享评测数据,提升数据复用效率与协作能力。 八 用户体验优化 1)Agent在变量引用赋值时,按节点对象进行折叠;打开参数自动定位到已选节点参数上业务价值:在节点和变量值过多时,节点分类折叠简化呈现方式;自动定位所需节点,减少误操作率。 2)工作流调试日历功能优化:显性化会话记录,直观展示调用状态及数值业务价值:简化调试的操作步骤,效率提升。 3)高级意图识别节点,选择意图包时提供一个快速创建的跳转链接业务价值:提供“创建意图包”的快捷入口,操作无断点,效率提速。 4)工作流节点,新增快速查看资料教程的入口业务价值:提供快速查看文档说明的快捷方式,用户友好,优化体验 5)工作流应用编排节点配置面板,支持手动调整宽度业务价值:提升编辑的灵活度,满足不同用户操作需求 诚邀您立即体验AgentArts智能体开发平台,解锁全新智能之旅!开发个人专属的生产级智能体。点击进入>>控制台 点击可前往>>华为云AgentArts智能体开发平台 官网
AgentArts运营小助手
发表于2026-03-17 09:53:16
2026-03-17 09:53:16
最后回复
yd_225108026
2026-04-27 18:53:38
3161 1 -
YOLO官方使用的AI框架的变化情况可以分2个阶段,YOLOv1 - YOLOv3:由YOLO算法的原始作者Joseph Redmon开发,使用C语言编写,并基于一个叫做 Darknet 的深度学习框架,而不是PyTorch或TensorFlow。YOLOv5及以后 (YOLOv8, v9, v10, v11):原作者停止更新后,YOLO的接力棒主要交到了 Ultralytics 等团队手中。目前最新、最流行的版本,官方明确使用 PyTorch 框架进行开发和维护。你可以在它们的官方GitHub仓库和文档中看到,核心代码和预训练模型(.pt文件)都是基于PyTorch的。在YOLOv3和v4时代,有很多开发者基于TensorFlow复现了YOLO算法。这些非官方的、但质量很高的开源项目,让TensorFlow用户可以很方便地训练和使用YOLO。同时,官方的PyTorch本身也支持将训练好的模型导出为多种其他格式,以便在不同环境中部署。你可以将 .pt (PyTorch) 模型先转换成通用的 .onnx 格式。再将 .onnx 转换成 TensorFlow 专用的 .pb 格式,甚至是专为移动端和嵌入式设备设计的 TensorFlow Lite (.tflite) 格式。所以,很多开发者是“用PyTorch做训练,转成TensorFlow做部署”,从而在同一个项目里用上了两个框架的优势。
-
最近 **Anthropic 官方发布了一份 33 页的 Claude Skills 构建指南**。很多人看到这个消息时的第一反应是:> Skills 不就是 Prompt 模板吗?如果只是这么理解,那就低估它了。这份指南其实透露了一件更大的事情:**AI 应用的开发方式正在发生变化。**过去几年,大多数 AI 应用是这样的:```用户 → Prompt → LLM → 输出```但现在越来越多 AI 系统开始变成:```用户 → Agent → Skills → 工具 → 结果```也就是说:**Prompt 在减少,能力模块在增加。**Anthropic 的这份 Skills 指南,本质是在告诉开发者:**如何把 AI 能力做成模块化系统。**---# 目录- 1 Claude Skills 到底是什么- 2 Skills 的核心设计思想- 3 Skills 的工程结构- 4 Skills + MCP 的 Agent 架构- 5 Skills 的五种设计模式- 6 Skills 如何测试- 7 Prompt工程 vs Agent工程- 8 AI Agent 技术栈- 9 为什么 Skills 会成为 Agent 的核心能力---# 1 Claude Skills 到底是什么Anthropic 的官方定义其实很简单:**Skill = 一组可复用的任务流程。** 本质上,它就是一个 **能力模块**。一个 Skill 的典型结构是:```your-skill-name/SKILL.mdscripts/references/assets/```其中最重要的是:```SKILL.md```这个文件包含:* YAML 元信息* 技能描述* 执行步骤* 示例* 错误处理例如:```yaml---name: sprint-planningdescription: 自动规划项目冲刺任务 当用户说“规划冲刺”“创建任务”时使用---```执行流程:```1 获取项目状态2 分析团队容量3 建议任务优先级4 创建任务```简单来说:**Skill = 把经验封装成模块。**---# 2 Skills 的核心设计思想Anthropic 在文档中提出了三个核心理念。 ---## 1 渐进式加载Skill 不会一次性加载全部内容。而是三层结构:```Layer1 YAML metadataLayer2 SKILL.mdLayer3 references```加载流程如下:```mermaidflowchart TDA[用户请求] --> B[加载YAML元信息]B --> C{是否触发Skill}C -->|是| D[加载SKILL.md]D --> E[执行任务流程]E --> F[按需读取references]```这种设计带来的好处:* 节省 token* 保留复杂知识* 降低上下文污染---## 2 可组合性Claude 可以 **同时加载多个 Skills**。例如:```design-skillcoding-skillanalysis-skillreport-skill```一个 Agent 任务中可能变成:```Agent ├ design skill ├ coding skill └ report skill```所以设计 Skill 时必须注意:**不要假设自己是唯一技能。**---## 3 可移植性同一个 Skill 可以运行在:* Claude.ai* Claude Code* API* Agent 系统也就是说:**写一次,到处使用。**---# 3 Skills 的工程结构官方推荐的工程结构如下:```skill-name│├── SKILL.md├── scripts├── references└── assets```每个组件的作用:| 组件 | 作用 || ---------- | ------ || SKILL.md | 核心逻辑 || scripts | 自动执行脚本 || references | 知识文档 || assets | 模板资源 |一个 Skill 的典型执行流程:```mermaidsequenceDiagramUser->>Claude: 创建项目计划Claude->>Skill: 触发SkillSkill->>MCP: 获取项目数据MCP->>Skill: 返回数据Skill->>Claude: 生成计划Claude->>User: 输出结果```---# 4 Skills + MCP 的 Agent 架构如果说:**MCP 是连接层**那么:**Skills 就是知识层。** 架构如下:```mermaidflowchart TDUser --> AgentAgent --> SkillsSkills --> MCPMCP --> GitHubMCP --> NotionMCP --> LinearMCP --> Slack```一句话总结:```MCP 解决:AI 能做什么Skills 解决:AI 应该怎么做```---# 5 Skills 的五种设计模式Anthropic 总结了五种常见设计模式。---## 1 顺序工作流适合:多步骤自动化任务。```创建账户↓设置支付↓创建订阅↓发送欢迎邮件```---## 2 多 MCP 协同例如设计交接流程:```mermaidflowchart TDA[Figma MCP]A --> B[导出设计资产]B --> C[Drive MCP]C --> D[创建文件夹]D --> E[Linear MCP]E --> F[创建开发任务]F --> G[Slack MCP]G --> H[通知团队]```---## 3 迭代优化适合:报告生成、数据分析。```生成初稿↓质量检查↓修改↓重新验证```---## 4 情境工具选择```大文件 → 云存储协作文档 → Notion代码文件 → GitHub```---## 5 领域知识 Skill例如金融风控系统:* 风险规则* 合规流程* 审计记录都可以嵌入 Skill 中。---# 6 Skills 如何测试官方给出三种测试方式。 ---## 1 触发测试验证 Skill 是否正确触发。例如:应该触发:```帮我创建项目帮我规划冲刺创建任务```不应该触发:```今天天气写Python脚本```---## 2 功能测试验证任务是否成功执行。例如检查:```任务是否创建参数是否正确MCP调用是否成功```---## 3 对比测试比较:```无 Skillvs有 Skill```官方示例:| 指标 | 无技能 | 有技能 || ------- | ----- | ---- || 消息数 | 15 | 2 || API错误 | 3 | 0 || token消耗 | 12000 | 6000 |---# 7 Prompt工程 vs Agent工程这张图最能说明问题:```mermaidflowchart LRPrompt[Prompt]Prompt --> LLMLLM --> OutputAgent[Agent]Agent --> SkillsSkills --> ToolsTools --> Result```对比:```传统AI应用Prompt → LLM → 输出Agent系统Agent → Skills → 工具 → 结果```---# 8 AI Agent 技术栈如果从系统架构看,AI Agent 的技术栈大致如下:```mermaidflowchart TDUser --> AgentAgent --> MemoryAgent --> SkillsSkills --> MCPMCP --> ToolsTools --> ExternalSystems```系统分层:```用户↓Agent↓Skills↓MCP↓外部系统```---# 9 为什么 Skills 会成为 Agent 的核心能力Prompt 最大的问题是:**经验无法沉淀。**每次都要重新写。但 Skills 可以:```把经验封装成能力模块```例如:```coding-skillanalysis-skillreport-skilldesign-skill```未来 AI 系统很可能变成:```mermaidflowchart TDAgentOS --> SkillsMarketplaceSkillsMarketplace --> MCPMCP --> ToolsTools --> ExternalSystems```也就是:```Agent+ Skills+ MCP+ Tools```这非常像软件系统:```操作系统+ 函数库+ 插件```---# 结语Anthropic 发布 Skills 指南,其实透露出一个非常清晰的趋势:**AI 正在从“聊天系统”变成“能力系统”。**未来 AI 工程的核心很可能不再是:```Prompt Engineering```而是:```Agent Engineering```在这种架构下:* Skills 是能力模块* MCP 是工具连接层* Agent 是调度系统如果你正在做:* AI Agent* 自动化系统* MCP工具* 企业AI应用那么 Skills 这种能力封装方式,很可能会成为 **下一代 AI 工程的重要模式**。
-
1. AI开发平台ModelArts新功能2025年12月份到2026年2月份没有发布新功能。半年没有发布新功能了,只做了文档更新,如下:ModelArts文档导航围绕大模型开发训推流程开展,不再按产品形态区分用户指南。ModelArts的专属资源池、轻量算力节点、轻量算力集群文档都合并到《算力资源管理》文档中。新增《 数据准备》、《模型评测》 、《模型调用》 文档。2. 人工智能相关直播合集2月份的相关整理如下:Oam-Tools & AMCT工具介绍与使用AMCT是亲和昇腾AI处理器的模型压缩工具,致力于模型的“瘦身”和“提速”,解决模型尺寸庞大带来的显存占用高和计算规模大的问题。oamtools则是运维工具,问题分析工具。刚好最近在做quantize算子,所以这个直播还是很有帮助的,特别是量化部分。cid:link_0PyPTO & Runtime开源解读PyPTO是CANN推出的一款面向 AI 加速器的高性能编程框架,旨在简化算子开发流程,同时保持高性能计算能力。pyPTO是方便算法开发人员开发算子的高效框架,提供不同层次的抽象级别。而Runtime则是底层算子运行的机制。上下都有了解,则对于打通整体就很有帮助。cid:link_1
推荐直播
-
Skill 构建 × 智能创作:基于华为云码道的 AI 内容生产提效方案2026/03/25 周三 19:00-20:00
余伟,华为云软件研发工程师/万邵业(万少),华为云HCDE开发者专家
本次直播带来两大实战:华为云码道 Skill-Creator 手把手搭建专属知识库 Skill;如何用码道提效 OpenClaw 小说文本,打造从大纲到成稿的 AI 原创小说全链路。技术干货 + OPC创作思路,一次讲透!
回顾中 -
码道新技能,AI 新生产力——从自动视频生成到开源项目解析2026/04/08 周三 19:00-21:00
童得力-华为云开发者生态运营总监/何文强-无人机企业AI提效负责人
本次华为云码道 Skill 实战活动,聚焦两大 AI 开发场景:通过实战教学,带你打造 AI 编程自动生成视频 Skill,并实现对 GitHub 热门开源项目的智能知识抽取,手把手掌握 Skill 开发全流程,用 AI 提升研发效率与内容生产力。
回顾中 -
华为云码道:零代码股票智能决策平台全功能实战2026/04/18 周六 10:00-12:00
秦拳德-中软国际教育卓越研究院研究员、华为云金牌讲师、云原生技术专家
利用Tushare接口获取实时行情数据,采用Transformer算法进行时序预测与涨跌分析,并集成DeepSeek API提供智能解读。同时,项目深度结合华为云CodeArts(码道)的代码智能体能力,实现代码一键推送至云端代码仓库,建立起高效、可协作的团队开发新范式。开发者可快速上手,从零打造功能完整的个股筛选、智能分析与风险管控产品。
回顾中
热门标签