-
我们经常在追问智能的可解释性,但我们是否清楚甄别了这个可解释性本身的意涵。 当跟一个人类的智能个体对话时,针对一个发问,一个人类个体智能作出回答。当我从第三者角度来观察这个他者智能为什么作出那个回答时,我是在探究他的回答的可解释性。 探究他者这个智能体为什么作出那个回答的可解释原因,有两个方向: 第一个方向是我应用现在最先进的各种科技手段和设备,观察他者这个智能体接受到提问信号,这个信号如何触发他的感知蛋白,然后又如何触发他的感知神经元,进一步触发他脑内神经元网络内的信号是如何传导、权重域调整、如何输出肌肉信号.......等等,从脑神经物理实体自身层面如何发生、发生什么的角度来观察整体的过程,这就是一种可解释性视角。 第二个方向是我跟他者这个智能体继续对话,提问他之前那个回答是基于什么思考才做出的,然后他者这个智能体继续回溯思考,基于他之前回答在脑内思考时的完整上下文过程和各种概念(符号)关联过程,告诉我在之间的那个回答中做出解释的思考过程,也就是他前面回答的可解释性。 当我们人类智能个体之间对话时,我们彼此提问对方,对方做出回答,彼此常需要对方做出之前回答的可解释性,诘问他回答的思考过程,此时我们诘问对方智能的可解释性,这个可解释性指的是智能对“之前回答的思考链条”的上下文“继续回溯扩展之前回答的思考链条”的意涵,而并不是指他者智能“脑内神经元网络在发生着什么、怎么工作、怎么数据和计算”的意涵。 引出的关于AI技术开发应用的可解释性概念,我们对AI系统在基于庞大数据的神经网络计算后得到输出结果,只能观察系统的涌现结果,也就是我们很难获得AI系统的涌现本身的可解释性,然而我们人类智能个体之间交流互动的可解释性,所指称的从来不是对方大脑内的智能涌现本身的可解释性,而是对方智能对之前智能涌现的进一步扩展智能涌现。也许我们开发AI技术,当提到需要他的可解释性时,训练AI模型使得模型能对之前思考链条可进一步以完美闭环逻辑自洽的方式展开更多的输出。这才是有效的、可行的发展AI模型的可解释性的技术路线。
-
设计一套自定义设计的 元素、元操作、元功能、之间的协作规则、上层目标功能。 实现这些可以采用 C/C++ 语言,用C/C++ 语言实现解释器模块架构。各模块的工作机制描述,是描述各模块的实现自定义编程语言中的哪些目标项,描述越规则、越协调,就越容易实现自己的语言解释器。 让智能体自己编程实现解释器,自己生成目标自定义语言,提供给智能体自己实现的解释器运行,进行调试的迭代循环。 让智能体实现自举式、自进化的编程语言系统,将元编程、语言设计、解释器实现与智能体的自动化等技术融为一体,AI智能体将使得自动编程技术进一步深度发展; 人类自然语言描述机制规则,让智能体自己实现自定义的目标编程语言,而不是指现成的编程语言,是让智能体配合开发者的需要,实现自己定制的编程语言,让智能体创造新的编程语言; 每个人根据自己的领域知识,给出不同的自然语言的描述,那就生成个性化的适合每个人自己领域适用的编程语言,这些个性化编程语言为个人自己的需要而创建,如果特别优秀也可以分发给社区共享; 这个技术能实现的基础前提,是智能体的自动化编程、自动化编译、自动化生成目标定制语言,技术除了解释器的技术架构设计,还有重要的智能体的工作机制的设计。最终会进化出符合我需求的定制解释器、自定义编程语言;
-
后面智能体接入自动化行业的工业控制软件系统,到那个阶段,智能体操作出错会导致物理损害,所以推广的门槛高了;智能体接入自动化行业的工业控制软件系统,已经很容易实现;只要给硬件的PLC逻辑编程和组态软件配置开发一个MCP接口、给上位机监控软件设计MCP接口,开发一个调用插件,作为与智能体和硬件之间的调用接口,智能体就可以根据自然语言指令控制所有自动化机器设备的运行了;但存在巨大的安全隐患和门槛:物理世界的机器运行不能随便调试出错,不同于代码空间可以随意折腾;
-
多方Ai战争系统进入互相博弈的强化学习式进化螺旋,潘多拉盒子已经打开。 不用AI战争系统的一方,将透明而亳无安全。 拥有AI的各博弈参与方,通过各自的AI系统,实时感知,即感知对方的状态信息,也感知对方AI系统的感知网络、攻击状态网络的信息。 AI系统遍布的感知网络,实时识别对方的AI系统的状态模式,多方的AI智能系统之间还会持续通过侵入对方的感知网络,互相给对方生成虚假信息,欺骗对方AI系统,进入AI之间的互博。 传统的网络攻击,已经进化为数字空间内的智能体之间进行博弈攻击,是智能攻击,从数字空间通过PLC自动化控制电机系统进入到实体世界网络的攻击。 博弈多方的AI系统,各自生成博弈策略,欺骗对方的AI系统、攻击对方AI系统,根据对方的攻击进行智能化快速反击。 AI的智能战争,攻击不依赖持续网络通信,即使海底电缆切断,也可快速构建局域AI感知网络,侵入局域网进行攻击。通过卫星的状态感知,或者通过快速构建无人机、智能飞行物的的临时感知网络,通过快速构建的局部AI的感知网络和AI算法,自动得到攻击策略。类似于一个独立的战士,可以自主进行独立的攻击,只要他针对攻击目标能实时感知到状态信息,就能进行实时AI智能策略推理、决策、行动。 AI智能战争系统通过PLC攻击控制生产制造,即使PLC有防火墙和密码,底层的工业控制软件内部的“奸细”可以被AI识别和调用,工厂的高端进口设备,对方可以跟踪和关闭,那么AI持续在后台的数字空间内幽灵般地训练,更容易控制对方的设备。AI在实体世界内,通过感知网络实时感知世界物理、人物的动态信息,在数字空间内,可以实时感知世界各地生产系统的生产制造信息。AI实时侦听加密的二进制数据,结合表观状态信息,可以建立加密-->破解之间的映射,所有联网的物理设备,加密无用,所以这是AI之间互相博弈啊,看谁牛逼。控制了AI,就是控制了一切,即控制了生产制造、也控制了战争能力。 AI Coding 的开发已经进入到源代码生成,到直接生成二进制,绕过加密,直接分析二进制,果算力够的情况下,基本上所有加密级别无效,只要是走二进制的,二进制可以认为是一个图片的像素,二进制报文就是一种非人类交流用的有意义语言,只要是有意义的符号系统,不管你什么类型的信息方式,都可被AI识别,凡是有模式化的一切存在形式,都将被AI识别。 每个社会单元,未来都将基于一个防火墙 AI 智能体的底层基础设施进行社会存在(生活和生产) ,国家将构建防火墙 AI 智能体的基础设施,在方方面面。国家之间 是防火墙 AI 智能体“神” 之间战斗,是“神” 之间的战斗,人类已经打开了这个 囚徒困境 的博弈螺旋。 用AI的智能化快速反应的反击,才能对抗敌对方的AI系统的智能快速攻击,人类进入纯粹的科技角力,基本不需要肉身战士。
-
硬件开发做PLC编程,有一种技术可以开发,就是模态A的输入信号-->通过内置小模型(AI模型)-->自动创建优化出PLC指令流-->驱动电机机械的动作模式,相当于从感知直接映射到动作的智能,人类感知到信息,到动作,大部分不是思维推理后得出的动作,而是内置在大脑内的直接映射,当然需要有个前提,就是内置小模型(AI模型)把感知信息到自动PLC指令流的映射生成,需要一个规则(强化学习方向),这个规则是根据每个具体的电机所在的实际机器应用场景的需要设定的。在这个领域方向,将产生整个的新硬件生态,所有的机电系统,全部开发成集成内置AI小模型的智能电机,然后才组成实现上层的完整智能机器,比如开发一个关节电机,把力感知、位移感知的信息与PLC控制指令流的映射,在AI小模型上实现自动进化,这个关节电机作为机器人的膝关节,和作为手关节,功能目标不一样,所以根据外部感知信息,自动迭代强化学习所映射生成的PLC指令流是不一样的,且各自优化迭代。先开发一个关节电机,把力感知、位移感知、温度感知等信息与PLC指令流进行自动进化,然后再融合物理视觉、物理声像信息与PLC指令流的映射自动进化,再融合抽象声像信息(符号信息),再融合文字、图像的抽象视觉声音信息(符号信息)。智能电机进化路线,一种是工控电机PLC指令流编程,控制参数进行迭代进化,即数据进化模式的技术实现;另一种是根据功能目标通过强化学习实现PLC指令流的进化,这相当于算法自进化模式的技术实现。人类智能进化的过程,首先是直接肌肉动作的直接智能(直接映射),后面才是抽象层级的符号智能(符号系统思维链映射)。
-
设想一个自定义的MCP协议,定义为我们自己软件系统的自动化动作接口,设计专用MCP 协议格式,不一定非要与那些巨头定义的MCP协议规则一致。 在国内层面将来在产业界,行业协会出面制定行业协议,统一国内产业界的各种产业软件、工业控制软件的MCP协议,这样一个工厂里的各种机器设备的软件功能的操作接口都按照这个协议,终端用户自定义开发的智能体匹配它,就可以无缝自动化控制这些机器设备。 当然会有严格的安全操作动作的规则,作为防火墙智能体的协议,经过训练后融入智能体。智能体的自动化操作出现幻觉或危险化,被防火墙智能体的协议所定义的操作容器给废弃。 所有自动化操作的危险模式,定义一个危险动作模式的数据集,训练一个监督智能体,作为防火墙智能体,作为产业智能化的底座。所有自动化操作的危险模式,定义一个危险动作模式的数据集,就相当于人类社会的法律道德规则,限制人类行为模式,用来限制智能体的操作动作的行为模式。 在这个基础底座上,终端用户可进行任意场景应用的自定义智能体的自动化开发,这样应用场景的智能体的危险动作和幻觉都将被屏蔽。 这个技术系统也许实现比较难,但恰恰有难度,大量的程序员才有足够的工作量,有足够岗位技术开发需求去养活开发者,如果容易实现了,大量的开发者的价值就消失了。 将来将会产生大量的机器智能引导类型性质的程序员,与机器人融合为一个整体的工作系统。将来的社会,不会由机器人的自动化完成全部工作,将来的经济工作系统是程序员引导性工作与机器人智能工作互相配合,实现系统整体的完整自动化。 比如将来的家用养老机器人,也许10个机器人要与一个引导程序员进行配合,完成家庭服务工作。机器人永远需要在人类程序员的引导下进行迭代和完成那个完整的工作任务。 将来也许会出现一类新公司或新工作,叫机器人引导技术服务公司,将来的程序员称为机器人引导员,人类大脑智能与机器人大脑智能互相合作迭代,维持社会的整体自动化运行循环。比如10个家庭买10个机器人,然后机器人引导技术服务公司派遣引导程序员,提供实时引导技术服务,协调、纠正机器人的家庭服务工作。 人类的生活水平提高了,人类的工作和价值也持续存在,这也许是未来完美的文明与经济的系统的样子。
-
15年前突发奇想首次记录为博文,期间多次补充了一些新理解
-
Science | 从碳基到硅基的进化共鸣:多智能体强化学习重演生物社会合作的神经策略 在这个充满竞争的自然界中,我们常被灌输“适者生存”的丛林法则。然而,当我们回望人类文明的基石,或者观察狼群的围猎、大象的互助,会发现另一个同样古老且强大的法则:合作。合作不仅仅是两两个体物理距离的接近,它是一场发生在两个大脑之间精密复杂的“双人舞”。但是,这种舞蹈是如何编排的?当我和你为了一个共同的目标协同行动时,我的大脑里究竟发生了什么?我如何预判你的行动?我的神经元是如何不仅编码“我”,还学会了编码“你”? 为了解开这个谜题,研究人员进行了一项令人印象深刻的跨学科研究。他们不仅窥探了小鼠在通过合作获取奖励时的大脑活动,还在人工智能系统中复现了这一过程。这项发表于1月1日的《Science》,“Neural basis of cooperative behavior in biological and artificial intelligence systems”,为我们揭示了合作行为背后那惊人相似的神经计算原理。 独行快,众行远:一场精心设计的“双鼠游戏”要研究合作,首先得定义合作。在野外,合作稍纵即逝且充满干扰。因此,研究人员在实验室里搭建了一个巧妙的舞台。这是一个被透明隔板一分为二的盒子。隔板中间有孔,允许两边的小鼠通过视觉、嗅觉甚至触觉进行交流。规则很简单:两只小鼠必须在极短的时间窗口内,同时用鼻子触碰各自区域的传感器(Nose-poke),才能获得美味的水作为奖励。如果只有一只老鼠触碰,或者两只老鼠触碰的时间差太大,谁也喝不到水。这并非易事。起初,时间窗口被设定为宽裕的3秒,但随着训练的深入,这个窗口被无情地压缩到1.5秒,最终缩短至 0.75秒。这意味着,只要有一方稍有迟疑,合作就会失败。数据告诉我们,这绝非随机的巧合。在经历了漫长的训练后,76% 的小鼠配对表现出了显著高于随机水平的合作成功率。研究人员通过“乱序重排”(Shuffling)的方法构建了随机模型——即如果两只老鼠互不理睬,只是按照自己的节奏乱点,它们碰巧成功的概率是多少。结果显示,经过训练的小鼠,其不仅成功率远超随机水平,而且失误率(Miss trials)大幅下降。更有趣的是,在这些成功的小鼠中,约有 41% 被归类为“高表现组”(High-performance pairs)。它们不仅配合默契,而且随着训练的进行,它们两次触碰之间的时间差越来越短。在最后的训练阶段,这些“高表现组”在 0.75秒 的严苛窗口下展现出了惊人的同步性,仿佛它们之间有一条看不见的神经连线。但是,这真的是“合作”吗?还是只是两只老鼠各自学会了听到某个声音就冲过去?为了验证这一点,研究人员做了一系列巧妙的控制实验。首先,他们把那块透明的隔板换成了不透明的实心隔板。视觉线索被切断了。结果立竿见影:成功合作的次数骤降,而单方尝试却无法获得奖励的“失误”次数激增。这说明,看到伙伴,是合作的关键。其次,他们设计了“单边合作”(Unilateral cooperation)实验。在这个版本中,一只老鼠(老鼠A)无论何时触碰都能得到奖励,而另一只(老鼠B)必须配合老鼠A的节奏才能得到奖励。如果合作只是简单的模仿,那么老鼠B完全可以跟着老鼠A做。但结果显示,在这种不对等的关系中,老鼠B的合作表现远不如双方都需要合作时那么好。这有力地证明了:真正的合作,需要双方都意识到“共同利益”的存在,并据此主动调整自己的行为。 无声的交流:策略的进化如果我们将镜头拉近,逐帧分析这些高表现小鼠的行为,会发现它们进化出了一套复杂的社交策略。这不仅仅是简单的条件反射,而是一场无声的战术交流。利用先进的姿态追踪算法(SLEAP),研究人员捕捉到了三个关键的行为模式:1. 靠近 (Approach)小鼠会有意识地向隔板靠近,进入对方的视野范围。 2. 等待 (Waiting)这是最令人着迷的行为。当一只小鼠先到达触碰口时,它没有急着行动,而是停下来,在“社交区”等待伙伴的到来。数据显示,这种等待行为在训练过程中大幅增加,且主要发生在触碰前的 2秒内。这种“克制”是合作成功的基石。 3. 互动 (Interaction)两只小鼠会隔着隔板头对头,仿佛在确认眼神。在训练初期,这种互动往往发生在相距较远、角度各异的情况下(约180度面对面)。但随着默契的增加,它们互动时的角度变成了更有效率的 120度左右——既能保持眼神交流,又能随时转身去触碰传感器。数据显示,这种“互动”行为在训练过程中增加了 158.9%。更重要的是,这些行为并非漫无目的。相比于失败的尝试,在那些成功的合作之前,小鼠表现出了更明显的等待和互动。这告诉我们,合作不是一个瞬间的动作,而是一个包含预判、抑制冲动和即时通讯的连续过程。大脑中的指挥官:前扣带回皮层 (ACC)这套复杂的战术是在哪里被指挥的?研究人员将目光锁定在了前扣带回皮层(Anterior Cingulate Cortex, ACC)。这个脑区在人类中就已知与情绪、决策和社交密切相关。利用微型显微钙成像技术(Microendoscopic calcium imaging),研究人员记录了17对小鼠在进行合作任务时,ACC区域内 12,798 个神经元的活动。一幅壮观的神经交响乐展现在眼前。首先,他们发现了专门编码“结果”的神经元。有些神经元只在合作成功(Correct poke)时放电,有些则只在失败(Miss poke)时放电。有趣的是,随着训练的深入,那些代表“成功”的神经元比例逐渐增加,而且这与小鼠的合作表现呈现出明显的正相关。换句话说,大脑正在通过增强“成功”的信号来固化合作的记忆。但更令人兴奋的发现在于社交信息的编码。“我”与“你”的神经表征在ACC中,研究人员不仅找到了表征“我在哪”(Self position)的神经元,更找到了大量表征“你在哪”(Partner position)的神经元。当隔板变成不透明时,那些编码“你在哪”的神经元活动几乎消失了(减少了 76.05%),而编码“我在哪”的神经元受到的影响则小得多。这一发现至关重要——它意味着小鼠的大脑中构建了一个关于伙伴位置的动态地图。而且,这部分表征伙伴位置的神经信号越强,小鼠的合作表现就越好,它们也更倾向于展现出“等待”的行为。“行动”与“克制”的决策信号最精彩的部分在于决策。合作的本质往往在于何时行动(Proceed),以及何时按兵不动(Hold)。研究人员发现,ACC中的神经元群准确地编码了这两类截然相反的决策:• Hold(保持):当我到了,但你还没到,我必须克制自己不去触碰。• Proceed(行动):当我们都到了,现在的时机完美,我们要一起行动。随着训练的进行,小鼠大脑中正确发出“Hold”和“Proceed”信号的次数显著增加,而错误的决策信号(比如伙伴没来就盲目行动)则大幅减少。解码分析显示,我们可以仅通过观察神经元的活动,就能预判小鼠是决定等待还是决定行动。这表明,ACC不仅仅是在被动地记录位置,它更是在整合了“我”和“你”的信息后,主动计算并发出战术指令的指挥中心。破坏引擎:当ACC停止工作相关性并不等于因果性。为了证明ACC是合作行为的必要条件,研究人员使用了化学遗传学(DREADDs)和光遗传学(Optogenetics)技术来“沉默”这个脑区。当通过注射药物(CNO)抑制ACC的神经活动时,小鼠的合作成功率出现了明显的下降。这并不是因为它们不想喝水了(它们尝试触碰的总次数并没有减少),也不是因为它们运动能力受损(在旷场实验中它们跑得很欢),更不是因为它们变得自闭了(在三箱社交实验中它们依然对同类感兴趣)。真正受损的,是它们的协调能力。数据显示,抑制ACC后,小鼠成功配合的那个极短的时间窗口(Poke interval)变长了,变得不再精准。更关键的是,那些支撑合作的策略性行为——“靠近”、“等待”和“互动”,其持续时间都显著缩短了。光遗传学实验提供了更精确的时间分辨率。研究人员发现,只有在合作发生前的决策阶段(Decision-making period)抑制ACC,才会导致合作失败;而在合作动作完成后再抑制,则毫无影响。这无可辩驳地证明了:ACC是处理实时社会信息、做出合作决策的关键枢纽。没有它,两只老鼠可能依然是个体层面的运动健将,但绝不再是默契的合作伙伴。硅基的镜像:AI眼中的合作世界如果说生物大脑的演化花费了数百万年才习得合作,那么在代码构建的世界里,人工智能是否会重演这一过程?研究人员构建了一个多智能体强化学习(MARL)环境。这相当于一个数字版的“双鼠游戏”:两个AI智能体(Agent)在一个8x8的网格世界中移动,它们同样需要观察环境,移动到一个随机出现的“触碰点”,并在极短的时间窗(2个时间步长)内同时到达,才能获得奖励。每个智能体都配备了一个循环神经网络(RNN),这是一种具有记忆功能的网络结构,类似于大脑的短期记忆。令人惊讶的趋同进化发生了。行为层面的重演:起初,AI智能体只是笨拙地随机探索。但随着训练次数的增加(约4000次迭代后),它们不仅学会了合作,而且发展出了与小鼠惊人相似的策略。数据展示了这一点:在合作模式下,AI智能体展现出了明显的“等待”行为。当一个智能体发现自己离目标更近,而伙伴还很远时,它会主动停下来,甚至向后退,以此来缩短双方到达目标的时间差(Synchronization correction)。这种主动的等待行为与它们最终的合作表现呈显著正相关。 神经层面的重演:当我们打开这些AI智能体的“黑盒子”,观察它们神经网络内部的运作时,发现了与小鼠ACC极度相似的编码模式。研究人员在人工神经网络的隐藏层(Hidden layer)中,同样找到了专门负责编码“自我位置”和“伙伴位置”的单元(Units)。而且,就像在小鼠脑中一样,当剥夺了AI观察伙伴的能力(类似于不透明隔板实验)时,这些编码伙伴信息的单元活跃度大幅下降,合作行为也随之崩塌。更进一步,AI的网络中也自发涌现出了负责“Hold”(我近你远,我要等)和“Proceed”(我们都近,一起冲)的决策单元。为了验证这些单元的功能,研究人员像在小鼠脑中做实验一样,在代码中进行了“消融”(Ablation)实验。• 当删除了编码“Proceed”的单元时,AI智能体的总触碰次数暴跌了 73%,它们变得犹豫不决,无法执行合作。• 当删除了编码“Hold”的单元时,虽然触碰次数没有减少,但“失误率”(Miss trials)大幅上升。它们失去了等待的耐心,变成了鲁莽的独行侠。殊途同归的智慧这项研究最为迷人之处,在于它搭建了一座连接碳基生物与硅基智能的桥梁。在生物大脑中,为了生存,ACC进化出了整合自身与他人信息、抑制冲动、精准决策的能力。而在人工智能中,为了最大化奖励函数,神经网络在没有任何预设规则的情况下,自发地“发明”了几乎完全相同的计算策略。这不仅揭示了合作行为的神经生物学本质——它依赖于对伙伴状态的实时监测和基于此的自我抑制;同时也暗示了,无论是由蛋白质构成的神经元,还是由代码构成的数学节点,在面对“如何协作”这个古老难题时,智慧似乎总是指向同一个解。在这个日益复杂和互联的世界里,理解这种连接的本质,或许比以往任何时候都更加重要。无论是在实验室的笼子里,在服务器的机架上,还是在人类社会的互动中,合作的奇迹,正是在这无数次的“等待”与“同行”中悄然发生。Science | 从碳基到硅基的进化共鸣:多智能体强化学习重演生物社会合作的神经策略
-
关于LeCun和哈萨比斯对智能本质的观点分歧,其实两者的观点都对,是不同角度的思考方向所得到的观点。从人类大脑结构模式的可塑性,人脑大脑神经网络是可沉淀性的通用智能网络,此通用是可沉淀、可塑形性的通用,是抽象可能性的通用。从人类大脑的个体实现智能,都是专业化的,非通用的,是专门化的,因为一旦神经智能网络具例化、实体化,那么就是特定化的,是在特定形态时间空间的训练过程中沉淀的特化智能。比如,现代人类考古学测量与结构分析已经知道,早期智人和现代智人的脑容不同,早期智人脑对世界感知所能发展的智能相对于现代智人脑有更明显的有限性,在进化竞争历程中淘汰,而远古时代的现代智人的脑容结构与现代人相同,古代智人脑、现代与当代人脑、未来人脑的结构稳定。古代智人的脑智能在古代状态下感知世界后认识沉淀结果,现代与当代人脑智能在过去智能符号化记录训练、加上现代状态下感知世界后认识沉淀结果,未来人脑智能在过去和现在智能符号化记录训练、加上未来状态下感知世界后认识沉淀结果,这三阶段的三种人脑容脑神经结构模式是稳定的,然而这三种人脑在世界存在中实际沉淀出不同智能的能力。这可以从如下的不同视角来分析看待,这三种人脑在世界时空的不同阶段,实际的智能实现是不同的(对世界有不同的认识、知识、思维),这个角度来看,人脑智能是专业化的、是实际时空中的感知所沉淀特化,即专用智能。这三种人脑在世界时空的不同阶段,其脑神经结构模式是稳定的,那么这个角度来看,人脑神经网络结构拓扑、智能模式是通用的,即通用智能,它适用于古代时空的训练学习得到古代的智能(古人对世界的认识与思维),适用于现代当代时空的训练学习得到当代人脑智能(现代当代人类对世界的认识与思维),适用于未来时空的训练学习得到未来人脑智能(未来人类对世界的认识与思维),这种普遍适用性就可看作为通用性。两者观点差别与联系的本质:是抽象可能的无限性---即通用性,与具象实例的有限性---即专业性,是这样的区别形式,是通用潜在性智能的无限可能与具例实体化智能的有限实现的辩证关系。
-
智能模型群社会的概念:相对于单体的模型智能体,多数量和多类型的智能模型通过互联通信,在数字空间形成模型群社会,即智能体社会。这种“模型群社会”内部的自动化运作机制,将形成一套全新的技术范式。结合“互联、通信、博弈、强化学习”的新进展,可以把这个“模型互联网(Internet of Models, IoM)”的运作逻辑拆解如下:1. 模型互联与通信:模型社会的“神经系统” 在“模型群社会”构想中,个体模型不再是孤岛,而是通过API或MCP(Model Context Protocol)等协议连接起来的节点。 自动化交互: 现在的智能体(Agent)已经具备了调用工具和与其他模型通信的能力。例如,一个负责市场分析的“宏观模型”可以自动调用“天气预测模型”、“供应链模型”和“社交媒体情绪模型”来获取数据。 多智能体辩论(Multi-Agent Debate): 这就是模型智能单体之间的“对话”。多个模型(智能体)会针对同一个问题提出不同观点,通过相互质疑和辩论(通信),最终达成共识或修正错误。这种机制能显著提升推理的准确性和鲁棒性。2. 模型群体层级的强化学习:模型社会的“进化动力学”模型社会中的各单智能体之间的协作关系模式是“学习博弈之强化学习模式”,是这个模型群社会进化的引擎。这超越传统的单体强化学习,演变为多智能体强化学习(MARL)和群体策略优化。 博弈与协作: 在模型群体中,模型单体之间既有协作也有竞争。例如,在一个资源分配任务中,不同的“资源调度模型”会通过博弈来寻找最优解。这种博弈过程本身就是一种强化学习,它们通过试错(Trial and Error)和奖励信号(Reward Signal)来调整自己的策略。 模型群体相对策略优化(GRPO): 这是一种算法(如DeepSeek团队提出的GRPO)。它的核心思想是:不再需要一个独立的“评判员模型”(Critic),而是让模型在群体内部进行比较。 机制: 针对同一个问题,让多个模型(或同一个模型的多个副本)生成多个答案。 博弈: 在群体内部进行优胜劣汰,表现好的(获得更高奖励的)模型路径会被强化,表现差的会被抑制。 效果: 这种机制大幅降低了训练成本,并让模型群在相互比较中自发地提升了能力(如数学推理和代码生成能力的飞跃)。3. 模型群体的宏观自动化进化:模型社会的“自组织” 模型群体的宏观自组织自迭代进化,称为MASE(Multi-Agent Self-Evolving,多智能体自进化),这是一种从“静态模型”到“动态社会”的范式改变。 闭环反馈循环: 这个模型社会建立了一个“输入 -> 智能体系统 -> 环境 -> 优化器”的闭环。 环境反馈: 模型群内各单体执行任务后,从环境(真实世界或模拟器)取得反馈(如任务是否成功、用户是否满意),并与其他模型通信交互。 自迭代: 优化器根据反馈,自动调整模型群的“提示词(Prompt)”、“记忆结构”甚至“协作拓扑”。 无需人工干预的进化: 最新的研究,某些框架设定 自进化的 安全规范、保持性能规范、自主优化规范。模型群可以在没有人类程序员直接干预的情况下,通过模型自反思和模型间相互协作,自动修复缺陷、优化流程,甚至会自动化创造新工具(Tool Creation)来适应环境变化。4. “模型群社会”的图景 基于目前的技术(如现在已经发布的诸多智能体框架),这个“模型群社会”将呈现以下特征: 分层架构: 顶层(大脑): 通用大模型负责指挥、规划和调度(如CEO)。 中层(部门): 专业特化模型负责具体领域任务。 底层(手脚): 工具模型或具身智能模型负责执行物理或数字操作。 动态重组: 面对不同的任务(如“策划一场XXX任务”),系统会自动从模型库中挑选最合适的“领域模型”临时组建一个“虚拟项目组”,任务完成后解散,资源释放,这就是一种“自组织”。5. 总结 模型群社会,是一个基于群体宏观层级的强化学习的、去中心化的、自适应的复杂系统。 在这个系统中: 模型开源形成模型连锁繁殖是起点,在众多领域形成多数量多样性模型,基于模型之间互联的基础上(网络层),多个模型之间博弈与强化学习形成进化动力(算法层),然后使得多样性的宏观自组织是涌现智能社会结果(系统层)。这标志AI从“单体智能”(一个人干活)向“社会智能”(一个社会在协作、竞争和进化)跨越。未来的AI将不再是一个个孤立的软件,而是一个像人类社会一样,拥有分工、协作、市场(博弈)和文明(知识体系)的数字文明共同体。
-
具身智能和世界模型是一体化的同一智能,要让智能理解世界模型,必须是通过具身智能的技术路线发展出来,所有不同的生物,不同的智能形态,都是直接决定于这个生物在物理时空中的生存形式。各种生物对物理反馈,都可以看作这种生物对世界的一种理解形式,所以,直接在物理时空中的具身化发展和训练出的智能,才能理解世界。智能“理解”世界,这个所谓的“理解”,其实是它的生存形式的模式化。没有固定的对世界的“理解”,“理解”存在于具身智能在物理世界中的存在特定形式中。“理解”即“有效的生存模式”,智能体为了在特定物理形态下达成目标函数(生物的成功生存)而内化的一套“感知-行动-预测”循环模式。蝙蝠对世界的“理解”是超声波的反射模式。蜜蜂的“理解”是偏振光和舞蹈的通讯。因此,不存在一个绝对客观的“世界模型”,只存在相对于某种“具身形式”有效的达成目标函数的世界模型。
-
范式一:无语言交互的生物神经智能 —— “直接映射”范式(信号模式直接驱动)核心机制:感知信号 → 内部状态/神经网络 → 行动模式通信媒介:依赖连续、模拟的信号,如信息素(化学浓度)、超声波(物理回声)、电场变化。信号与意义直接绑定(信息素浓度高 = 路径可靠)。智能的体现:其宏观“智能”表象并非个体内部的复杂计算,而是宏观种群层面,通过进化博弈筛选出的、固化的“最优映射集合的神经网络态”。每一个体智能已经沉淀出高效“感知信号-行动模式”的神经网络反射器。例子:蚂蚁觅食:并非某只蚂蚁“计算”出最短路径,而是“绕远路”的信息素挥发更快,导致“抄近路”的路径信号更强,从而涌现出群体智能,有些个体蚂蚁(个体神经网络反射器)不在蚂蚁群体最有效生存目标(目标函数)的求解空间,则在进化博弈过程中被淘汰。蝙蝠回声定位:对回声信号的精细处理,是直接映射到飞行肌群的微调指令,是一种极其精密的伺服机制,而非“思考”后的决策,有些个体蝙蝠(个体神经网络反射器)不在蝙蝠群体最有效生存目标(目标函数)的求解空间,则在进化博弈过程中被淘汰。范式二:有语言交互的生物神经智能 —— “符号介导”范式(信号模式加符号模式的组合驱动)核心机制:感知信号 → 信号模式化→ 符号抽象 → 符号运算 → 时空行动映射 → 行动模式。通信媒介:语言(肢体运动模式、声音尤其是分节音模式、图形模式即文字系统)是一种离散、任意的符号系统。比如声音“喵”与猫这个实体之间没有物理必然联系,这种关联是约定俗成的。这种任意性是符号诞生的基石。智能的飞跃:模式的集合系统的构建:生物神经网络在现实时空物理的生存游戏中,按照生物最有效生存目标函数的规则约束(强化学习约束),通过大量的实际交互的博弈过程,生物神经网络在感知-行动过程中沉淀出网络表征的模式的集合。反面例子是,狼孩脱离人类丰富的生存游戏博弈,没有人的生存形式的大量的感知-行动的实际交互的博弈过程,狼孩的神经网络没有沉淀出人脑智能(神经网络储存了人的生存形式的模式的集合),基本接近于狼脑智能(神经网络储存了狼的生存形式的模式的集合)。内部世界的构建:为了产生和理解各种模式(符号),神经网络必须演化出内部符号表征模块。这导致了一个革命性变化:世界在大脑中被“符号化”了。离线推理与规划:一旦世界被符号化,大脑就可以在没有直接感知输入的情况下,对符号进行操作、组合和推理(即“思考”)。狼群可以通过嚎叫(符号)协商狩猎策略,而非必须看到猎物后才行动。模式的集合(知识系统)的代际传递:模式的集合(符号化的知识系统,比如“哪种果子有毒”)可以通过符号(语言)进行跨个体、跨代传递,不再完全依赖缓慢的基因进化。学习效率呈指数级提升。这个“双通道模型”至关重要:在高级生物中,并非所有行动都经过符号模块。在紧急情况(烫手缩回)或熟练技能中,依然是“直接映射”通路主导以保证速度;而在复杂决策时,“符号介导”通路才被启用。这种“条件反射”与“深思熟虑”并存的双轨架构,是效率与灵活性的完美结合。从“感知-行动”的直接耦合,到被“符号系统”中间介导的间接耦合,智能获得一种全新功能:不再仅仅是世界的反应器,而是通过模式集合的操作运算,为世界进行虚拟模型化构建与模拟。它能够思考“可能的世界”(未来规划、假设推理),而不仅仅是回应“眼前的世界”。人类的高级智能能够产生连锁爆炸式发展——因为它从与实际时空物理环境博弈开始,超越了对实际时空物理的依赖, 在一个由模式的集合(符号、图式、语言、人类知识系统)所构建的虚拟、广阔、自由的求解空间里进行高速运算,即实际世界可以在智能数字化虚拟空间进行“思想实验”。这是高级智能的创造力源泉,机器智能需要追求的终极能力。
-
大象的大脑有2570亿个神经元,人脑有850亿个神经元。 大象的智能潜力是超越人类的,只不过是大象之脑受限于其躯体结构的约束,由于其一生经历感知信息、数据采集训练的(大象人生)有限性,限制了大象之脑不能生成人脑的处理能力(智能)。假如大象之脑存在到人的躯体形式中,那么这个具有象之脑的人,其一生经历学习的感知训练的智能结果会超越一般人。所以具身智能的开发,智能成果不仅取决于硬件、模型、算法机制,更取决于具身机器硬件在实际物理时间空间经历过程的传感,其实际经历过程的感知信息、采集数据的训练所沉淀的成果。
-
1. 下载模型权重 安装python环境 conda create -n qwq_model python==3.13.6 conda activate qwq_model pip install modelscope 通过 modelscope SDK下载模型(https://www.modelscope.cn/models/Qwen/QwQ-32B)到制定目录 mkdir -p /usr/local/data/model_list/model/QwQ-32B modelscope download --model Qwen/QwQ-32B --local_dir /usr/local/data/model_list/model/QwQ-32B 2. 部署模型 vim /etc/sysctl.conf 设置 net.ipv4.ip_forward的值为1 source /etc/sysctl.conf docker pull swr.cn-southwest-2.myhuaweicloud.com/atelier/pytorch_ascend:pytorch_2.5.1-cann_8.2.rc1-py_3.11-hce_2.0.2503-aarch64-snt9b-20250729103313-3a25129 启动容器 docker run -itd \--device=/dev/davinci0 \--device=/dev/davinci1 \--device=/dev/davinci2 \--device=/dev/davinci3 \-v /etc/localtime:/etc/localtime \-v /usr/local/Ascend/driver:/usr/local/Ascend/driver \-v /etc/ascend_install.info:/etc/ascend_install.info \--device=/dev/davinci_manager \--device=/dev/devmm_svm \--device=/dev/hisi_hdc \-v /var/log/npu/:/usr/slog \-v /usr/local/sbin/npu-smi:/usr/local/sbin/npu-smi \-v /sys/fs/cgroup:/sys/fs/cgroup:ro \-v /usr/local/data/model_list/model:/usr/local/data/model_list/model \--net=host \--name vllm-qwen \91c374f329e4 \/bin/bash 来到容器环境 docker exec -it -u ma-user ${container_name} /bin/bashdocker exec -it -u ma-user vllm-qwen /bin/bash设置容器里的参数export ASCEND_RT_VISIBLE_DEVICES=0,1,2,3,4,5,6,7 export VLLM_PLUGINS=ascend # VPC网段# 需用户手动修改,修改方式见下方注意事项VPC_CIDR="192.168.0.0/16" VPC_PREFIX=$(echo "$VPC_CIDR" | cut -d'/' -f1 | cut -d'.' -f1-2)POD_INET_IP=$(ifconfig | grep -oP "(?<=inet\s)$VPC_PREFIX\.\d+\.\d+" | head -n 1)POD_NETWORK_IFNAME=$(ifconfig | grep -B 1 "$POD_INET_IP" | head -n 1 | awk '{print $1}' | sed 's/://')echo "POD_INET_IP: $POD_INET_IP"echo "POD_NETWORK_IFNAME: $POD_NETWORK_IFNAME" # 指定通信网卡export GLOO_SOCKET_IFNAME=$POD_NETWORK_IFNAMEexport TP_SOCKET_IFNAME=$POD_NETWORK_IFNAMEexport HCCL_SOCKET_IFNAME=$POD_NETWORK_IFNAME# 多机场景下配置export RAY_EXPERIMENTAL_NOSET_ASCEND_RT_VISIBLE_DEVICES=1 # 开启显存优化export PYTORCH_NPU_ALLOC_CONF=expandable_segments:True# 配置通信算法的编排展开位置在Device侧的AI Vector Core计算单元export HCCL_OP_EXPANSION_MODE=AIV# 指定可使用的卡,按需指定export ASCEND_RT_VISIBLE_DEVICES=0,1,2,3,4,5,6,7# 指定绑核,按需指定export CPU_AFFINITY_CONF=1export LD_PRELOAD=/usr/local/lib/libjemalloc.so.2:${LD_PRELOAD}# 默认启用 ascend-turbo-graph模式,指定启动插件export VLLM_PLUGINS=ascend_vllm# 如果使用 acl-graph 或者 eager 模式,指定启动插件 # export VLLM_PLUGINS=ascend# 指定vllm后端 v1export VLLM_USE_V1=1# 指定vllm版本export VLLM_VERSION=0.9.0 export USE_MM_ALL_REDUCE_OP=1export MM_ALL_REDUCE_OP_THRESHOLD=256 # 不需要设置以下环境变量unset ENABLE_QWEN_HYPERDRIVE_OPTunset ENABLE_QWEN_MICROBATCHunset ENABLE_PHASE_AWARE_QKVO_QUANTunset DISABLE_QWEN_DP_PROJ source /home/ma-user/AscendCloud/AscendTurbo/set_env.bash 运行API服务 nohup python -m vllm.entrypoints.openai.api_server \--model /usr/local/data/model_list/model/QwQ-32B \--max-num-seqs=256 \--max-model-len=512 \--max-num-batched-tokens=512 \--tensor-parallel-size=4 \--block-size=128 \--host=192.168.0.127 \--port=18186 \--gpu-memory-utilization=0.95 \--trust-remote-code \--no-enable-prefix-caching \--additional-config='{"ascend_turbo_graph_config": {"enabled": true}, "ascend_scheduler_config": {"enabled": true}}' > QwQ-32B.log 2>&1 & port端口号可以自定义,勿与已经使用的端口号冲突 3. 验证API服务 验证服务 curl http://192.168.0.127:18186/v1/completions \-H "Content-Type: application/json" \-d '{ "model": "/usr/local/data/model_list/model/QwQ-32B", "prompt": "What is moon","max_tokens": 64,"temperature": 0.5 }'
-
有发声的生物(猫、狗、鸟等)与无发声的生物(蚂蚁、蝙蝠、蛇等)的感知到行动闭环,中间过程的部分区别;有发声的生物的神经网络演化出了符号抽象模块,个体间通过声音模式的抽象形式实现传递信号的功能,声音模式演化为语言符号,对感知信号的模态进行抽象与符号模式映射,一部分的模式:从感知到行动的模式中有中间符号抽象模块的介入,通过符号系统内自身符号系的转换,映射外部行动模态的动态转换模式,从而用符号运算指导行动模式,另外也需知道,不是全部的感知到行动的闭环中都有符号模块的介入,有部分闭环是感知信号模态直接映射行动模式。无发声的生物的神经网络没有演化出符号抽象模块,个体间不通过声音的传递协调行动,是通过化学信号、无线电信号的感知协调行动,所以这类生物的神经系统没有演化出语言模块,这些生物的神经网络是直接从感知信号模式映射行动模式,在宏观时空过程中大量个体在过程中的不同映射(不同的神经网络链接权重参数集),相同感知模态的不同行动模式会导致不同的后果,经过宏观过程的大样本数量的选择淘汰的博弈机制,沉淀出相对最优化的“感知-->映射-->行动”的映射集,这个最优化的映射集表象为“最聪明”的形式即“智能”。
推荐直播
-
华为云码道-AI时代应用开发利器2026/03/18 周三 19:00-20:00
童得力,华为云开发者生态运营总监/姚圣伟,华为云HCDE开发者专家
本次直播由华为专家带你实战应用开发,看华为云码道(CodeArts)代码智能体如何在AI时代让你的创意应用快速落地。更有华为云HCDE开发者专家带你用码道玩转JiuwenClaw,让小艺成为你的AI助理。
回顾中 -
Skill 构建 × 智能创作:基于华为云码道的 AI 内容生产提效方案2026/03/25 周三 19:00-20:00
余伟,华为云软件研发工程师/万邵业(万少),华为云HCDE开发者专家
本次直播带来两大实战:华为云码道 Skill-Creator 手把手搭建专属知识库 Skill;如何用码道提效 OpenClaw 小说文本,打造从大纲到成稿的 AI 原创小说全链路。技术干货 + OPC创作思路,一次讲透!
回顾中 -
码道新技能,AI 新生产力——从自动视频生成到开源项目解析2026/04/08 周三 19:00-21:00
童得力-华为云开发者生态运营总监/何文强-无人机企业AI提效负责人
本次华为云码道 Skill 实战活动,聚焦两大 AI 开发场景:通过实战教学,带你打造 AI 编程自动生成视频 Skill,并实现对 GitHub 热门开源项目的智能知识抽取,手把手掌握 Skill 开发全流程,用 AI 提升研发效率与内容生产力。
回顾中
热门标签