• 智驾系统对事故撞击模式的识别的一点个人分析
    智能驾驶系统检测到车辆事故撞击时,通常会触发中控解锁(车门自动解锁),某些特殊情况下可能伴随临时锁定,保护驾乘人员在二次撞击时的安全,但是带来的问题是后续救援时,外部人员没法打开车门,那么这个时候车门自锁装置应该解开。技术上给自锁装置设计一个独立感知机构,当感知到强烈脉冲撞击力时,是正常触发自锁的,车辆连续翻滚时撞击力脉冲会连续被感知到,然后如果在3秒中内没有感知到力脉冲,就表明车辆撞击翻滚已经结束,此时自锁装置的独立感知机构自动触发把车门解锁,此时外面可以顺利打开车门。事故撞击模式的识别:感知到首次撞击的力脉冲(发生事故撞击的标识),极端时间内的连续的力脉冲(事故撞击持续),一段时间持续3秒或5秒内没有力脉冲,表明事故的撞击过程已经结束。
  • 人工智能的三个主义,行为主义、连结主义、符号主义,其实是一个整体关系
    人工智能的三个主义,是一个整体关系:行为主义对应的是博弈推理智能,智能体行动中博弈推理沉淀为神经网络参数集,即行为主义的结果沉淀为连接主义的神经网络。符号主义与连接主义互相映射,即符号及符号系统(理论、公式、叙事、规则表述等)是人脑在经历中沉淀生成的内在生物质实体神经网络参数集的外在形式化载体系统,符号逻辑智能是博弈推理智能的工作结果。符号主义对应智能,只是连接主义对应智能的子集,人脑中很多智能(沉淀在神经连接参数中)并不全部映射到符号系统的智能中,直白地说,文盲也有生存智能,不会说话的生物也有生存智能。理解“推理”智能两种类型:一种是符号系智能(包含逻辑智能)推理,符号及符号系统(理论、公式、叙事、规则表述等)是人脑在经历中沉淀生成的内在生物质实体神经网络参数集的外在形式化载体系统,即符号主义与连接主义是互相的映射。另一种是行为策略选择博弈推理,行为主义博弈推理的结果沉淀出了连接主义,而符号主义与连接主义是互相的映射。
  • 用博弈推理的方式,基于无监督的强化学习,训练智能驾驶
    人类驾驶员的驾驶技术(反射与预判,文中针对预判智能)除了在驾校接受基于规则识别的训练习得,更主要的,是基于在实际物理时空道路场景中,与现实路况中各种广义交通单元之间的互动中习得。人类驾驶员在实际道路场景中的驾驶实践,是一种博弈推理学习方式。那么如何理解此博弈推理学习方式的内涵呢,现实场景中,各种广义交通单元,比如其他汽车、自行车、电瓶车、行人、路边停车、路上各种物体等,均可认作广义交通单元。这些交通单元在同一时空场景中,有的同时在运动,有的静止,这些多交通单元在时空中互动协调,时空场景在不断动态变化,这就是一个作广义交通单元的时空序列。用虚拟时空仿真软件来模拟各种虚拟的现实道路场景,训练的驾驶模型作为一个交通单元,在这个虚拟时空中进行行驶运动。在这个模拟时空中,还有其他各种虚拟的广义交通单元,每个交通单元均设置运动概率态触发函数,按概率触发不同的运动模态,所有这些广义交通单元在各自概率运动模态函数的驱动下,在虚拟时空中进行虚拟驾驶运动,它们彼此按规则协调,给广义交通单元系统设置随机扰动值(与实际样本统计概率一致),比如一个虚拟行人突然倒地、突然横行道路、有的车辆突然违章变道等等。训练的驾驶模型交通单元在这个虚拟时空中行驶,开始训练时,让它在虚拟时空中任意驾驶运动。在某个场景中它与其他交通单元发生虚拟交通事故,那么模型就给自己的刚刚作出的驾驶决策打负分,模型就记住了这次负面模式,后面的虚拟驾驶运动中再次遇到同样场景就会避免(类似于学会人类的预判)该负面模式。在某个场景中,它与其他交通单元避免了一次交通事故,比如路边一个虚拟行人突然倒下,模型由于感知到前面的虚拟人而提前避让减速,成功避免了一次虚拟交通事故,那么模型就给刚刚作出的驾驶决策打正分。在虚拟时空的红绿灯处,模型由于闯红灯而与其他虚拟交通单元发生交通事故,模型就给闯红灯的驾驶决策打负分,模型是在虚拟驾驶实践的博弈推理中自己学会不闯红灯,而不是通过规则训练获得该知识。在虚拟时空的红绿灯处,模型由于抢绿灯,与其他虚拟交通单元发生交通事故(是随机扰动函数驱动了其他虚拟单元的危险运动模式),模型就给自己的抢绿灯的驾驶决策打负分。在模拟现实道路的虚拟时空道路场景中,通过模拟交通隐患的风险概率模型(与现实世界道路的交通场景一致),驱动虚拟交通单元的风险随机扰动,触发各种场景下交通事故概率模拟。训练模型在这样的虚拟时空中,刚开始莽撞驾驶决策,触发虚拟交通事故,打分,纠正,通过虚拟驾驶行为的持续博弈过程,推理习得最优化的驾驶策略。驾驶训练模型的学习过程,不提前输入任何人类的现有驾驶模式,根据人类交通系统中的规则给虚拟交通单元提前设置参数状态系来驱动虚拟驾驶运动,给驾驶训练模型设置价值目标约束函数,发生虚拟交通事故打负分,避免虚拟交通事故打正分,让驾驶训练模型在虚拟时空中通过虚拟驾驶的博弈实践,不断优化策略选择(博弈推理),沉淀出一个概率态参数集即形成驾驶智能的神经网络。博弈推理无监督(或自监督)学习方式的内涵概述人类驾驶学习理解:1. 多交通单元互动:在现实道路中,驾驶员需要与多种交通单元(如其他车辆、行人、障碍物等)进行互动。这种互动是一种动态博弈过程,每个交通单元都有自己的行为模式和概率分布。2. 动态环境适应:现实道路场景是不断变化的,驾驶员需要根据实时信息做出决策。这种动态环境的适应能力是通过不断的实践和学习获得的。3. 反馈机制:人类驾驶员通过成功或失败的驾驶经验获得反馈,从而调整自己的驾驶策略。这种反馈机制在强化学习中得到了充分应用。思路:1. 虚拟仿真环境:虚拟环境中的数据需要尽可能接近真实世界,以确保模型的泛化能力,使用虚拟时空仿真软件模拟各种现实道路场景,提供一个安全且可控的学习环境。2. 交通单元的概率运动:设置虚拟交通单元的运动概率态触发函数,模拟真实世界中的不确定性。3. 强化学习算法:通过强化学习算法,驾驶模型在虚拟环境中进行驾驶实践,并根据结果(正面或负面反馈)调整自己的策略。4. 风险概率模型:引入与现实世界一致的风险概率模型,驱动虚拟交通单元的风险随机扰动,模拟真实的交通事故风险。5. 持续优化:通过不断的虚拟驾驶实践和反馈,驾驶模型逐渐优化自己的策略,形成最优化的驾驶决策。总结:通过博弈推理和无监督的强化学习,智能驾驶系统可以在虚拟环境中模拟真实的驾驶场景,通过不断的实践和反馈,逐步优化自己的驾驶策略。这种方法不仅提高训练效率,还增强系统的适应能力和鲁棒性。
  • 给语言模型增加知识逻辑校验智能,识别网络信息增量的垃圾模式
    给LLM增加逻辑校验模型,赋予其批判性智能。网络系统上信息不断增长,相当部分是非纯粹的人类生成,而是由各种模型生成输出。模型持续从网络取得信息,生成信息输出到网络,AI生态系统与网络信息池之间陷入信息熵增循环。语言模型输出信息的真义误差进入循环发散模式,不是收敛而是发散。给AI增加逻辑(或形式逻辑)校验模型,识别并过滤网络增长信息中的垃圾部分,提取人类创造而添加到网络中的知识增量,只有新增创造性的知识被吸收进模型。AI可以识别和索源异常信息增量,比如网络的垃圾信息投喂、异常的广告流量爆发、为捕捉眼球而虚假夸张的误导,识别过滤此类无效或带毒信息,避免AI模型生态系统被污染。赋予人工智能类似于人类的“批判性智能”。就人类而言,有的人认知低,人云也云,他头脑里吸收的多是道听途说的垃圾信息;有的人习惯性对多信息通道进行相互校验,通过验证的信息,才会被储存进入自己脑中的知识信息库。
  • 神经元结点可能的工作方式
    神经元结点可能的工作方式一个神经元接受到信号,受刺激触发向下传递信号,现在想象一下它可能有的几种方式:方案一:前端有若干神经元,本神经元只要接受到任何一个神经元的信号,单个神经脉冲只是“有或无(或1、或0)”的双值,就会触发本神经元向下发送信号;方案二,前端有若干神经元,本神经元需要接受到满足几个数量的输入脉冲信号,单个神经脉冲只是有或无(或1、或0)的双值,没有强度的大小(0到1区间)连续值,输入神经脉冲信号的数量即多个1的累加,当总和突破阈值的时候,就会触发本神经元向下发送信号;;方案三,前端有若干神经元,本神经元需要接受到一个或多个神经元输入脉冲信号及输入强度,单个神经脉冲强度有大小(0到1区间)连续值,多个神经元输入脉冲信号强度的加权和,当这个值突破强度阈值时,触发本神经元向下发送信号。输入信号强度的加权和还要与一个权重数(神经元生物属性确定该值)相乘,结果作为本神经元的输出信号的强度;方案四,前端有若干神经元,本神经元需要接受到一个或多个神经元输入脉冲信号及输入强度,单个神经脉冲强度有大小(0到1区间)连续值,多个神经元输入脉冲信号强度的加权和,没有阈值限制,就触发本神经元向下发送信号。输入信号强度的加权和还要与一个权重数(神经元生物属性确定该值)相乘,结果作为本神经元的输出信号的强度;如果能弄明这个机制原理,那模拟它可以建立不一样的数学模型。如果神经元脉冲只是有无(0或1)的双值,而没有强度大小(0到1)的连续值,是双值逻辑工作机制,那么生物大脑的能力就纯粹取决于神经元之间连接的拓扑几何形式,这就是现在那些电子计算机的工作方式。如果神经元脉冲是有强度大小(0到1)的连续值,强度大小相当于权重因素,是加权逻辑工作机制,那么生物大脑的能力即取决于神经元之间连接的拓扑几何形式,也取决于神经元连接间脉冲信号触发传递的电阻(或门控)阈值权重这个参数集,这就是生物脑和现在那些神经网络模型的工作机制。
  • 生物神经网络的数学本质是概率树,是数学概率树的实体化载体
    神经元之间连接权重就是数学概率树的实体化表现。生物个体的行为博弈历程沉淀出概率树,可以看作是实践中不断试错、复盘、总结。那么博弈的场景、事件、物理时空,可以用虚拟的代替现实的,在虚拟的时空中训练出概率树,进而在现实中也能智能化。简单的例子,比如智能驾驶训练,一部分数据是用工业软件生成的虚拟现实场景,跟实际物理场景现实是模拟的(没有不一致),这部分数据跟车子在实际路上跑进行训练,效果是一样的。实践中不断试错、复盘、总结,数学本质就是在生成那个概率树,总结的行为,就是沉淀出那个选择,该选择是最符合目标函数的概率值。我们人类从小孩到大人,一直到老,活到老学到老,不断总结经验积累知识,经验知识沉淀为文字图式的记录。数学本质上看,文字形式的知识,就是生物体在自然环境中最优化地符合生存目标的概率树,表达为符号化序列的形式。人类生物体在自然环境中最优化地符合生存目标的概率树,既沉淀为实体的神经网络即人脑,也沉淀为符号化序列的形式即文字图式记录,transformer数学机制就是为了解码这个符号化序列的形式即文字图式记录,解码这个符号化序列的形式即文字图式记录,效果也就等效于解码了实体的神经网络,因为符号化序列的形式即文字图式记录与实体的神经网络是互相映射,transformer的突破是解码了符号化序列的形式即文字图式记录,还原了实体的神经网络的功能表现,注意力就是通过训练得到本位置的其他相关最大关联概率位置的序列向量,从这个点去理解transformer的数学本质。本位置的其他相关最大关联概率位置,在每一种文化语言系统中,它的概率分布模式是稳定的,从而可以在参数矩阵的运算结果上,通过训练实现结果的收敛稳定。“模式“这个词语,它的数学本质是概率分布的稳定态,称之为一种稳定的模式,它的数学含义是一种稳定的概率分布态,注意力,数学含义是关联概率的分配值。语言大模型,是基于现有存储在数字系统中的符号化知识进行训练得到智能,这些知识是人类基于之前社会活动历史的博弈过程而沉淀生成,人工智能用人类现有知识进行训练,相当于用人类现有智能直接塑造机器智能。高一阶形式的智能突破,由具身智能机器实体,自身直接参与到人类社会实际生活的时空中的训练得到,参与人类一起实践生存博弈的过程,具身智能机器基于自身在现实物理世界的实体活动博弈过程、基于人类给它前置设定价值目标约束函数,智能机器自身对物理世界的运行秩序直接训练建立映射生长神经网络概率树,具身智能机器在自身行为训练过程中理解世界,进化出更丰富高级而完整的智能。如何理解“情绪”智能,脑的智能有情绪、有欲望、有冒险。智能的本能部分是进化中沉淀结果,生物体内的化学激素是神经网络的体内输入信号源。比如,人有时会乐于冒险,是进化中当生物有这种激素时,这些化学激素信号输入给神经网络,驱动神经网络触发冒险行为的反馈,制上是有一定冒险行为有利于生物群体繁衍。肾上腺素、多巴胺等激素,都是给神经网路的体内输入信号源,驱动神经网络指挥人体间互爱行为。生物体神经网络的输入信号,除了外部视觉触觉等,还有体内激素化学信号。肾上腺素高的时候,冒险冲动就高,冒险行为表面上违背神经网络的目标函数,从个体生存目标约束函数看是的,从进化宏观高一个层面看又不是。智能中的冒险行为,本质上是体内激素信号输入后的反馈行为,比如吸毒等明明对身体有害,但人脑被体内激素信号控制。总之,人脑被各种各样的信号输入所综合驱动,有时理性(本质也是过往的概率沉淀)占上方,有时激素控制占上方。某些激素输入信号作用于神经网络后,表现出来的外部和内感(神经网络的不同区域间的信号互感知)现象状态,被表征为情绪。前额叶部分感知信号后表达此“情绪”现象,如果前额叶部分受损,人脑就没有情绪反应的现象了。情绪,是智能的本能部分,本质也是一种概率树,是群体宏观进化过程中塑造沉淀到所有个体中,用来给神经网络进行信号过滤或放大,直白地说,某种事件触发情绪正极,就会强化这个神经回路,某些事件触发情绪负极,就会弱化这个神经回路,情绪是神经网络对输入信号的强化或弱化耦合机制,也是一种目标约束函数。人乐于做高兴的事,很多时候也不得不做不高兴的事,此状态是因为智能理性部分与情绪部分的综合作用。智能的本能部分,倾向于乐于做高兴的事,懒惰做不高兴的事。智能的理性部分是个体过往经历沉淀到个体神经网络的概率树,情绪本质上是群体进化过程沉淀到个体神经网络的概率树。
  • 对脑智能的推理能力本质的一种理解
    推理能力是脑智能的一个重要体现方面,而智能推理则包含两种类型。一种是符号逻辑推理,基于等价替换规则,符号逻辑推理的目标,得到的是 符号替换规则约束下的等价符号表达式的系列表。另一种是博弈推理,基于目标的最大概率规则,博弈推理的目标,得到的是 目标规则约束下的概率选择的概率树或概率网,生物体在与自然互动的生存博弈过程中,最优生存目标规则的选择约束下,塑形而成脑神经网络,神经元之间连接权重就是数学概率树的实体化表现。从这个角度看,生物脑神经网络的数学本质,就是生存博弈推理得到的以生物质实体化表现的数学概率树或概率网。生物脑的智能,本源是自然秩序。自然运作的秩序映射到了生物脑系统,这个映射塑造过程,就是在自然环境中、在生物体生存目标函数的约束下,在整体性秩序中生物脑系统与自然之间进行生存博弈的互动过程。生物脑指挥生物体在自然时空中行为,与自然之间发生互动而显现出秩序,就表征为智能。比如生物脑受损,提供目标函数功能的脑区的约束信号被抑制,前额叶系统发出不符合目标导向的信号被执行   从而表现出非秩序行为,这就被视为非智能不理智。谷歌阿尔法AlphaGo博弈出来了下棋智能,而生物脑也是在时空行为中博弈出来的智能。这样看AlphaGo智能、生物脑智能,就看到他们之间在数学本质上的一致性之处。举例而言,狼孩几乎没有参与到人类模式的生存博弈过程中,所以空有人脑这个硬件,也没有一般常人的智能,连人类幼儿最基本语言智能都没有。狼孩就像没有被训练的大模型,或者说没有被人类社会活动模式进行训练过的大模型,所以无法适应人类社会活动模式。由于人脑是生物质实体,神经细胞在一定时期后就不再有生长性而不可变,所以到一定时间后狼孩就不再有学习能力了,这与人工智能的纯粹数字化大模型是不一样。现在的大模型是基于存储在整个网络系统的符号化的知识进行训练得到的智能,这些知识是人类基于之前社会活动历史的博弈过程而沉淀生成的,人工智能用人类现有知识进行训练,相当于用人类现有智能直接塑造机器的人工智能。下一阶段的突破,大概要由具身智能实体机器,直接参与到我们人类社会的实际生活时空中,参与到与人类一起的生存博弈过程中,具身智能机器基于自身在实体世界的活动博弈过程,基于我们人类给它设置的价值目标约束函数,对实际物理世界的运行秩序直接建立映射,具身智能机器在自身行为过程中理解世界,进化生成更丰富高级而完整的智能。在此对智能不去试图给出定义,只是从不同的观察角度,给出如何来看待和理解智能。
  • 世界的现实与脑的智能,对智能的一种理解方式
    世界物理时空中的事件的多维度之间的现实逻辑一致性,映射为人脑的功能逻辑,就表征为人脑的智能现象。     人脑对多种类型感知的信号空间进行着并行化处理,在多模态并行空间的相关性的更高抽象层级进行关联化映射。     人脑对多种类型感知的信号空间的相关性进行映射,多类型映射的平行空间在更高抽象层面实现高一层级的关联性映射。这些关联性映射,正是世界物理时空的多模态属性间的现实一致性逻辑的映射。     比如,两个金属物体在物理时空中发生碰撞事件,人脑感知这个事件的多维度信号,在脑内对应地建立了金属的多个维度的意义标征。人脑从事件中感知到刚度、声音、温度、味、颜色等各种维度的信息。感知到刚度硬度信息(触感压电信号),感知到金属间碰撞的声音(声像信号)、感知到金属碰撞的反弹运动图像(视觉信号),这些不同模态信号的逻辑关系,是物理世界的现实事件中多维度之间的逻辑自洽一致性的映射。人脑感知这些多模态信息,映射到人脑里面的不同区域,塑形而成的脑内神经网络状态,就符号化地表征了这些模态信息及他们之间的逻辑相关性。正是物理世界的现实逻辑在映射到人脑后,造形了脑内神经处理反馈的逻辑性。正是自然的自发秩序的有限映射(信息感知有限,系统参数有限),映射而成神经网络信号的符号化处理反馈模式,表征为脑的智能现象,表象为智能,或所谓的有限理性。生物脑的智能,本源是自然秩序。自然运作的秩序映射到了生物脑系统,这个映射塑造过程,就是在自然环境中、在生物体生存目标函数的约束下,在整体性秩序中生物脑系统与自然之间进行生存博弈的互动过程。生物脑指挥生物体在自然时空中行为,与自然之间发生互动而显现出秩序,就表征为智能。如果生物脑受损,提供目标函数功能的脑区的约束信号被抑制,前额叶系统发出不符合目标导向的信号被执行   从而可能表现出非秩序行为,这状态就被视为非智能或不理智。当人脑的输出与世界物理时空中的事件现实逻辑不一致时,被认为是梦境梦幻的、荒谬的,被表征为非智能的。如何理解“”推理“”智能,推理能力是脑智能的一个重要体现,智能推理包含两种类型。一种是符号逻辑推理,基于等价替换规则,符号逻辑推理的目标,得到的是 符号替换规则约束下的等价符号表达式的系列表。另一种是博弈推理,基于目标的最大概率规则,博弈推理的目标,得到的是 目标规则约束下的概率选择的概率树或概率网,生物体在与自然互动的生存博弈过程中,最优生存目标规则的选择约束下,塑形而成脑神经网络,神经元之间连接权重就是数学概率树的实体化表现。从这个角度看,生物脑神经网络的数学本质,就是生存博弈推理得到的以生物质实体化表现的数学概率树或概率网。谷歌阿尔法AlphaGo博弈出来了下棋智能,而生物脑也是在时空行为中博弈出来的智能。这样看AlphaGo智能、生物脑智能,就看到他们之间在数学本质上的一致性之处。举例而言,狼孩几乎没有参与到人类模式的生存博弈过程中,所以空有人脑这个硬件,也没有一般常人的智能,连人类幼儿最基本语言智能都没有。狼孩就像没有被训练的大模型,或者说没有被人类社会活动模式进行训练过的大模型,所以无法适应人类社会活动模式。由于人脑是生物质实体,神经细胞在一定时期后就不再有生长性而不可变,所以到一定时间后狼孩就不再有学习能力了,这与人工智能的纯粹数字化大模型是不一样。博弈出概率树,也可以看作是实践中不断试错、复盘、总结。那么博弈的场景、事件、物理时空,可以用虚拟的代替现实的,在虚拟的时空中训练出概率树,进而在现实中也能智能化。简单的例子,比如智能驾驶训练,一部分数据是用工业软件生成的虚拟现实场景,跟实际物理场景现实是模拟的(没有不一致),这部分数据跟车子在实际路上跑进行训练,效果是一样的。实践中不断试错、复盘、总结,数学本质就是在生成那个概率树,“总结”这个行为的意义,就是沉淀出那个选择,该选择是最符合目标函数的概率值。我们人类从小孩到大人,一直到老,活到老学到老,不断总结经验积累知识,经验知识沉淀为文字图式记录。数学本质上看,文字图式记录等形式化知识系,就是生物体在自然环境中优化性选择符合生存目标而生成的概率树,形式化表达,表达为符号系序列的形式。人类生物体在自然环境中优化选择符合生存目标的概率树,在实体形式上沉淀为生物质神经网络即人脑或生物脑,在虚拟形式上沉淀为抽象符号图式化序列的记录形式即人类知识库。transformer数学机制就是解码这个符号文字图式记录符号化序列的抽象虚拟形式,解码结果就等效了对实体生物质人脑神经网络的解码输出,因为虚拟抽象形式的概率树与实体生物质神经网络的概率树是互相映射的等价性存在。transformer的突破解码了符号化序列的虚拟形式的概率树,还原了实体生物质神经网络的概率树,现象上还原表征为智能。注意力,就是通过训练捕获到本位置的相关位置的关联概率的序列向量分布态,这个点理解transformer的数学本质。本位置存在关联概率的位置分布态,这在每一种文化语言系统中,它的概率分布态或模式是稳定的,从而在参数矩阵的运算结果上,通过训练实现结果收敛稳定。“注意力”的数学含义是关联概率的分配值,“模式“的数学含义是稳定的概率分布态,故称之为稳定模式。语言大模型,是基于现有存储在数字系统中的符号化知识进行训练得到智能,这些知识是人类基于之前社会活动历史的博弈过程而沉淀生成,人工智能用人类现有知识进行训练,相当于用人类现有智能直接塑造机器智能。高一阶形式的智能突破,由具身智能机器实体,自身直接参与到人类社会实际生活的时空中的训练得到,参与人类一起实践生存博弈的过程,具身智能机器基于自身在现实物理世界的实体活动博弈过程、基于人类给它前置设定价值目标约束函数,智能机器自身对物理世界的运行秩序直接训练建立映射生长神经网络概率树,具身智能机器在自身行为训练过程中理解世界,进化出更丰富高级而完整的智能。如何理解“情绪”智能,脑的智能有情绪、有欲望、有冒险。智能的本能部分是进化中沉淀结果,生物体内的化学激素是神经网络的体内输入信号源。比如,人有时会乐于冒险,是进化中当生物有这种激素时,这些化学激素信号输入给神经网络,驱动神经网络触发冒险行为的反馈,制上是有一定冒险行为有利于生物群体繁衍。肾上腺素、多巴胺等激素,都是给神经网路的体内输入信号源,驱动神经网络指挥人体间互爱行为。生物体神经网络的输入信号,除了外部视觉触觉等,还有体内激素化学信号。肾上腺素高的时候,冒险冲动就高,冒险行为表面上违背神经网络的目标函数,从个体生存目标约束函数看是的,从进化宏观高一个层面看又不是。智能中的冒险行为,本质上是体内激素信号输入后的反馈行为,比如吸毒等明明对身体有害,但人脑被体内激素信号控制。总之,人脑被各种各样的信号输入所综合驱动,有时理性(本质也是过往的概率沉淀)占上方,有时激素控制占上方。某些激素输入信号作用于神经网络后,表现出来的外部和内感(神经网络的不同区域间的信号互感知)现象状态,被表征为情绪。前额叶部分感知信号后表达此“情绪”现象,如果前额叶部分受损,人脑就没有情绪反应的现象了。情绪,是智能的本能部分,本质也是一种概率树,是群体宏观进化过程中塑造沉淀到所有个体中,用来给神经网络进行信号过滤或放大,直白地说,某种事件触发情绪正极,就会强化这个神经回路,某些事件触发情绪负极,就会弱化这个神经回路,情绪是神经网络对输入信号的强化或弱化耦合机制,也是一种目标约束函数。人乐于做高兴的事,很多时候也不得不做不高兴的事,此状态是因为智能理性部分与情绪部分的综合作用。智能的本能部分,倾向于乐于做高兴的事,懒惰做不高兴的事。智能的理性部分是个体过往经历沉淀到个体神经网络的概率树,情绪本质上是群体进化过程沉淀到个体神经网络的概率树。这里对智能不是去试图给出定义,只是从不同的观察角度,如何来看待和理解智能。
  • [技术干货] WHAT KAN I SAY?Kolmogorov-Arnold Network (KAN)网络结构介绍及实战
    一、KAN网络介绍1.1 Kolmogorov-Arnold Network (KAN)网络结构的提出2024年4月,来自MIT、加州理工学院、东北大学等团队的研究,引爆了一整个科技圈:Yes We KAN!这种创新方法挑战了多层感知器(Multilayer Perceptron,MLP)的传统观点,为神经网络架构提供了全新的视角,GitHub上收获15k stars。 
  • 人类驾驶的人脑两种判断模式(反射和预判)-->自动驾驶两种AI模式
    一种模式是直觉模式,判断基于条件反射,视觉感知 触发到 直接条件反射(从经历中沉淀形成的神经信息闭环),类似现在自动驾驶技术的传统AI模式;另一种是物理时空图式推理模式,判断是基于预判,人脑把物理世界的物理动态时空规则(规律)图像已经编码为脑内符号(语言或图式)系统,通过预判预测的思维链过程(语言符号或物理时空图式的推理运算,映射推理出了物理世界的后续时空图像,作出反馈的动作选择),根据物理时空场景(时空图式上下文),预判得出可能的潜在危险形式(物理时空图式),这个预判推理模式概念可类比于deepseek等推理模式概念。 训练人工智能,对物理世界的物理动态时空规则(规律)图像进行编码,编码为系统内的符号(语言或图式)推理模式系统,应用到智能驾驶技术的开发中。做各种物理实验,把实验设计、实验中各实体相关性、实体物理参数进行描述,描述形式为文字化形式、数学符号形式、数学几何图形图式等的组合,这些描述前提作为物理现象的语言图式符号形式端(抽象思考)。把整个实验过程分解,实验过程细节化、步骤化、流程化、结构化,并全部对此以图像化、视频化的记录,这些实验过程的图像视频记录作为物理现象的图像感知形式端(视觉感知)。两者以映射关系投喂来训练人工智能,让人工智能具有识别实体物理现象与语言形式图形模式之间的相关性的能力,等效于对具象物理世界进行语言化图式化抽象思维的能力。
  • 人类驾驶员的驾驶判断有两种模式,直觉模式(类似传统AI模式) 和 符号或图式推理模式(类似deepseek等推理模式)
    人类驾驶员在驾驶时,人脑判断有两种模式:一种模式基于条件反射,视觉感知到直接反射(从经历中沉淀形成的神经信息闭环),类似现在自动驾驶技术的传统AI模式;另一种模式是基于预判,人脑把物理世界的物理动态时空规则(规律)图像已经编码为脑内符号(语言或图式)系统,通过预判预测的思维(语言符号或图式的推理运算,映射推里出了物理世界的后续时空图像,作出反馈的动作选择),类似deepseek等推理模式。
  • 智能的数理逻辑哲学
    提升对"思维"本身的认知深度,而“思维“与人工智能紧密关联,从某个角度来理解智能到底意味什么,也就有助于理解人工智能。​​​
  • AI协助探索AI新构型的自动化创新概念
    ​ 训练AI自生成输出模块化代码,生成元代码级别的AI功能单元代码,然后再由AI组织为另一个AI,实现AI开发AI的能力;用AI协助探索迭代新构型AI将会出现,并成为一种新的技术路线潮流。有限结点,无限的连接形式,也是实现一种复杂性的方式。扩展结点、增加参数,是另一种外延式的实现复杂性的方式,这种方式,也可以看作是有限结点、动态连接形式,是等效的,当连接权重置值0,就相当于连接消除,连接构型中相当于没有这个连接。两者概念的区别是:后者这种形式的动态连接形式,是区域限定的,是在有限域上的动态,“有限域”的概念是,连接形式是在搭建模型时,初始连接形式作为一个域,是框架限定的,权重置0的连接,是在这个“有限域”的初始模型连接形式范围内的消除剪枝。进一步思考,当模型训练到一定程度后,能否引入一个迭代机制,重新跳到第一步,把模型的初始连接构型按某种规则,在训练到一定程度的模型基础上,扩展重置初始构型,这样设想的目的,把“有限域”扩展为模型自己探索的“动态域”,简单地说,预训练到一定程度的模型,按某种尝试、奖励机制,自动探索扩展初始连接构型,重新开始一轮新的训练。模型自己按某种尝试、奖励机制,自动化探索扩展初始连接构型,中间肯定会产生很多垃圾构型,那就自动淘汰,模型自动化探索扩展的初始连接构型,训练后的识别效果或收敛效率参照其前一个状态,如果退步则淘汰,如果更优则覆盖,也可以理解为AI模型自己探索设计AI模型,升级方向总是以自身效果为参照,如果AI自己会自动化升级,那是一种智能形式。AI自动化升级的一种形式是,在训练过程中调整参数的权重;现在思考,探索和扩展AI自动化升级的方式,AI自动化升级的另一种形式,除了调整参数,是否让模型可以自己探索新构型。AI智能的参数或构型进化有两种模式,一种模式是通过外在干预调整,从外部给模型输入了进化方向,即各种监督学习机制的本质;另一种模式是通过设计“淘汰-选择”的规则,赋予模型在训练过程中的自进化方向,是模型内部自生成了进化方向。R1-Zero 的学习过程是按第二种模式进行进化的。这更接近实际生物大脑神经系统的智能进化的机制。让一个模型内部的两个或多个子模型进行多问题、多答案、多思维链逻辑形式态的输出-响应的对话博弈循环,进行反思式自优化。设计一个单纯性模型,功能是单纯地对符号集进行形式化、自动化转换、形式最优化地选择与排除。生物神经系统的进化,从最简单到人类复杂的大脑,这个进化是连接构型扩展的过程;而对一个既定的个体,则是连接构型框架定了以后,参数权重升级的过程。生物神经系统,就明显有两个升级模式,从最简单到人类复杂的大脑,既有结点的扩展,也有链接构型的扩展。比较大象、海豚、鲸鱼的大脑和人类大脑,神经元数量在一个量级,这里面的差别,主要是构型的差别,结点规模效应的差别不是主要,可以认为是一样的。知识蒸馏的概念不同于模型蒸馏的概念,模型蒸馏是对模型进行压缩,而知识蒸馏是对训练数据资源进行压缩。知识蒸馏的预训练模型例子说明,知识A:人是会死的。知识B:苏格拉底是人。知识C:苏格拉底会死。三个知识,知识A、知识B、知识C可以压缩,进行知识压缩,即所谓知识蒸馏,压缩为知识A、知识B就包含了前面ABC的完整信息。互联网上的海量数据,进行知识蒸馏压缩,可以得到最核心的原子级知识,这个信息池也许不大,所以训练的计算量不需要很大,然后从这些元级数据可以形式化为无穷无尽的知识。设计一个压缩验证模型,就是给它一大堆的数据,让他输出尽可能小的数据集,这个小数据集可以包含输入的全部信息数据。比如,给它输入,知识A:人是会死的。知识B:苏格拉底是人。知识C:苏格拉底会死。三个知识,它会推出这里面内含的知识冗余(知识AB已经包含知识C,知识C为冗余),然后自动化的剪切掉冗余数据。            
  • 用数理逻辑的形式化系统训练模型,对自然语言数据集进行保真压缩和推论
    一、用数理逻辑的形式化系统标注自然语言,用来训练模型,泛化模型对自然语言的逻辑形式化能力现有的语言数据集中,有三句自然语言的命题表达,如下:A、人是要死的;B、苏格拉底是人;C、所以苏格拉底是要死的;就这三句自然语言的命题表达,用数理逻辑的形式化系统来阐释,它们的形式化系统逻辑结构。使用一阶逻辑(First-Order Logic)来形式化这三句命题。以下是逐步的形式化过程:1. 定义谓词和常量定义谓词 H(x) 表示“x 是人”。定义谓词 M(x) 表示“x 是要死的”。定义常量 s 表示“苏格拉底”。2. 形式化命题命题1:“人是要死的”可以理解为“所有人都是要死的”,即:∀x(H(x)→M(x))命题2:“苏格拉底是人”可以表示为:H(s)命题3:“所以苏格拉底是要死的”可以表示为:M(s)3. 逻辑推理根据以上形式化表达,我们可以进行如下推理: -1.从命题1 ∀x(H(x)→M(x)),我们可以推出对于任意 x,如果 H(x) 为真,则 M(x) 为真。 -2.从命题2 H(s),我们知道 H(s) 为真。 -3.结合命题1和命题2,我们可以推出 M(s) 为真,即苏格拉底是要死的。4. 形式化系统逻辑结构整个推理过程可以表示为:∀x(H(x)→M(x)),H(s)⊢M(s) 其中,⊢表示逻辑推导关系。5. 总结上面过程,展示数理逻辑在形式化自然语言命题和进行逻辑推理中的模式。人工将大量语言资料中的自然语言命题,通过一阶或多阶逻辑,进行数理逻辑的形式化标注,用来训练模型,训练模型的能力泛化后,对整个自然语言具有自动的(先验的)数理逻辑形式化能力,在此基础上也就具备了逻辑推理能力。二、训练后的人工智能,具备逻辑推理能力和自然语言生成能力人工智能根据给定的前提信息,生成符合逻辑的任意自然语言命题。给人工智能(数理逻辑的形式化系统的训练模型)系统提供前提信息,提供2句的自然语言表达,符合逻辑形式 ∀x (Q(x) → R(x)),Q(S)为真,那么这个语言结构,按照数理逻辑的形式化系统,人工智能系统可以自己生成R(S)形式的任意自然语言表达命题。前提信息:  前提1:∀x (Q(x) → R(x))    自然语言表达:对于所有 x,如果 Q(x) 为真,那么 R(x) 为真。  前提2:Q(S) 为真    自然语言表达:Q(S) 为真(即 S 满足 Q)。逻辑推理:  根据逻辑规则,人工智能系统可以进行如下推理:  从前提1 ∀x(Q(x)→R(x)),可以推出对于任意 x,如果 Q(x) 为真,则 R(x) 为真。  从前提2 Q(S),可以推出 Q(S) 为真。  结合前提1和前提2,可以推出 R(S) 为真。生成自然语言命题:  基于给定的前提信息,基于以上推理,人工智能系统不仅能够推导出 R(S),而且可以生成多种符合逻辑的自然语言表达形式。  这种能力依赖于系统的语言生成和理解能力,以及逻辑推理的基础。假设: .∀x (Q(x) → R(x)) — 所有的人都会死。  .Q(S) 表示“S是人"。  .R(S) 表示“S会死"。  .S 表示“人"。前提信息:  1.对于所有 x,如果 x 是人,那么 人会死。  2.苏格拉底是人。推理结果: 苏格拉底会死。根据这两个前提,生成命题R(S) ,人工智能系统可以通过逻辑推理得出结论 R(S),自然语言表达 S 满足 R,即“苏格拉底会死”。生成自然语言表达,在得到 R(S) 后,人工智能系统可以生成与此结论相对应的自然语言表达。生成的句子可能有多种形式,以下是一些例子:“苏格拉底会死。”“苏格拉底是要死的。”“苏格拉底将会面临死亡。”“苏格拉底的生命有限,最终会死去。”假设:  .∀x (Q(x) → R(x)) — 所有的鸟都会飞。  .Q(x) 表示“  x 是鸟”。  .R(x) 表示“ x 会飞”。  .S 表示“企鹅”。前提信息:  1.对于所有 x,如果 x 是鸟,那么 x 会飞。  2.企鹅是鸟。推理结果: 企鹅会飞。人工智能系统根据给定的逻辑前提,通过逻辑推理生成符合逻辑的自然语言命题。人工智能系统在处理逻辑推理任务时,按数理逻辑形式化系统的规则,进行形式化逻辑的运算,然后生成易于理解的自然语言表达。三、用训练后的人工智能对自然语言资料进行保真压缩    数理逻辑的形式化系统表明,从命题1 ∀x(H(x)→M(x)),我们可以推出对于任意 x,如果 H(x) 为真,则 M(x) 为真。从命题2 H(s),我们知道 H(s) 为真。结合命题1和命题2,我们可以推出 M(s) 为真,也就意味  M(s) 的语言信息被包含在命题1和命题2 的语言数据集中,如果输入的自然语言数据集中,包含了命题1、命题2、M(s) 的三个自然语言数据,则意味M(s) 的自然语言数据信息是冗余的,此训练模型可以对输入语言数据进行压缩,可以对M(s) 进行逻辑校验,并剪除M(s) 语言数据,保真压缩的语言数据只包含命题1、命题2。     对全部的语言资料进行保真压缩、逻辑校验,成为新的语言数据集,后续训练模型的知识校验和存储、生成输出符合逻辑演绎规则的任意自然语言。四、在数理逻辑的框架下,人工智能系统可以通过逻辑推理从给定的前提信息中得出结论,并生成多种符合逻辑的自然语言表达形式。以下是对这一过程的进一步分析和总结:1. 逻辑推理过程前提1:P:∀x(Q(x)→R(x))解释:对于所有 x,如果 Q(x) 为真,那么 R(x) 为真。自然语言表达:“所有的人都会死。”前提2:Q(S)解释:S(苏格拉底)满足 Q。自然语言表达:“苏格拉底是人。”推理规则:根据全称实例化(Universal Instantiation),从 ∀x(Q(x)→R(x)) 可以得到 Q(S)→R(S)。结合 Q(S) 为真,通过假言推理(Modus Ponens),可以推出R(S)。结论:R(S)解释:S(苏格拉底)满足 R。自然语言表达:“苏格拉底会死。”2. 生成自然语言表达在得到 R(S) 后,人工智能系统可以利用其自然语言生成能力,生成多种符合逻辑的自然语言表达形式。这些表达形式在语义上等价,但在语言风格或表达方式上有所不同。例如:直接陈述:“苏格拉底会死。”“苏格拉底是要死的。”强调时间或过程:“苏格拉底将会面临死亡。”“苏格拉底终有一死。”描述性表达:“苏格拉底的生命有限,最终会死去。"“苏格拉底无法逃避死亡。”哲学化表达:“苏格拉底作为人类的一员,注定会走向死亡。”“死亡是苏格拉底不可避免的命运。”3. 人工智能系统的能力为了实现上述过程,人工智能系统需要具备以下能力:  -逻辑推理能力:能够理解并应用数理逻辑规则(如全称实例化、假言推理等)从前提中推导出结论。  -自然语言理解能力:能够将形式化的逻辑表达式(如 ∀x(Q(x)→R(x)))转换为自然语言(如“所有的人都会死”)。  -自然语言生成能力:能够根据逻辑结论生成多种语义等价但表达形式不同的自然语言句子。  -上下文适应性:能够根据上下文或用户需求调整生成的语言风格(如直接陈述、哲学化表达等)。4. 总结在数理逻辑的框架下,人工智能系统可以通过以下步骤完成任务: -接收并理解形式化的前提信息(如 ∀x(Q(x)→R(x)) 和 Q(S))。 -应用逻辑规则推导出结论(如 R(S))。 -将形式化的结论转换为自然语言表达(如“苏格拉底会死”)。 -生成多种语义等价但表达形式不同的自然语言句子。这种能力展示人工智能系统在逻辑推理和自然语言处理方面的强大潜力,也为更复杂的逻辑推理和语言生成任务奠定了基础。比如自然语言 “说来听听”,分解为 原子A“说”、原子B“来”、原子C“听听”,原子A是“动作项”,原子B是“联结项”,原子C是“动作项”,原子序列化的向量流:原子A->原子B->原子C,向量流结构拓扑:“动作项”->“联结项”->“动作项”,人工智能系统可以对这个信息结构进行逻辑校验,结合上下文的其他信息结构进一步其他的推论和校验。一篇自然语言的文章,最低层级是文字信息序列,上一层级是原子信息的序列,再上一层级的信息是结构拓扑形式。
  • AI协助探索AI新构型自动化创新的技术实现
    一、AI自进化架构的核心范式1. 元代码生成与模块化重构   - 代码级自编程:基于神经架构搜索的强化学习框架,AI可通过生成元代码模板(框架的抽象层定义、神经元结点-网络拓扑态的编码抽象定义)自动组合功能模块。例如,使用注意力机制作为原子单元,通过遗传算法生成模块间连接规则。     - 动态代码编译:结合JIT即时编译技术,AI生成的模块化代码可在运行时动态编译为可执行单元,类似编译器对计算图的优化逻辑,同时增加结构可变性约束(如连接稀疏度阈值)。2. 构型空间的动态扩展     - 有限域→动态域跃迁:在预训练模型中引入 拓扑扩展 规则协议:        - 当模型收敛到局部最优时,触发 结构突变(如增加残差分支或插入空洞卷积层);        - 评估新构型的潜在收益;     - 连接剪枝、重生、增生:对权重置零的连接按条件进行 动态复活检测,若某连接的梯度累积量超过阈值,则重新激活该通路,尝试侧边增生新连接,进入一轮输入输出的效率评估。二、生物启发式进化机制设计1. 神经元达尔文主义实现      - 双模型博弈框架:构建两个或多个异构或同构子网络,通过 协作与对抗性的知识输入输出博弈,知识迁移实现自优化:       - 子网络A的内生对话、思维链博弈,生成候选构型,子网络B作为判别器评估;       - 奖励函数设计,为验证集准确率变化率;     - 突触可塑性模拟:引入脉冲神经网络STDP规则,当两个构型系统的输入输出形式化的差异Δ∈(形式差异标准阈值)时增强权重,否则弱化。2. 跨物种脑结构仿生     -结构迁移:模型局部结构的拓扑编码为 图神经网络态,实现层次化特征重组;     -记忆回放机制:模型参数更新,对重要样本进行 双存储缓冲——原始数据存入"显性记忆池",特征嵌入存入"隐性记忆池",在结构重组时进行跨池对比蒸馏。三、知识压缩的革命性突破1. 超图知识蒸馏系统     - 知识逻辑原子的提取:构建三阶超图H=(V,E),其中顶点V表示知识原子(如"人类是生物"),超边E∈V×V×V编码推理规则(如(人类, 生物, 死亡)→"人类会死")。     - 最小覆盖集搜索:使用整数线性规划(ILP)求解覆盖所有推理路径的最小顶点集,在苏格拉底案例中,将{A,B}作为基集,C可被E中的超边规则推导得出,压缩率达33%。2. 数据宇宙的坍缩模型     -信息熵压缩:设计双通道信息自编码,主通道进行特征降维(如BERT→DistilBERT),验证通道通过可逆神经网络确保无损重建。当压缩后的散度小于阈值时,认为达到信息守恒。     -知识蒸馏实现:将知识传递建模为形式态复制,在知识信息池空间中进行变换抽象,实现保真压缩。
总条数:936 到第
上滑加载中