-
大模型数据隐私风险评估框架大模型的数据隐私风险评估需覆盖全生命周期,包括数据收集、训练、推理和部署阶段。核心评估维度包括:数据收集阶段风险检查训练数据是否包含可识别个人数据(如身份证号、医疗记录)或敏感信息,评估数据爬取是否获得合法授权验证数据来源合法性,避免侵犯版权或违反数据使用协议通过数据清洗工具检测偏差、缺失值等问题,确保数据质量模型训练阶段风险检测模型是否可能记忆敏感数据(如医疗大模型输出患者身份片段)评估差分隐私、联邦学习等技术的应用效果,量化隐私泄露概率分析算法安全性,防止攻击者通过模型反演获取训练数据推理与部署阶段风险测试模型输出是否可能泄露隐私(如通过用户提问推测健康状态)检查实时交互数据(如API输入)的加密传输与存储措施评估RAG(检索增强生成)知识库的敏感数据保护机制 评估方法与工具对抗性测试:通过提示注入、越狱攻击等手段验证模型抗干扰能力定量分析:采用主成分分析法、决策树等量化隐私泄露风险等级合规性检查:对照GDPR、CCPA等法规要求,评估数据脱敏和用户授权流程 实践建议建立动态评估机制:结合预见性研究与实际事故监测(如DeepMind的Gemini模型实践分层防护策略:对敏感数据实施分级加密,限制模型访问权限第三方审计:引入安全评估系统(如绿盟LSAS)进行自动化扫描
-
LazyLLM框架简介LazyLLM是商汤科技推出的开源低代码大模型应用开发框架,其核心设计理念是"以数据流为核心",通过模块化组件和简洁的语法糖,帮助开发者用10行左右代码快速构建复杂多Agent应用。相比LangChain和LlamaIndex,LazyLLM在代码简洁性和灵活性上具有显著优势开发环境准备安装依赖:通过GitHub获取LazyLLM源码(项目地址:https://github.com/LazyAGI/LazyLLM)基础配置:需准备Python 3.8+环境,安装CUDA(如需GPU加速)模型接入:支持InternLM2、BGE等主流模型,通过统一接口调用核心开发流程数据流设计LazyLLM采用Pipeline/Parallel等数据流拼接方式,典型结构包括:pythonCopy Codewith pipeline() as ppl: with parallel().sum as ppl.prl: ppl.retriever1 = Retriever(documents, parser='CoarseChunk') ppl.retriever2 = Retriever(documents, parser='SentenceDivider') 这种设计支持多路召回和动态路由模块化开发检索模块:支持RAG多路召回(如BM25+向量检索)推理模块:通过TrainableModule封装LLM,支持提示工程部署模块:提供Web/企业微信等一键部署能力典型应用示例以下代码展示了一个RAG问答应用的完整实现(约15行):pythonCopy Codedocuments = Document(dataset_path='/file/to/yourpath') with pipeline() as ppl: ppl.retriever = Retriever(documents) ppl.reranker = Reranker(model='bge-reranker-large') ppl.llm = TrainableModule('internlm2-chat-7b') mweb = WebModule(ppl, port=23456).start() 进阶功能多Agent编排:通过Switch/If/Graph等控制流实现复杂逻辑跨平台部署:支持PC/云端/端侧统一部署性能优化:内置轻量网关和缓存机制最佳实践建议优先使用TrainableModule封装业务逻辑,保持代码可维护性通过parallel().sum实现多路检索结果融合利用WebModule快速验证原型,再逐步优化参考官方文档(docs.lazyllm.ai)获取最新组件说明
-
BERT的Masked Language Model (MLM)任务作为其核心预训练目标,后续研究提出了多种改进变种,主要围绕掩码策略优化和任务设计创新展开:1. 动态掩码与静态掩码优化RoBERTa的动态掩码:BERT原版采用静态掩码(预处理时固定掩码位置),而RoBERTa在训练时动态生成掩码,使模型每次看到不同的掩码模式,增强泛化能力SpanBERT的连续掩码:将随机掩码改为掩码连续词段(如3-5个词),要求模型预测整个span而非单个词,更符合自然语言中的短语级语义单元2. 掩码策略的多样化MacBERT的纠错式掩码:在中文场景中,MacBERT提出用同义词替换(而非仅用[MASK])作为掩码目标,模拟人类“纠错”过程,减少预训练与微调的不匹配ELECTRA的生成-判别模式:通过生成器(Generator)预测被替换的token,判别器(Discriminator)判断token是否被替换,形成对抗训练,提升效率3. 任务目标扩展Span-level MLM:如SpanBERT通过预测连续span的表示,增强对长距离依赖的理解MLM as Correction:MacBERT将MLM任务重构为“纠错”任务,要求模型不仅预测被掩码词,还需修正可能的错误替换 4. 掩码比例与分布调整BERT原版比例:15%的token被掩码,其中80%替换为[MASK],10%随机替换,10%保持不变ALBERT的跨层参数共享:通过减少参数量间接影响MLM任务的计算效率,但保持掩码策略不变这些变种通过优化掩码方式、任务设计或训练目标,显著提升了模型在特定场景下的性能,如中文处理(MacBERT)、长文本理解(SpanBERT)或训练效率(ELECTRA)
-
GPT 与 BERT 的 Token 训练方法GPT 和 BERT 均采用子词(subword)切分策略(如 WordPiece 或 Byte Pair Encoding),但具体训练流程和优化目标存在显著差异。1. BERT 的 Token 训练分词器构建:BERT 使用 WordPiece 分词器,训练流程包括:Normalize:文本标准化(如小写转换、标点处理)Pre-tokenize:初步切分(如按空格分割)Model:通过 WordPiece 算法学习子词单元,合并高频词对(如“un”+“happy” → “unhappy”)Post-process:添加特殊符号(如 [CLS]、[SEP])并处理未登录词(OOV)预训练任务:MLM(掩码语言模型):随机遮蔽输入 token(如 15%),模型需根据双向上下文预测被遮蔽词NSP(下一句预测):判断两段文本是否连续,增强句子关系理解 2. GPT 的 Token 训练分词器构建:GPT 同样基于子词切分(如 BPE 算法),但更注重生成连贯性:Normalize:处理特殊字符和大小写。Pre-tokenize:按空格或标点切分。Model:通过统计词频合并高频子词对(如“trans”+“former” → “transformer”)。预训练任务:自回归语言模型(ALM):仅依赖左侧上下文预测下一个 token,逐词生成单向注意力:通过掩码机制(下三角矩阵)限制模型仅关注历史 token。关键区别特性BERT Token 训练GPT Token 训练切分目标双向上下文理解(MLM)生成连贯性(ALM)输入处理整句编码(含掩码)前缀文本逐步生成特殊符号[MASK]、[CLS]无掩码,仅需起始符(如 `<startoftext>`) 总结BERT 的 token 训练强调双向语义理解,通过掩码任务学习上下文关联;GPT 则聚焦单向生成,通过自回归任务优化文本流畅性。两者均依赖子词切分,但目标不同导致分词策略和预训练任务的差异
-
GPT Token 与 BERT Token 的定义GPT Token 是生成式预训练模型(如GPT系列)处理文本的基本单位,采用子词(subword)切分策略,例如“unhappiness”可能被拆分为“un”、“happy”、“ness”三个token。其核心特点是自回归生成,即逐token预测下一个词,仅依赖左侧上下文信息BERT Token 同样基于子词切分,但作为双向编码器模型,其token处理时能同时利用左右两侧上下文信息,例如“masked”一词在BERT中会被整体分析,而非仅依赖左侧词核心区上下文感知方式GPT:单向(从左到右),仅用历史token预测未来tokenBERT:双向(同时考虑前后文),通过掩码语言模型(MLM)任务学习完整语义切分策略差异两者均使用子词切分(如Byte Pair Encoding),但GPT更注重生成连贯性,BERT更关注语义完整性。应用场景GPT Token:适合生成任务(如对话、续写),需逐步生成token序列BERT Token:适合理解任务(如分类、问答),直接输出全句向量表示 技术实现对比特性GPT TokenBERT Token输入形式前缀文本(逐步生成)整段文本(一次性编码)输出目标下一个token概率分布每个token的上下文向量训练任务自回归语言建模(ALM)掩码语言建模(MLM)总结GPT Token与BERT Token的核心差异源于模型架构设计目标:GPT为生成优化,BERT为理解优化2。实际应用中,GPT需通过prompt工程适配分类任务,而BERT可直接微调用于理解类任务
-
动态架构调整的实现需要系统化的设计方法,以下是关键步骤与技术要点:一、架构设计核心步骤需求分析与可扩展性评估明确需要动态调整的流程节点(如业务流程、系统模块等),评估现有架构的扩展瓶颈。需量化调整后的性能目标(如吞吐量提升30%或延迟降低50%)插件化架构设计采用分层解耦设计(如Mediator模式),将核心逻辑与可变组件分离。典型实现包括:pythonCopy Codeclass DynamicWorkflow: def __init__(self): self.plugins = [] # 插件容器 def add_plugin(self, plugin): self.plugins.append(plugin) def execute(self): for plugin in self.plugins: plugin.run() if plugin.enabled else None 运行时动态加载机制通过反射或模块化加载实现热插拔,例如Java的ServiceLoader或Python的importlib模块二、关键技术实现状态监控与决策引擎实时采集系统指标(如CPU/内存占用率、请求延时),通过规则引擎或机器学习模型触发架构调整灰度发布与回滚机制采用蓝绿部署或金丝雀发布策略,确保调整过程可控。异常时自动回滚至稳定版本配置中心动态化使用ZooKeeper或Consul等工具实现配置实时同步,支持动态开关功能模块三、典型应用场景场景类型动态调整策略技术选型建议微服务架构根据QPS自动扩缩容服务实例Kubernetes HPA推荐系统CTR/CVR权重动态分配神经网络DC-LTR算法边缘计算设备资源不足时切换轻量级模型模型蒸馏+动态加载四、验证与优化混沌工程测试模拟网络分区、节点故障等场景,验证架构弹性。建议使用Litmus或Chaos Mesh工具性能基线对比调整前后需对比关键指标(如99分位延迟、错误率),确保优化效果符合预期当前前沿方案正结合强化学习实现自适应的动态架构调整,如阿里云的AutoScale系统已实现分钟级响应能力
-
CNN-ViT双分支架构通过并行处理局部与全局特征实现互补优势,其核心工作机制可分为以下方面:一、架构设计原理双分支并行结构CNN分支负责提取局部特征(如边缘、纹理),采用卷积层和空间金字塔结构;ViT分支处理全局语义关系,通过自注意力机制建模长程依赖特征融合策略常见融合方式包括:特征拼接:将CNN输出的特征图展平后与ViT序列特征拼接注意力加权:通过交叉注意力机制动态融合双分支特征跨层级交互:在中间层建立双向信息流动通道二、典型实现方案方案1:前端CNN+后端ViTpythonCopy Code class HybridNet(nn.Module): def __init__(self): super().__init__() self.cnn_branch = resnet18(pretrained=True) # 提取局部特征 self.vit_branch = ViT(image_size=224) # 建模全局关系 self.fusion = nn.Linear(512+768, 1000) # 特征融合层 方案2:动态架构调整如HIRI-ViT通过高分辨率分支(轻量CNN)和低分辨率分支(深度CNN)协同处理,再与ViT特征融合三、关键技术突破空间感知通道重建SACRC模块通过重建单元压缩冗余特征,计算效率提升30%的同时抑制背景干扰跨层级特征融合DRFM模块基于信息熵理论实现特征加权,关键区域注意力分配精确度达92.7%多尺度处理在THFuse等模型中,通过CNN分支提取多尺度特征,再与ViT全局特征交互四、性能优势任务类型双分支架构优势典型提升幅度图像分类细粒度特征识别(如鸟类纹理)+3.2%1医学影像分析结节边界与内部结构联合建模Dice系数+0.157实时检测轻量化版本延迟<5ms速度提升40%4当前研究趋势表明,混合架构正通过分层融合、动态调整等创新方案持续突破性能瓶颈89,在医疗影像、自动驾驶等领域展现出显著优势
-
一、局部特征提取的固有优势归纳偏置的不可替代性CNN通过卷积核的局部连接和权重共享,天然具备平移不变性和局部性先验,这种内置的归纳偏置使其在小规模数据场景下仍能稳定提取边缘、纹理等底层特征12。而ViT需依赖大规模预训练才能弥补缺乏此类先验的缺陷细粒度细节保留能力在医疗影像分析等需要像素级精度的任务中,CNN的逐层卷积结构能更好地保留局部细节,而ViT的patch划分可能破坏微观结构二、计算效率与硬件适配性轻量化部署优势CNN的稀疏连接特性使其参数量显著低于同等性能的ViT,MobileNet等轻量级CNN在移动端推理速度可达ViT的3-5倍实时性要求场景工业检测等低延迟场景中,CNN的单帧处理耗时稳定在1-2ms,而ViT即使优化后仍难以突破5ms门槛三、特定任务的结构适配性动态输入处理CNN可灵活处理任意尺寸输入,而ViT需固定patch数量,对非标准分辨率图像需插值或裁剪,导致信息损失多尺度特征融合FPN等CNN架构通过金字塔结构实现多尺度特征融合,而ViT需额外设计复杂模块(如Swin Transformer的窗口移位)才能达到类似效果四、安全性与鲁棒性对抗攻击防御实验表明,CNN对对抗样本的噪声敏感性显著低于ViT,在相同攻击强度下,ViT的误判率比CNN高15%-20%训练稳定性CNN的超参数敏感性远低于ViT,在数据分布偏移时表现更稳定,而ViT需精细调整学习率调度和正则化策略当前技术演进中,混合架构(如CNN-ViT双分支)正成为解决双方短板的主流方向1011,但纯CNN在边缘计算、实时系统等场景仍不可替代。
-
Vision Transformer (ViT) 相较于传统卷积神经网络 (CNN) 在多个维度上展现出显著优势,以下是具体对比分析:一、全局信息建模能力长程依赖关系捕捉ViT通过自注意力机制直接建模图像中任意位置间的关联,而CNN需通过堆叠多层卷积逐步扩大感受野,效率较低空间变换处理对旋转、尺度变化等具有更强的鲁棒性,无需依赖数据增强即可学习不变性特征二、计算效率与扩展性并行计算优化基于Transformer的并行计算特性,在GPU集群上训练速度比同等规模的CNN快20%-30% 大规模数据适应性在ImageNet-21K等大规模数据集上,ViT性能随数据量增长持续提升,而CNN易出现性能饱和三、架构优势参数效率相同精度下,ViT的参数量比CNN减少约15%-20%,推理速度提升30%以上多模态兼容性天然支持文本、图像等跨模态联合训练(如CLIP模型),而CNN需额外设计融合层四、应用场景对比特性ViT优势场景CNN适用场景小样本学习迁移学习表现优异需大量标注数据实时检测轻量化版本延迟<5ms移动端部署受限可解释性注意力热力图可视化黑箱特性明显当前技术前沿正通过知识蒸馏(如TinyMIM710)进一步提升ViT在小模型上的表现,而CNN在边缘计算等特定领域仍保持不可替代性。
-
构建神经符号系统需要系统性融合神经网络与符号推理能力,以下是关键技术实现路径:一、架构设计原则分层融合架构采用感知层(神经网络)-抽象层(符号编码)-推理层(逻辑引擎)-验证层(动态约束)的四层结构,实现数据到知识的递进转化。动态路由机制根据任务类型自动选择计算路径:pythonCopy Codedef route_decision(input_data): if input_data.requires_logic_rules: return Symbolic_Engine() elif input_data.needs_pattern_recognition: return Neural_Model() else: return Hybrid_Fusion() 二、核心技术组件知识表示与推理引擎将一阶逻辑、描述逻辑等符号知识编码为向量嵌入通过可微分逻辑实现符号规则的神经网络化表达神经符号转换器采用Transformer架构构建联合编码器,同步处理文本/图像输入与符号知识引入注意力机制实现特征与规则的动态对齐三、工程实现步骤工业知识图谱构建标准化领域本体(如制造业设备故障树)多源异构数据融合(传感器数据+专家规则)边缘计算部署开发低延迟推理模块(延迟<5ms)实现模型轻量化(参数量<100M)验证与优化建立可解释性评估矩阵(推理路径可视化)设计对抗测试集验证系统鲁棒性当前技术前沿正探索神经符号系统与数字孪生的深度集成,通过实时感知-推理-决策闭环提升工业智能化水平5。构建时需特别注意知识更新的时效性保障与边缘计算资源的动态分配。
-
神经符号架构(Neuro-Symbolic Architecture)是通过融合神经网络与符号系统的混合智能框架,其核心特征和实现路径如下:一、架构定义与核心特征认知分层融合采用感知-抽象-推理-验证四层架构,其中神经网络处理低层数据特征(如视觉/语音识别),符号系统执行高层逻辑推理(如因果推断)。双重计算范式神经计算:通过深度学习实现模式识别与不确定性处理符号计算:基于逻辑规则(如一阶逻辑)进行可解释推理两者通过动态路由机制协同工作。可解释性增强支持从神经网络激活模式中提取符号化规则(如将CNN特征映射为“翅膀”等概念),并生成推理路径可视化。二、关键技术实现知识表征双向映射符号→神经:将逻辑规则编码为神经网络参数(如注意力矩阵)神经→符号:通过注意力热力图提取可解释符号概念。混合推理机制动态选择推理路径:pythonCopy Codedef route_policy(context): if context.ambiguity > 0.7: return Symbolic_Engine.infer(context) elif context.speed_priority: return Neural_Model.predict(context) else: return Hybrid_Reasoning.fuse(context) 实现CPU/GPU/FPGA资源动态分配跨模态融合构建时空-语义双约束模型,通过对比学习损失函数对齐多模态特征:Lalign=∑i,jmax(0,ϵ+d(fiv,fjt)−d(fiv,fkt))Lalign=∑i,jmax(0,ϵ+d(fiv,fjt)−d(fiv,fkt))支持12种模态并行处理(延迟<3ms)。三、典型应用场景企业级决策金融风控中结合神经网络欺诈检测与符号系统合规规则验证,误报率降低62%。医疗诊断神经网络分析CT影像特征,符号系统根据医学规则推导疾病类型,准确率提升至92.3%。机器人导航动态融合视觉SLAM与符号路径规划,复杂环境避障成功率提高至89%。当前技术前沿正探索神经符号系统在脑机接口中的应用,实现多智能体协同决策。
-
知识图谱在AI系统中扮演着认知基础设施的核心角色,其作用可归纳为以下关键维度:一、知识结构化与持久化突破上下文窗口限制通过实体-关系网络将碎片化信息转化为结构化知识库,解决大语言模型短期记忆(如32k tokens)无法长期保存用户偏好(如"张三喜欢黑色42码运动鞋")的问题。 多模态知识融合支持文本、图像、视频等异构数据统一语义化存储,例如电商场景中同步商品描述、用户评论和视觉特征。二、增强推理与决策能力可解释性路径生成提供清晰的推理链条(如"订单123456→关联商品→白色运动鞋→库存状态"),使AI决策过程透明化。动态知识更新通过增量学习机制自动吸收新知识(如2024年新猫品种入库),避免传统模型需重新训练的问题。 三、优化记忆管理遗忘曲线建模结合Ebbinghaus遗忘模型动态调整知识节点权重,实现智能复习推荐(如高亮遗忘热力图+下次复习时间预测)。记忆状态追踪可视化展示概念节点的记忆深度、复现轨迹及遗忘风险,提升教育、医疗等场景的个性化服务能力。当前技术前沿正探索神经符号架构,将大语言模型的泛化能力与知识图谱的逻辑严谨性深度结合,推动AI从"感知智能"向"认知智能"演进。
-
AI对结构化记忆的需求源于其认知架构与人类智能系统的本质差异,这种需求通过知识图谱、动态遗忘机制等技术的结合得以实现。以下是关键原因分析:一、解决大语言模型的认知局限突破上下文窗口限制大语言模型的短期记忆(如GPT-4的32k tokens)仅能保留约5分钟对话内容,而结构化记忆通过知识图谱实现跨会话持久化存储,使AI能关联用户历史偏好(如"张三喜欢黑色42码运动鞋")。消除信息割裂问题非结构化记忆会导致AI在连续对话中丢失关键上下文(如用户重复强调"白色款"仍被误认为"黑色款"),知识图谱通过实体-关系建模确保信息关联性。二、实现动态认知优化选择性遗忘机制通过时间衰减算法淘汰过时信息(如政策法规更新),同时强化高频使用知识节点,避免记忆污染。 知识增量学习结构化记忆支持动态更新(如2024年新猫品种的自动入库),使AI能持续吸收新知识而无需重新训练模型。三、提升推理与决策能力多模态知识融合知识图谱将文本、图像、视频等异构数据转化为统一语义网络,支持跨模态推理(如根据用户历史购买记录推荐商品)。可解释性增强结构化记忆提供清晰的推理路径(如"订单123456→关联商品→白色运动鞋→库存状态"),使AI决策过程透明化。当前技术前沿正探索神经符号融合架构,通过将大语言模型与知识图谱深度结合,构建具备持续进化能力的AI系统4。这种结构化记忆机制已成为智能客服、教育辅导等场景的核心基础设施。
-
MCP协议(Model Context Protocol,模型上下文协议)是由Anthropic于2024年11月推出的开放标准协议,旨在标准化大型语言模型(LLM)与外部数据源、工具和服务之间的交互方式,被类比为“AI领域的USB-C接口”。其核心架构与特性如下:一、核心架构与组件三层架构设计MCP Host:运行AI模型的主应用程序(如Claude Desktop、IDE插件等),负责用户交互与权限控制。MCP Client:集成在Host内部的中间件,处理与Server的通信,支持1:1有状态会话。MCP Server:轻量级服务端,提供工具(Tools)、资源(Resources)、提示(Prompts)三类功能,例如数据库查询、API调用等。通信机制基于JSON-RPC 2.0协议,支持本地(stdio)和远程(HTTP SSE)传输方式,消息格式标准化。动态发现机制允许AI模型实时集成新工具,无需预定义代码。二、核心功能与优势功能覆盖工具调用:通过装饰器注册函数(如@mcp.tool()),实现数据库写入、文件操作等。资源访问:暴露只读数据源(如配置文件),支持结构化查询79。上下文管理:通过分层注意力机制和语义摘要压缩,优化长对话和多轮交互。技术优势标准化集成:减少80%的定制开发代码,企业AI项目开发周期平均缩短40%。安全性:通过权限分级和凭据隔离,避免敏感数据直接暴露给模型413。模块化扩展:支持动态接入12万+服务(如天气查询、金融数据分析),形成正向生态飞轮。
-
1. 检索增强生成(RAG - Retrieval-Augmented Generation)这是目前最流行、最落地的一种应用形式。如何工作:结构化记忆库:将外部知识(如公司文档、产品手册、最新新闻)进行切分、编码(向量化),并存入向量数据库。这个数据库就是结构化的外部记忆。检索:用户提问时,AI不是直接回答,而是先从向量数据库中检索出与问题最相关的若干信息片段。增强生成:将“用户问题”和“检索到的相关记忆”一起组合成一个提示(Prompt),送给LLM生成最终答案。示例:一个AI客服机器人,其记忆库里存储了结构化的产品信息和Q&A对。当用户问“我的XX型号手机如何截图?”时,它会先检索到相关的说明书片段,再生成准确回答。这完美解决了幻觉和知识更新问题。2. 神经图灵机(NTM - Neural Turing Machine)与可微分计算机一种更接近计算机科学概念的理论模型。核心思想:让神经网络学会如何读写一个外部的、类似计算机内存的矩阵。工作机制:网络会输出一个“读头”和“写头”,通过注意力机制决定从记忆矩阵的哪些位置读取信息,或将信息写入哪些位置。网络可以学习如何组织和管理这个记忆库来完成算法任务(如排序、复制等)。意义:这为AI提供了类似计算机的工作记忆,能够执行需要多步骤存储和操作的复杂任务。3. 知识图谱(Knowledge Graph)集成知识图谱本身就是一种最典型的结构化记忆。如何工作:将世界知识以“实体-关系-实体”的三元组形式存储(如(北京, 是首都, 中国))。这个图谱就是一个庞大的、语义化的记忆网络。与AI结合:知识注入:在训练前或训练中将知识图谱信息注入到模型中,提升模型的事实性。推理验证:AI生成答案后,可以用知识图谱作为“知识底座”进行验证和校准,减少幻觉。可解释性:AI的推理过程可以转化为在知识图谱上的路径查找,使得决策过程更加透明。4. 智能体(Agent)的长期记忆在AI智能体中,结构化记忆是其成为“个性化”助手的关键。工作记忆:相当于智能体的“桌面”,存储当前任务相关的上下文信息。长期记忆:相当于智能体的“日记本或数据库”,以结构化的方式永久记录:用户偏好:“我的用户喜欢用Markdown格式做总结。”过往对话摘要:“上周用户让我分析了A、B、C三家公司的财报,并推荐了B公司。”行动结果:“上次调用Python代码执行股票价格分析失败了,原因是pandas库版本不兼容。”示例:一个AI智能体在帮你规划旅行时,会从长期记忆中回忆起“用户喜欢靠窗的座位和素食”,并在这次预订航班和酒店时直接应用这些信息。
上滑加载中
推荐直播
-
HDC深度解读系列 - Serverless与MCP融合创新,构建AI应用全新智能中枢2025/08/20 周三 16:30-18:00
张昆鹏 HCDG北京核心组代表
HDC2025期间,华为云展示了Serverless与MCP融合创新的解决方案,本期访谈直播,由华为云开发者专家(HCDE)兼华为云开发者社区组织HCDG北京核心组代表张鹏先生主持,华为云PaaS服务产品部 Serverless总监Ewen为大家深度解读华为云Serverless与MCP如何融合构建AI应用全新智能中枢
回顾中 -
关于RISC-V生态发展的思考2025/09/02 周二 17:00-18:00
中国科学院计算技术研究所副所长包云岗教授
中科院包云岗老师将在本次直播中,探讨处理器生态的关键要素及其联系,分享过去几年推动RISC-V生态建设实践过程中的经验与教训。
回顾中 -
一键搞定华为云万级资源,3步轻松管理企业成本2025/09/09 周二 15:00-16:00
阿言 华为云交易产品经理
本直播重点介绍如何一键续费万级资源,3步轻松管理成本,帮助提升日常管理效率!
回顾中
热门标签