-
Top-5错误率是图像分类任务中常用的一个性能指标(很多论文里都会使用这个评价指标),用于衡量模型在预测时的准确性和鲁棒性。它的定义如下:假设一个图像分类模型需要从一个固定的类别集合中识别出输入图像的正确类别。在进行预测时,模型会输出每个类别的置信度(通常是概率值)。Top-5错误率是指模型输出的置信度最高的5个类别中,不包含正确类别的情况所占的比例。换句话说,如果模型预测的置信度最高的5个类别中包含正确类别,则认为该预测是正确的;否则,认为预测是错误的。Top-5错误率就是所有错误预测占总预测的比例。为什么使用Top-5错误率?反映模型的鲁棒性:在实际应用中,图像可能包含多个相似的类别,或者图像质量不佳导致难以区分。Top-5错误率允许模型有一定的“容错空间”,能够更好地反映模型在复杂情况下的鲁棒性。与Top-1错误率的对比:Top-1错误率只考虑置信度最高的类别是否正确,而Top-5错误率则更宽松,能够更全面地评估模型的性能。通常,Top-5错误率会比Top-1错误率低,因为它允许模型有更多机会“猜对”正确答案。实际应用的合理性:在一些应用场景中,用户可能更关心模型是否能够给出“合理”的候选答案,而不仅仅是单一的预测结果。例如,在搜索引擎中,用户可能对前几个搜索结果都感兴趣,而不仅仅是第一个结果。举例说明假设有一个图像分类任务,类别包括“猫”、“狗”、“鸟”、“汽车”和“飞机”。对于一张“猫”的图片,模型的预测结果按置信度排序为:狗(0.4)猫(0.3)鸟(0.2)汽车(0.08)飞机(0.02)在这种情况下,虽然“猫”不是置信度最高的类别,但它在前5个预测结果中,因此该预测在Top-5错误率的评估中被认为是正确的。总之,Top-5错误率是一个比Top-1错误率更宽松的评估指标,它主要用于衡量模型在复杂情况下的鲁棒性和实用性。它广泛应用于图像分类任务中,尤其是在大规模数据集(如ImageNet)的评估中。
-
梯度弥散(Vanishing Gradient)和梯度爆炸(Exploding Gradient)是深度学习中常见的问题,主要发生在反向传播过程中。它们会影响模型的训练效率和收敛性能。1. 定义梯度弥散:在反向传播中,梯度随着网络层数的增加而逐渐减小,导致靠近输入层的权重更新缓慢甚至停滞。梯度爆炸:与梯度弥散相反,梯度在反向传播中迅速增大,导致权重更新过大,模型无法收敛。2. 通过合理初始化解决梯度问题权重初始化是解决梯度弥散和梯度爆炸的关键方法之一。合适的初始化策略可以确保梯度在训练初期保持稳定。Xavier初始化:适用于Sigmoid和Tanh激活函数,根据前一层神经元数量调整权重的方差。He初始化:特别适合ReLU激活函数,通过调整权重的方差来避免梯度问题。3. 通过正则化解决梯度问题正则化技术可以限制权重的大小,从而间接缓解梯度爆炸问题。L1和L2正则化:通过在损失函数中加入正则化项,限制权重的大小,从而避免梯度过大。权重正则化:通过对权重施加约束,防止权重值过大,从而限制梯度爆炸。4. 其他辅助方法除了初始化和正则化,还有一些方法可以缓解梯度问题:批量归一化(Batch Normalization):通过规范化每一层的输入,保持梯度的稳定流动,同时减少内部协变量偏移。激活函数选择:使用ReLU及其变体(如Leaky ReLU、ELU)可以避免梯度饱和问题。梯度裁剪(Gradient Clipping):直接限制梯度的最大值,防止梯度过大。残差网络(ResNet):通过跨层连接,改善梯度传播,缓解梯度弥散问题。5. 总结梯度弥散和梯度爆炸是深度学习中的常见问题,但可以通过以下方法解决:使用合适的权重初始化策略(如Xavier或He初始化)。应用正则化技术(如L1、L2正则化)。结合批量归一化、激活函数选择、梯度裁剪和残差网络等方法。这些方法可以有效缓解梯度问题,提高模型的训练效率和收敛性能。
-
1. 什么是线性模型?线性模型是一种数学模型,它的输出是输入特征的线性组合。对于二分类问题,线性模型可以表示为:[ f(x) = w_1x_1 + w_2x_2 + \dots + w_nx_n + b ]其中,( x_1, x_2, \dots, x_n ) 是输入特征,( w_1, w_2, \dots, w_n ) 是权重,( b ) 是偏置项。线性模型的核心特点是输出与输入之间是线性关系。2. 什么是异或函数?异或函数(XOR)是一种逻辑运算,它的输入是两个二进制值(0或1),输出也是二进制值。异或函数的定义如下:输入 ( x_1 )输入 ( x_2 )输出 ( y )000011101110从表中可以看出,异或函数的输出只有在两个输入不同时才为1,否则为0。3. 为什么线性模型无法学习异或函数?(1)线性可分性线性模型的核心特点是它只能学习线性可分的决策边界。线性可分意味着可以通过一条直线(二维空间)或一个超平面(高维空间)将不同类别的数据点完全分开。对于异或函数,我们可以将输入看作二维空间中的点,其中 ( x_1 ) 和 ( x_2 ) 是坐标轴。异或函数的四个输入点可以表示为:(0, 0) → 输出 0(0, 1) → 输出 1(1, 0) → 输出 1(1, 1) → 输出 0如果我们将输出为1的点标记为一类,输出为0的点标记为另一类,那么在二维平面上,这四个点的分布如下:(0,1) (1,1) 1 0 (0,0) (1,0) 0 1 从图中可以看出,输出为1的点和输出为0的点不能通过一条直线分开。换句话说,异或函数的决策边界是非线性的,而线性模型只能学习线性决策边界,因此无法表示异或函数的逻辑关系。(2)数学证明假设线性模型能够学习异或函数,那么可以表示为:[ f(x_1, x_2) = w_1x_1 + w_2x_2 + b ]我们需要找到一组权重 ( w_1, w_2 ) 和偏置 ( b ),使得模型能够正确输出异或函数的结果。根据异或函数的定义,我们有以下四个方程:( f(0, 0) = 0 ) → ( b = 0 )( f(0, 1) = 1 ) → ( w_2 + b = 1 )( f(1, 0) = 1 ) → ( w_1 + b = 1 )( f(1, 1) = 0 ) → ( w_1 + w_2 + b = 0 )从方程1可以得到 ( b = 0 )。代入方程2和方程3,我们得到:( w_2 = 1 )( w_1 = 1 )再代入方程4:[ 1 + 1 + 0 = 2 \neq 0 ]这与方程4矛盾,说明不存在一组权重 ( w_1, w_2 ) 和偏置 ( b ) 能够满足异或函数的所有条件。因此,线性模型无法学习异或函数。4. 如何解决线性模型无法学习异或函数的问题?虽然线性模型无法学习异或函数,但可以通过引入非线性元素来解决这个问题。例如,使用多层神经网络(尤其是包含非线性激活函数的网络),可以学习异或函数的逻辑关系。这是因为多层神经网络可以通过隐藏层的非线性组合来表示复杂的决策边界。总结线性模型无法学习异或函数的原因在于异或函数的决策边界是非线性的,而线性模型只能学习线性可分的决策边界。通过引入非线性元素(如多层神经网络),可以解决这一问题。
-
当全球AI竞赛进入白热化阶段,华为昇腾再次交出一份硬核答卷!就在近日,华为宣布其AI计算平台昇腾成功适配支持开源项目Open R1,并实现DeepSeek V3模型的高效预训练与微调。这一进展不仅标志着国产算力生态的又一次突破,更让开发者看到了“中国技术”在AI大模型领域的无限可能。一、昇腾+MindSpeed:国产算力“黄金搭档”再升级华为此次公布的MindSpeed框架,已全面支持DeepSeek V3模型的预训练与微调任务。从官方披露的并行配置参数来看,昇腾通过优化的分布式训练方案,显著提升了模型训练效率,尤其是在千亿级参数场景下,昇腾集群的算力调度和内存管理能力经受住了考验。据介绍,MindSpeed 现已支持 DeepSeek V3 模型预训练与微调。所使用的并行配置与模型参数如下:划重点:知识蒸馏技术落地:华为基于昇腾完成知识蒸馏流程验证,成功让轻量化的Qwen模型在特定领域评分大幅提升。这意味着,开发者未来可基于昇腾平台快速训练出“小而强”的AI模型,大幅降低算力成本。开源生态兼容性突破:昇腾适配支持vLLM等主流AI工具库,打通了Open R1-Zero的GRPO流程(关键训练步骤)。开发者无需重复造轮子,即可利用昇腾硬件加速训练数据生成。二、Open R1项目为何引爆开发者圈?作为Hugging Face官方力推的开源项目,Open R1旨在复现DeepSeek-R1模型的完整训练流程,目前已在GitHub上斩获71K+星标,堪称AI界的“顶流”。开源复现的意义:DeepSeek-R1作为国产大模型的代表,其训练细节长期被视为“黑箱”。Open R1项目通过开源协作,填补了技术流程的空白,让全球开发者得以透明化探索模型优化路径。华为昇腾的适配价值:此次昇腾的深度适配,意味着国产算力平台与国际主流开源框架的兼容性再进一步。开发者既能享受昇腾的算力红利,又能无缝接入Hugging Face生态,实现“鱼与熊掌兼得”。三、技术自主+开源协作:中国AI的“两条腿”战略当前,国际芯片博弈加剧,算力自主权成为AI发展的核心命题。华为昇腾的突破,不仅在于硬件性能的追赶,更在于其构建开放生态的远见:打破“卡脖子”焦虑:昇腾适配开源项目,本质上是将国产硬件融入全球AI创新链条,避免技术孤立。开发者生态是关键:华为通过支持知识蒸馏、优化工具链,降低了AI开发门槛。中小团队甚至个人开发者,也能基于昇腾平台探索大模型应用,加速行业创新落地。四、行业影响:一场AI生产力的“普惠革命”华为此次技术进展,释放了三大信号:国产算力可用性验证:昇腾已具备支撑复杂AI训练任务的能力,为金融、医疗、科研等领域提供了“备胎”选择。轻量化模型成趋势:知识蒸馏技术的成熟,将推动AI从“拼参数”转向“拼效率”,边缘计算、端侧智能迎来新机遇。开源社区力量崛起:中国企业与全球开发者协同创新,正在改写AI技术的话语权格局。华为昇腾与Open R1的“双向奔赴”,不仅是技术的胜利,更是生态的胜利。当国产算力与开源精神深度结合,中国AI的“星辰大海”或许就在眼前。对于开发者而言,这无疑是一个最好的时代——技术无国界,创新无止境,而你,准备好搭上这班快车了吗?文末互动👉 你怎么看国产算力与开源生态的结合?欢迎在评论区分享你的观点!
-
025年春节前夕,中国AI领域迎来重磅消息——中国信通院主导的算力互联公共服务平台正式上线“DeepSeek服务站点大全”!这一功能不仅为国内开发者提供了调用算力的统一入口,更集结了全球22家头部云服务商,让国产大模型DeepSeek成为AI开发者的“新宠”。中国AI技术能否借此实现“弯道超车”?一文揭秘!一、开发者福音:算力调用从此“一站直达”过去,AI开发者常面临算力分散、资源不均衡、调用门槛高的痛点。而此次上线的“DeepSeek服务站点”功能,通过算力互联公共服务平台,将华为云、微软Azure、亚马逊AWS、英伟达等22家全球云服务商的DeepSeek模型服务能力集中呈现,开发者无需跨平台搜索,即可一键触达所需算力资源。亮点功能:统一入口:覆盖训练、推理、定制化开发全流程需求;成本优化:依托国产模型DeepSeek的计算资源优化,调用成本更低;灵活适配:支持私有化部署与专有数据训练,满足企业个性化需求。二、DeepSeek为何成为“顶流”?硬核技术+性能登顶DeepSeek系列模型近期表现堪称“现象级”:榜单屠榜:在Lmarena模型竞技榜中,DeepSeek-R1与GPT-4o并列全球第三,前十名中国模型独占四席;多场景覆盖:涵盖通用语言理解(R1、V3系列)、代码生成(Coder系列)、数学推理(Math系列)等,适配生物医药、智能制造、AIGC等前沿领域;性能比肩国际:通过国产推理引擎优化,其推理效率与高端GPU持平,成本却降低30%以上。三、产业落地加速:从“算力超市”到“锡产锡用”此次升级不仅是技术突破,更推动AI算力与地方经济深度融合。例如:无锡高新区:云工场科技打造的“算力超市”基于DeepSeek模型,实现本地化“锡产锡用”,助力中小企业快速部署AI应用;超算互联网:DeepSeek系列模型已上线国家超算互联网平台(www.scnet.cn),提供从1.5B到70B参数的一键推理服务,普惠中小开发者。四、未来展望:中国AI生态的“新基建”算力互联平台与DeepSeek的协同,标志着中国AI产业两大趋势:生态重构:从依赖国际巨头到国产模型+算力自主可控;普惠化:通过“边缘AI算力”和分布式节点,降低企业应用门槛。专家预测:随着DeepSeek开源生态的完善,中国有望在3年内孵化出10个以上垂直领域的世界级大模型应用!从技术突破到产业落地,DeepSeek与算力互联平台的结合,不仅是一次资源整合,更是中国AI自主创新的里程碑。开发者们,赶紧登录算力互联公共服务平台,体验“一站式”算力调用,抢占AI新时代的先机吧! 声明:本文部分信息综合自中国信通院、IT之家、经济观察网等报道。
-
宝子们,和大家唠唠 DeepSeek 对人工智能发展的影响~DeepSeek 火爆出圈,拿下美国和中国区 App Store 免费榜双料第一,还成为首个超越 OpenAI ChatGPT 的 AI 助手类应用(至少在成本、和中文能力上无可争议的超越)。其采用 Multi-Head Latent Attention(MLA)和 DeepSeek MoE 架构等创新技术,显著提升模型性能和效率。DeepSeek 的开源策略,支持商业友好的 MIT 许可证,开源模型权重,没有对下游应用的限制,引发全球科技圈强烈震动。让我们一起见证并探讨 DeepSeek 如何推动 AI 应用拓展和技术创新,也许它将开启人工智能的新纪元~
-
DeepSeek(深度求索)是由中国人工智能公司深度求索(DeepSeek Inc.)开发的一系列大语言模型(LLMs)和人工智能解决方案,专注于推动通用人工智能(AGI)的研究与应用。该系列以高效训练、强大性能和多样化场景适配为特点,覆盖了从开源模型到商业闭源模型的多类产品。以下是其核心模型及技术概览:一、DeepSeek 系列核心模型1. MoE 架构模型DeepSeek MoE-16B/8x220B特点:采用混合专家(Mixture of Experts, MoE)架构,通过稀疏激活提升模型效率。16B版本激活参数量仅2.8B,推理成本接近7B模型,性能接近70B稠密模型。训练数据:基于8.1T tokens的高质量多语言语料。应用:适用于高性价比的复杂任务处理,如长文本生成和多轮对话。2. 对话模型DeepSeek Chat/Chat 32k上下文窗口:支持16k/32k长上下文,擅长处理多轮对话和长文本理解。性能:在MT-Bench、AlpacaEval等评测中超越GPT-3.5,接近GPT-4水平。DeepSeek-R1-Lite-Preview轻量级对话模型,针对低资源场景优化,支持实时交互。3. 开源模型DeepSeek LLM 7B/67B开源协议:7B模型免费商用,67B模型学术研究可用。性能:中英文能力均衡,在MMLU、C-Eval等基准测试中超越Llama 2和大部分同规模模型。DeepSeek-Math 7B专注于数学推理,通过强化学习优化,在MATH数据集上表现优异。4. 数学与代码推理DeepSeek Math/Code数学模型通过“过程奖励”策略提升逻辑推理能力,代码模型支持复杂代码生成与调试。二、技术亮点高效MoE架构动态路由机制优化专家选择,平衡计算效率与模型性能。长上下文处理支持32k tokens上下文窗口,结合位置编码优化,减少长文本中的信息丢失。多模态扩展部分模型集成多模态理解能力(如图文问答),扩展应用边界。开源生态提供全流程工具链(训练框架、微调工具),降低开发者使用门槛。三、应用场景企业级应用:智能客服、文档分析、金融报告生成。教育科研:数学解题辅助、编程教学、学术文献总结。开发者工具:代码生成、自动化测试、数据清洗脚本编写。四、性能对比模型参数量上下文长度关键优势典型评测得分DeepSeek Chat 32k67B32k长文本对话MT-Bench: 8.1DeepSeek Math 7B7B4k数学推理MATH: 51.7%DeepSeek MoE-16B16B4k高性价比推理MMLU: 70.5DeepSeek LLM 67B67B4k中英文综合能力C-Eval: 81.3五、未来方向多模态融合:深化图文、音视频跨模态理解。超级长上下文:探索百万级token上下文窗口。AGI路径探索:结合认知科学提升模型逻辑与创造力。DeepSeek系列通过技术创新与开源策略,持续推动大模型在工业界与学术界的落地,成为全球AGI竞争中的重要参与者。如需更详细的技术文档或评测数据,可访问其官方GitHub仓库或研究论文。六、技术细节与创新1. 高效训练策略数据优化:DeepSeek 采用多阶段数据筛选与增强技术,通过预训练数据的动态去噪和重加权策略,提升模型对高质量知识的吸收效率。例如,针对数学与代码数据,引入领域特定的数据增强(如问题变体生成、代码重构)。分布式训练:结合 ZeRO 优化和混合并行技术(张量并行+流水线并行),在千卡集群上实现高资源利用率,67B 模型训练时间较同类框架缩短约 30%。2. 推理加速技术动态计算分配:MoE 模型通过专家预测器(Expert Predictor)提前路由,减少推理时的计算延迟。例如,DeepSeek MoE-16B 在真实场景中的推理速度比同等性能的稠密模型快 1.8 倍。量化与压缩:支持 INT4 量化技术,在保证 95% 以上性能的前提下,将模型显存占用降低至原大小的 1/4,适配边缘设备部署。3. 安全与伦理设计对齐机制:通过 RLHF(人类反馈强化学习)和 RLAIF(AI 反馈强化学习)双轨对齐策略,减少模型生成有害或偏见内容的风险。例如,在 DeepSeek Chat 中引入“安全阈值”动态过滤机制。可解释性工具:提供神经元激活追踪和决策路径可视化工具,帮助开发者理解模型行为,满足金融、医疗等高风险场景的合规需求。七、生态系统与开发者支持1. 开源工具链DeepSeek-Turbo:一站式微调框架,支持从数据预处理到模型部署的全流程,集成低秩适配(LoRA)、梯度 checkpoint 等优化技术,可在单卡上微调 7B 模型。Model Zoo:提供预训练、对话、数学等场景的数百个微调 checkpoint,覆盖教育、编程、法律等垂直领域。2. 社区与合作伙伴开发者竞赛:定期举办垂类模型优化挑战赛(如“医疗问答大模型”),提供算力奖励和商业合作机会。企业级服务:与阿里云、腾讯云等云厂商合作,推出“DeepSeek 模型即服务”(MaaS),支持私有化部署和定制化训练。3. 教育赋能计划高校合作:向全球高校开放 7B 模型的免费研究授权,并配套课程与实验案例(如“用 DeepSeek 复现经典 NLP 论文”)。开发者文档:提供中英双语的技术白皮书、API 文档及故障排查指南,降低非专业团队的使用门槛。八、行业应用案例1. 金融领域智能投研:某券商利用 DeepSeek LLM 67B 分析财报与新闻,自动生成上市公司风险评级报告,将分析师效率提升 40%。合规审查:模型通过微调识别合同条款中的潜在法律冲突,准确率达 92%,误报率低于 5%。2. 医疗领域辅助诊断:结合医学文献微调的 DeepSeek-R1 模型,在患者症状描述中推荐疑似疾病,辅助医生缩短初诊时间。科研加速:自动提取论文中的药物相互作用数据,帮助药企快速构建知识图谱。3. 教育领域个性化辅导:教育机构集成 DeepSeek-Math 7B,为学生提供分步解题指导,在奥数训练中使平均得分提升 15%。自动批改:支持代码作业的语法检查与逻辑错误定位,覆盖 Python、Java 等主流语言。九、挑战与展望1. 当前局限长上下文依赖:尽管支持 32k tokens,但对超长文本中细粒度信息的连贯理解仍存在偏差(如法律文档的条款交叉引用)。多模态瓶颈:图文联合推理能力尚处于早期阶段,复杂图表(如电路图、化学方程式)的解析准确率不足 60%。2. 未来突破点记忆增强架构:探索外部知识库的动态挂载技术,实现模型“实时学习”而不必全量重训练。能源效率:目标在 3 年内将训练同等性能模型的碳排放降低 50%,通过硬件-算法协同设计(如稀疏计算芯片适配)。3. 社会影响就业结构变革:DeepSeek 在客服、编程等领域的落地可能重塑劳动力市场,需配套职业再培训政策。全球协作:通过开源模型促进发展中国家AI技术普惠,缩小“智能鸿沟”。十、结语DeepSeek 系列不仅代表了中国在AGI技术上的前沿探索,更通过开源开放、产业协同的策略,推动大模型从实验室走向千行百业。其在效率与性能的平衡、垂直场景的深耕、伦理安全的重视等方面,为行业树立了新标杆。随着多模态、超级长上下文等技术的成熟,DeepSeek 或将成为首个在专业领域达到人类专家水平的AI模型,重新定义人机协作的未来。注:如需进一步了解技术实现或合作详情,可参考以下资源:官网:cid:link_1GitHub:cid:link_0研究论文:《DeepSeek MoE: Towards Ultimate Expert Specialization in Mixture-of-Experts Language Models》
-
最近爆火的大模型DeepSeek和其他类型的大模型相比,都有什么优势呢?
-
2025年,人工智能已不再是实验室里的概念验证,而是像水电般渗透进人类文明的毛细血管。从量子计算驱动的蛋白质折叠预测突破,到城市级AI治理系统的常态化运行;从脑机接口技术首次通过FDA认证,到开源大模型生态引发的生产力革命——这个1月,全球科技版图正以分钟为单位被重新书写。【技术干货】 人工智能技术文章:基于神经网络的图像分类实现https://bbs.huaweicloud.com/forum/thread-0248173206953867061-1-1.html【其他】 Datumaro数据集管理工具介绍https://bbs.huaweicloud.com/forum/thread-0272172568016530036-1-1.html【其他】 深度学习训练过程的随机性https://bbs.huaweicloud.com/forum/thread-0271172848593557025-1-1.html【技术干货】 深度学习在医学影像分析中的应用https://bbs.huaweicloud.com/forum/thread-0271172901386925027-1-1.html【技术干货】 自然语言处理技术在智能客服中的应用与发展https://bbs.huaweicloud.com/forum/thread-0251172901469638040-1-1.html生成对抗网络(GAN)在创意产业中的应用探索https://bbs.huaweicloud.com/forum/thread-0296172901530982034-1-1.html【其他】 Faster R-CNN与Dynamic R-CNN的区别https://bbs.huaweicloud.com/forum/thread-0296172925711253036-1-1.htmlFaster R-CNN 还是 Dynamic R-CNN 的选择考量https://bbs.huaweicloud.com/forum/thread-0296172925880291037-1-1.html【技术干货】 基于深度学习的图像分类入门教程https://bbs.huaweicloud.com/forum/thread-0248173206811197060-1-1.html【其他】 图像分类与其他视觉任务的关系https://bbs.huaweicloud.com/forum/thread-0296172166505463015-1-1.html【其他】 物体检测开源数据集介绍https://bbs.huaweicloud.com/forum/thread-0272172420323257026-1-1.html【其他】 图像分类数据集介绍https://bbs.huaweicloud.com/forum/thread-02104172420907435018-1-1.html【其他】 自动学习AutoML介绍https://bbs.huaweicloud.com/forum/thread-0248172421133832018-1-1.html人工智能面试题集锦https://bbs.huaweicloud.com/forum/thread-02127172531820352019-1-1.html2025年的AI技术生态已形成“基础研究-工具链-产业落地-人才培育”的闭环体系。本合集既是对技术演进的关键切片,也是应对智能化浪潮的行动手册——无论你是算法工程师、行业决策者还是跨界探索者,都能在此找到锚定未来的坐标点。技术的终极意义,终将回归于如何让人工智能的“水电化”进程,真正服务于人类文明的升维。
-
图像分类是计算机视觉中的基础任务,广泛应用于面部识别、医疗诊断和自动驾驶等领域。本文将通过一个代码实例,展示如何使用 TensorFlow 和 Keras 构建和训练一个简单的卷积神经网络(CNN)模型,实现对手写数字数据集(MNIST)的分类。环境准备在开始之前,请确保你的 Python 环境中已安装以下库:TensorFlowMatplotlibNumpy你可以通过以下命令安装它们:pip install tensorflow matplotlib numpy数据准备我们将使用 TensorFlow 提供的 MNIST 数据集,它包含 6 万张训练图片和 1 万张测试图片,图片为 28x28 灰度图像。import tensorflow as tf from tensorflow.keras.datasets import mnist import matplotlib.pyplot as plt # 加载 MNIST 数据集 (x_train, y_train), (x_test, y_test) = mnist.load_data() # 数据预处理:归一化到 [0, 1] x_train = x_train / 255.0 x_test = x_test / 255.0 # 将标签转换为独热编码 y_train = tf.keras.utils.to_categorical(y_train, 10) y_test = tf.keras.utils.to_categorical(y_test, 10) # 可视化部分训练数据 plt.figure(figsize=(10, 5)) for i in range(10): plt.subplot(2, 5, i + 1) plt.imshow(x_train[i], cmap="gray") plt.title(f"Label: {y_train[i].argmax()}") plt.axis("off") plt.show() 模型构建我们将使用卷积神经网络 (CNN) 来构建一个简单的图像分类器。from tensorflow.keras.models import Sequential from tensorflow.keras.layers import Conv2D, MaxPooling2D, Flatten, Dense, Dropout # 构建 CNN 模型 model = Sequential([ # 输入层,28x28 图像扩展为 28x28x1 tf.keras.layers.Input(shape=(28, 28, 1)), # 卷积层 + 激活函数 Conv2D(32, (3, 3), activation="relu"), MaxPooling2D((2, 2)), # 第二个卷积层 Conv2D(64, (3, 3), activation="relu"), MaxPooling2D((2, 2)), # 全连接层 Flatten(), Dense(128, activation="relu"), Dropout(0.5), # 防止过拟合 Dense(10, activation="softmax") # 输出层,10 类 ]) # 模型摘要 model.summary() 模型训练接下来,我们将编译模型并训练它。# 编译模型 model.compile( optimizer="adam", # 使用 Adam 优化器 loss="categorical_crossentropy", # 交叉熵损失 metrics=["accuracy"] ) # 训练模型 history = model.fit( x_train[..., tf.newaxis], # 增加通道维度 y_train, epochs=10, # 迭代次数 batch_size=64, validation_split=0.1 # 10% 数据用于验证 ) # 保存模型 model.save("mnist_cnn_model.h5") 模型评估与测试我们将在测试数据集上评估模型性能。# 加载模型 model = tf.keras.models.load_model("mnist_cnn_model.h5") # 测试模型 test_loss, test_acc = model.evaluate(x_test[..., tf.newaxis], y_test) print(f"测试准确率: {test_acc:.2%}") # 可视化测试结果 import numpy as np predictions = model.predict(x_test[..., tf.newaxis]) plt.figure(figsize=(10, 5)) for i in range(10): plt.subplot(2, 5, i + 1) plt.imshow(x_test[i], cmap="gray") plt.title(f"Pred: {np.argmax(predictions[i])}") plt.axis("off") plt.show() 总结本文介绍了如何构建和训练一个简单的卷积神经网络(CNN)来完成图像分类任务。通过 TensorFlow 提供的高层 API,我们可以轻松构建复杂的神经网络模型。你可以在此基础上尝试更多的改进,如调整网络结构、使用数据增强或迁移学习来提升模型性能。
-
图像分类是人工智能(AI)领域的一项重要任务,其目的是将输入图像分配到特定的类别中。随着深度学习的发展,卷积神经网络(CNN)已成为图像分类任务的主流方法。本篇文章将带您快速入门图像分类,并结合代码实例详细讲解基于PyTorch的图像分类模型的构建过程。基础知识图像分类的核心概念图像分类的目标是将输入的图像映射到一个预定义的类别。例如,对于包含猫和狗的图像数据集,任务是训练模型来区分猫和狗。关键步骤:数据准备:加载并预处理图像数据。模型构建:定义深度学习模型。模型训练:使用训练数据优化模型参数。模型评估:在测试数据上评估模型性能。使用PyTorch进行图像分类的优势简单直观:PyTorch的动态计算图让调试变得简单。灵活性高:支持自定义模型和操作。强大的社区支持:大量的预训练模型和教程。实现基于CNN的图像分类模型以下代码示例将展示如何使用PyTorch进行图像分类。我们将使用CIFAR-10数据集,这是一个经典的图像分类数据集。数据准备首先,我们需要加载CIFAR-10数据集并进行预处理。import torch import torchvision import torchvision.transforms as transforms # 定义数据预处理步骤 transform = transforms.Compose([ transforms.ToTensor(), transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5)) # 标准化 ]) # 加载训练和测试数据 trainset = torchvision.datasets.CIFAR10(root='./data', train=True, download=True, transform=transform) trainloader = torch.utils.data.DataLoader(trainset, batch_size=32, shuffle=True) testset = torchvision.datasets.CIFAR10(root='./data', train=False, download=True, transform=transform) testloader = torch.utils.data.DataLoader(testset, batch_size=32, shuffle=False) # CIFAR-10类别标签 classes = ('plane', 'car', 'bird', 'cat', 'deer', 'dog', 'frog', 'horse', 'ship', 'truck') 构建卷积神经网络(CNN)我们定义一个简单的CNN模型来处理图像分类任务。import torch.nn as nn import torch.nn.functional as F class SimpleCNN(nn.Module): def __init__(self): super(SimpleCNN, self).__init__() self.conv1 = nn.Conv2d(3, 16, kernel_size=3, padding=1) # 卷积层1 self.conv2 = nn.Conv2d(16, 32, kernel_size=3, padding=1) # 卷积层2 self.pool = nn.MaxPool2d(2, 2) # 最大池化 self.fc1 = nn.Linear(32 * 8 * 8, 128) # 全连接层1 self.fc2 = nn.Linear(128, 10) # 全连接层2 def forward(self, x): x = self.pool(F.relu(self.conv1(x))) # 卷积+激活+池化 x = self.pool(F.relu(self.conv2(x))) x = x.view(-1, 32 * 8 * 8) # 展平 x = F.relu(self.fc1(x)) # 全连接+激活 x = self.fc2(x) # 输出层 return x模型训练定义优化器和损失函数,然后训练模型。import torch.optim as optim # 初始化模型 net = SimpleCNN() device = torch.device("cuda" if torch.cuda.is_available() else "cpu") net.to(device) # 定义损失函数和优化器 criterion = nn.CrossEntropyLoss() optimizer = optim.Adam(net.parameters(), lr=0.001) # 训练模型 for epoch in range(10): # 训练10个epoch running_loss = 0.0 for inputs, labels in trainloader: inputs, labels = inputs.to(device), labels.to(device) # 前向传播 + 反向传播 + 优化 optimizer.zero_grad() outputs = net(inputs) loss = criterion(outputs, labels) loss.backward() optimizer.step() running_loss += loss.item() print(f"Epoch {epoch + 1}, Loss: {running_loss / len(trainloader)}") 模型评估在测试数据集上评估模型的分类性能。correct = 0 total = 0 net.eval() # 进入评估模式 with torch.no_grad(): for inputs, labels in testloader: inputs, labels = inputs.to(device), labels.to(device) outputs = net(inputs) _, predicted = torch.max(outputs, 1) total += labels.size(0) correct += (predicted == labels).sum().item() print(f"Accuracy on test data: {100 * correct / total:.2f}%") 总结本文详细讲解了如何使用PyTorch构建一个简单的图像分类模型。我们从数据加载、模型定义到训练和评估,完成了一个完整的深度学习项目。进一步探索:使用更深层的网络结构(如ResNet)。应用数据增强技术提高模型泛化能力。利用迁移学习微调预训练模型。
-
生成对抗网络(GAN)在创意产业中的应用探索是一个非常前沿且充满潜力的领域。随着人工智能技术的发展,创意产业正逐步迈向自动化与智能化,GAN作为一种强大的生成模型,在艺术创作、设计、广告、游戏开发等多个领域发挥着重要作用。以下是一些GAN在创意产业中的应用探索:1. 数字艺术创作GAN能够生成与现实世界相似的图像,甚至是独特的艺术风格。在数字艺术创作中,GAN可以作为一种“虚拟艺术家”,根据设定的风格生成新的艺术作品。例如,著名的DeepArt平台使用基于GAN的模型将一张照片转换成不同艺术家的绘画风格,艺术创作者可以通过这种方式获取灵感或者直接生成艺术作品。应用场景:插画、数字画作、风格转换技术实现:通过训练GAN模型学习不同艺术风格(如梵高、毕加索)的特征,然后生成符合这些风格的新图像。2. 时尚设计GAN不仅在静态图像生成中表现出色,还能够在动态内容生成中发挥作用。例如,GAN可以根据最新的时尚趋势生成新的服装设计,或者根据用户的个性化需求设计独特的衣服。通过将时尚数据(如流行款式、颜色、布料等)输入GAN模型,设计师可以获取创意灵感,甚至自动生成符合潮流趋势的设计图样。应用场景:服装设计、鞋类设计、配饰设计技术实现:生成符合特定风格和审美的图像,使用条件GAN(cGAN)实现用户指定样式的服装设计。3. 广告创意广告创意是一个高度依赖视觉效果和创意的领域。GAN能够根据市场趋势、消费者兴趣和品牌需求自动生成广告内容。通过GAN生成的广告不仅能满足品牌的视觉需求,还能根据受众偏好个性化定制内容,使广告更具吸引力和效果。应用场景:自动化广告图像、视频广告、广告内容生成技术实现:使用生成对抗网络生成多种风格和格式的广告设计,如生成图文并茂的广告图、动态广告视频等。4. 游戏内容生成在游戏开发中,GAN被用来自动生成游戏场景、人物角色、道具等内容。例如,Procedural Content Generation (PCG) 技术就是通过算法生成游戏中的关卡、地图和环境。而GAN通过学习大量游戏素材和设计样式,可以生成逼真的3D角色、场景和道具,并为游戏开发者节省大量设计时间和成本。应用场景:游戏角色生成、关卡设计、3D环境生成技术实现:训练GAN模型生成不同风格的游戏角色,或使用对抗训练生成复杂的3D场景。5. 影视行业中的内容生成GAN能够生成高质量的图像和视频,因此在影视行业中的应用前景广阔。例如,GAN可以用来生成逼真的电影特效、虚拟角色,甚至是整部动画片的内容。NVIDIA 等公司已经展示了GAN在生成虚拟角色面部表情、动作甚至是整个电影场景的能力。应用场景:电影特效、虚拟演员、动画制作技术实现:通过GAN生成电影中的虚拟角色、背景,甚至是动态效果。结合运动捕捉技术和GAN,可以生成虚拟演员的表演。6. 音乐创作与音效设计虽然GAN的应用主要集中在视觉艺术领域,但在音频生成方面,GAN同样展现出了巨大的潜力。GAN可以学习不同类型的音乐(例如古典、电子、摇滚等),并生成符合这些风格的音乐作品。同时,它还可以用于音效设计,例如生成游戏中的环境音效或电影的背景音乐。应用场景:自动化音乐创作、音效设计技术实现:使用GAN生成多种风格的音乐片段或音效,训练模型根据给定的音乐元素自动创作新作品。7. 虚拟人物与虚拟主播在虚拟人和虚拟主播的领域,GAN被用于生成高质量的虚拟角色图像、视频和音频。例如,虚拟主播的面部表情和动作可以通过GAN生成,这使得虚拟主播能够自动进行互动,并为观众提供高度真实的视觉与听觉体验。应用场景:虚拟主播、虚拟偶像、虚拟人形象创建技术实现:结合深度学习与GAN生成动态虚拟角色,创造出具有人物特点和表情反应的虚拟人类形象。总结生成对抗网络(GAN)为创意产业带来了革命性的变化,不仅提高了创作的效率,还拓宽了艺术创作的边界。无论是在数字艺术、时尚设计、广告创意、游戏开发还是影视制作中,GAN都能为创作者提供无限的可能性。在未来,随着GAN技术的不断优化和创新,其在创意产业中的应用将更加深入,创造出更多前所未有的艺术形式与创意内容。
-
自然语言处理技术在智能客服中的应用与发展随着人工智能技术的不断发展,智能客服已成为现代企业提升客户体验和运营效率的重要工具。自然语言处理(NLP)作为人工智能中的一个重要分支,正在智能客服中发挥着日益重要的作用。NLP使得机器能够理解和生成人类语言,为用户提供更加精准、高效的服务。本文将探讨自然语言处理技术在智能客服中的应用及其未来发展,分析目前智能客服中的技术挑战,并展望未来的技术趋势。1. 自然语言处理技术概述自然语言处理(NLP)是计算机科学与人工智能的一个重要领域,旨在使计算机能够理解、生成、翻译、分析人类语言。NLP的核心任务包括:文本理解:分析文本内容的结构与意义。语义分析:理解文本中各个词语、短语的含义,尤其是处理同义词、歧义等复杂问题。情感分析:识别文本中的情感倾向(如积极、消极、愤怒等)。语音识别与生成:将语音转换为文本,或将文本转化为语音。机器翻译:实现多语言之间的自动翻译。2. NLP在智能客服中的应用智能客服利用NLP技术提供自动化的客户支持,能高效地处理大量用户查询。以下是一些具体应用场景:2.1 自动问答系统传统的客服通常依赖人工客服回答重复且简单的用户问题。通过应用NLP技术,智能客服系统能够识别用户输入的问题,并从事先准备好的知识库中查找答案,提供即时、准确的回复。例如,基于深度学习的问答模型(如BERT、GPT等)能够识别复杂的用户查询,生成自然流畅的回答。2.2 语义理解与上下文感知NLP技术使得智能客服系统可以理解用户提问的具体意图,而不仅仅是根据关键词进行匹配。系统能够分析上下文,判断用户意图的变化,并根据前后对话的内容调整回答。例如,用户如果询问“订单什么时候到?”如果前面提到过订单号,系统会识别出“订单”指代的具体内容,而不仅仅是回复“请提供订单号”。2.3 多轮对话与情感分析多轮对话是智能客服的一项关键能力,能够持续跟踪用户的需求并提供符合上下文的回应。情感分析在这方面同样发挥着重要作用,智能客服不仅能识别用户的需求,还能判断其情绪,从而提供更加个性化的服务。例如,用户发出抱怨时,系统可以识别出负面情绪,并采取更为温和的语言进行应答。2.4 语音识别与语音助手语音识别技术在智能客服中的应用极大地提高了客户体验,尤其在移动设备和语音助手场景中。用户只需通过语音与客服进行交互,NLP系统即可将语音转化为文本进行处理,生成语音或文字回复。例如,企业可以通过语音助手帮助客户查询账户余额、解决问题、安排会议等。2.5 机器翻译与多语言客服许多跨国企业需要为全球用户提供客服支持。NLP中的机器翻译技术可以帮助智能客服实现多语言自动翻译,提供无语言障碍的服务。这对于企业拓展国际市场,提升全球用户体验至关重要。3. NLP在智能客服中的发展挑战尽管自然语言处理技术在智能客服中取得了显著的进展,但仍面临一系列挑战:3.1 语言的多样性与复杂性不同地区和不同文化背景下的语言存在差异,特别是口语中的俚语、方言以及表达方式的变化,这给NLP系统带来了很大挑战。为了能够处理不同语言环境中的对话,系统需要具备更强的语言适应能力。3.2 语境理解的深度智能客服系统通常会遇到上下文跟踪的挑战。用户有时可能在多轮对话中提到相同的内容,而系统需要能够理解这些信息是相互关联的,并做出合适的回应。当前的技术尽管有所进步,但在复杂的情境理解和多轮对话中仍存在不足。3.3 情感和语气的识别情感分析虽然在某些情况下能够准确识别用户的情绪,但在一些模糊的情感表达、讽刺或幽默等复杂语气上,仍然存在识别困难。提升情感分析的准确度和鲁棒性是未来的关键任务。3.4 数据隐私与伦理问题NLP技术在智能客服中的应用涉及大量用户数据。如何保护用户隐私,防止数据泄露,如何确保算法的公平性与透明性,成为智能客服发展的另一个重要挑战。确保数据隐私与安全是智能客服广泛应用的前提。4. 未来发展趋势随着深度学习、迁移学习等技术的发展,NLP在智能客服中的应用将更加智能化和个性化,主要体现在以下几个方面:4.1 深度学习与大模型的应用近年来,基于Transformer架构的模型(如BERT、GPT、T5等)在NLP任务中表现出色。未来,智能客服将更加依赖这些大规模预训练模型,能够处理更加复杂的语言任务,并生成更加自然的对话内容。4.2 更好的多轮对话能力随着技术的提升,智能客服将能够进行更为自然的多轮对话,记住用户的历史互动,理解用户的长期需求,提供持续跟踪的服务。这将大大提升用户体验,避免用户频繁重复问题。4.3 个性化服务通过对用户行为数据的分析,智能客服将能够提供更加个性化的服务,根据用户的偏好、历史记录等数据调整服务内容,提供量身定制的建议。4.4 更高效的多语言支持随着全球化的进程,智能客服系统将越来越多地支持多语言服务,甚至能够进行实时的跨语言对话。这将为企业的国际化进程提供巨大的助力。4.5 结合情感与语气的智能反应智能客服将逐渐具备识别用户情感的能力,能够根据用户的情绪变化调整应答策略。比如,在识别到用户情绪低落时,系统会尽量给予温暖和安慰,提升客户满意度。5. 结语自然语言处理技术在智能客服中的应用已经显著改变了客户服务的方式,并且随着技术的不断发展,未来的智能客服将更加智能化、个性化和高效化。面对技术挑战,NLP仍需进一步提升其语言理解和语境感知的能力,并在隐私保护和伦理问题上做出积极努力。未来的智能客服将不仅仅是一个问题解决工具,它将成为企业和用户之间更为紧密的沟通桥梁。
-
随着深度学习技术的快速发展,医学影像分析已成为人工智能在医疗领域的重要应用之一。深度学习在医学影像的自动化诊断、预测、分类、分割等方面表现出色,能够辅助医生提高诊断准确性和工作效率。尽管如此,深度学习在医学影像分析中的应用仍面临一些挑战,诸如数据隐私保护、模型可解释性、数据标注困难等问题。本文将探讨深度学习在医学影像分析中的最新应用现状,并讨论其中的挑战及未来发展方向。1. 引言医学影像分析涉及大量的数据处理任务,如图像分割、分类、检测等。近年来,深度学习,尤其是卷积神经网络(CNN),在医学影像领域的应用取得了显著进展。深度学习技术能够自动从医学图像中提取特征,从而实现更精确的诊断和预测。然而,尽管其在临床应用中取得了一定成果,依然面临不少挑战,如数据的多样性、标注的不完备性以及模型的泛化能力等问题。2. 深度学习在医学影像分析中的应用2.1 图像分类医学影像的分类任务主要包括疾病的检测和预测。例如,基于深度学习的算法可以用于肺部X光片的分类,以判断是否存在肺炎、肺结核等疾病。通过CNN,可以自动提取出图像的高级特征,并根据这些特征进行分类判断。近年来,卷积神经网络(CNN)在肺癌、乳腺癌、脑部疾病(如脑肿瘤)等多种疾病的早期诊断中取得了显著成果。2.2 图像分割医学影像分割任务涉及将感兴趣的区域从图像中提取出来,常用于肿瘤、器官或病变区域的分割。深度学习,尤其是U-Net网络结构,在医学图像分割任务中被广泛应用。U-Net通过编码器-解码器结构,能够高效地从医学图像中提取精确的结构信息,从而实现准确的分割。深度学习模型在脑部、肺部、乳腺、心脏等器官的图像分割中取得了不错的成绩。2.3 异常检测与病变识别深度学习模型不仅能帮助医生进行疾病分类,还能进行异常检测与病变区域的识别。例如,深度学习在乳腺癌筛查中的应用能够有效帮助放射科医生识别乳腺肿块,提升诊断的准确性。类似地,深度学习也被应用于皮肤病、眼底病、脑肿瘤等领域的自动化诊断,展示了较高的准确度。2.4 多模态数据融合在实际应用中,医学影像常常不是单一模态(如CT、MRI、X-ray等),而是多模态的。深度学习技术通过多模态数据的融合,能够更全面地进行疾病分析。例如,融合CT和MRI图像可以为肿瘤的诊断提供更多维度的信息,提高诊断的准确性和可靠性。3. 深度学习在医学影像分析中的挑战3.1 数据隐私与安全问题医学影像数据涉及患者的隐私信息,因此在数据的采集、存储和共享过程中,如何保护患者的隐私和数据安全成为重要课题。传统的医学影像数据通常被集中存储,并且具有较高的隐私性,这使得模型训练和数据共享存在一定的难度。为了应对这一问题,近年来,联邦学习等技术逐渐得到了关注,旨在通过分布式学习的方式保护数据隐私。3.2 数据标注困难深度学习模型的训练需要大量的标注数据,然而医学影像的标注工作通常由专业的放射科医生完成,标注过程繁琐且时间成本较高。此外,标注不一致性也是影响模型性能的一个问题。如何有效获取高质量、准确的标注数据,并减少标注的人工成本,是深度学习应用中亟待解决的挑战。3.3 模型的可解释性尽管深度学习在医学影像分析中取得了较好的效果,但大多数深度学习模型往往被视为“黑箱”,难以解释其内部决策过程。医学领域对模型的可解释性要求较高,尤其是在诊断决策时,医生需要理解模型的预测结果,以便做出合理的决策。提高深度学习模型的可解释性,增强模型的透明度,对于临床应用至关重要。3.4 泛化能力与数据异质性医学影像数据来源广泛,包含不同医院、设备、病人群体等的影像数据。深度学习模型通常在某一特定数据集上训练并取得很好的表现,但在不同数据集上的表现却可能较差,表现出较弱的泛化能力。如何克服模型在不同数据集上的性能下降,提升其跨领域的适应能力,是当前深度学习应用中的一大挑战。3.5 临床落地的难题尽管深度学习在医学影像分析中展现了巨大的潜力,但在实际的临床应用中,深度学习模型的落地仍面临许多问题。包括医生对新技术的接受度、医疗设备的兼容性、技术验证和规范化等问题。此外,深度学习模型在临床中如何与现有的工作流程无缝对接,也是一个需要解决的问题。4. 未来发展方向4.1 联邦学习与数据隐私保护联邦学习作为一种分布式的深度学习技术,允许数据在本地进行训练,而不是将数据传输到中心服务器。这种方法可以有效保护患者数据隐私,并解决多中心数据共享问题,是深度学习在医学影像中的应用未来发展的一大趋势。4.2 弱监督学习与半监督学习由于医学影像数据的标注难度大,弱监督学习和半监督学习技术成为了研究热点。通过利用未标注数据或少量标注数据,弱监督学习和半监督学习能够显著减少人工标注的工作量,同时保持模型的高效性。4.3 模型可解释性的提升随着深度学习模型应用的普及,增强模型的可解释性成为了重要的研究方向。通过可视化技术、注意力机制、决策规则学习等方法,研究人员正在不断提升深度学习模型在医学影像分析中的可解释性,以便医生能够更加清晰地理解模型的决策过程。4.4 跨模态学习与多任务学习在医学影像分析中,不同模态的影像数据融合是提升诊断精度的重要途径。跨模态学习和多任务学习将成为深度学习未来在医学影像领域的重要发展方向。这将有助于模型从不同角度、多个任务中提取有价值的信息,从而实现更加准确和全面的分析。5. 结论深度学习技术在医学影像分析中的应用已经取得了显著进展,但仍面临诸多挑战。未来,随着数据隐私保护技术、模型可解释性、跨模态学习等领域的持续发展,深度学习在医学影像分析中的应用将更加广泛,并有望为医疗行业带来更多的创新和突破。然而,技术的成熟和临床的广泛应用之间仍有一定距离,亟待解决的数据标注、模型泛化等问题,仍需要科研人员和行业专家的共同努力。
上滑加载中
推荐直播
-
开发者玩转DeepSeek
2025/02/20 周四 16:30-17:30
Thomas – 华为云DTSE技术布道师
双擎驱动优势——华为云CodeArts IDE全栈能力与DeepSeek认知智能深度融合,打造智能编码助手。如何利用DeepSeek的能力,进一步强化业务。
回顾中 -
探秘仓颉编程语言:华为开发者空间的创新利器
2025/02/22 周六 15:00-16:30
华为云讲师团
本期直播将与您一起探秘颉编程语言上线华为开发者空间后,显著提升开发效率,在智能化开发支持、全场景跨平台适配能力、工具链与生态完备性、语言简洁与高性能特性等方面展现出的独特优势。直播看点: 1.java转仓颉的小工具 2.仓颉动画三方库lottie 3.开发者空间介绍及如何在空间用仓颉编程语言开发
即将直播 -
大模型Prompt工程深度实践
2025/02/24 周一 16:00-17:30
盖伦 华为云学堂技术讲师
如何让大模型精准理解开发需求并生成可靠输出?本期直播聚焦大模型Prompt工程核心技术:理解大模型推理基础原理,关键采样参数定义,提示词撰写关键策略及Prompt工程技巧分享。
去报名
热门标签