-
中奖结果公示感谢各位小伙伴参与本次活动,欢迎关注华为云开发者社区技术直播更多活动~本次活动获奖名单如下(部分抽奖未填问卷用户无账号名):账号名 奖项名称 奖品名称 备注持久观看有奖华为云云宝手办-盲盒款持久观看有奖华为云云宝手办-盲盒款
-
想知道如何快速部署大模型并进行AI应用敏捷开发吗?华为云ModelArts+开源Dify平台了解一下?本期直播将聚焦华为云ModelArts模型开发平台,并通过Dify平台实现模型调用和AI应用开发。用户无需懂代码,分钟级即可完成模型在线训练、微调、推理、部署上线,并可以通过Dify开源平台实现场景应用快速搭建、测试与落地应用。AI开发效率提升2-3倍,加速推动企业数智化建设,辅助经营发展。直播链接:cid:link_0Q:Dify可以混合着用吗,比如文本生成和图片生成?A:目前DIFY暂时不支持图片生成类模型,不过后续应该会更新加入相应的功能。Q:在使用华为云ModelArts+Dify AI进行开发时,是否会遇到兼容性问题?比如与其他软件或硬件的兼容性A:目前华为自己测试还没有碰到过兼容性问题,因为本质上就是DIFY通过API接口调用华为云ModelArts上部署的模型,两者相对独立Q:如何将训练好的模型部署成API服务?如何利用ModelArts的自动模型部署功能简化流程?A:AI应用部署成在线服务后,用户可以获取API接口用于访问推理。ModelArts支持将模型部署为在线服务、批量服务和边缘服务。在线服务提供API接口供用户调用推理,而批量服务则可以对批量数据进行推理。ModelArts使用容器化部署,容器运行时有空间大小限制,最大支持50G。ModelArts提供多版本支持和灵活的流量策略,可以通过灰度发布实现模型版本的平滑过渡升级。在修改服务部署新版本模型或切换模型版本时,原服务预测API不会变化。 对于昇腾云已经适配并上架AI Gallery的模型,可以直接在模型页面点击推理部署完成一键自动部署。Q:如何根据实际需求选择最优的成本效益方案?在ModelArts上是否有节省成本的方法,如使用预留实例或按需付费?A:在华为云ModelArts平台上,确实存在多种节省成本的方法。按需付费(Pay-as-you-go)模式允许用户根据实际使用的计算资源和时间支付费用,非常适合短期或临时项目,避免了不必要的长期投入。若工作负载稳定且持续时间较长,购买预留实例(Reserved Instances, RIs)能够享受较低的小时费率,这特别适用于长期运行的任务,可大幅降低成本。此外,通过自动伸缩策略,根据实际负载动态调整计算资源,避免了资源浪费。当负载上升时自动增加实例数量,负载下降时则自动减少实例数量。同时,优化资源配置,根据实际需求选择合适规格的计算资源,避免过度配置,例如选择符合当前任务需求的CPU、内存和存储配置。对于非实时访问的数据,可以使用低成本的存储服务,如对象存储服务OBS,而非昂贵的高速存储。另外,关注华为云提供的折扣和促销活动,有时可以获得额外的成本节约。通过这些方法,可以根据实际需求灵活选择最合适的计费模式和优化策略,从而实现最优的成本效益方案。Q:华为云ModelArts MaaS大模型即服务平台有哪些功能?A:ModelArts Studio大模型即服务平台(简称MaaS服务)是华为云计算技术有限公司提供的一项服务,旨在帮助用户通过简单易用的工具链进行大模型的定制开发,实现模型与业务系统的无缝衔接,降低企业AI落地的成本和难度。MaaS服务的主要功能包括:模型创建、模型调优、模型压缩、模型部署、服务调用等。MaaS集成了业界主流开源大模型,如Llama、Baichuan、Yi、Qwen等,基于异腾AI云服务进行全面适配和优化,提供零代码、免配置、免调优的模型开发能力。同时,MaaS提供灵活的模型开发能力,按需收费,按需扩缩,支持故障快速恢复和断点续训,降低进入AI领域的门槛。MaaS强调高可用性,多数据中心部署确保数据与任务备份,即使遭遇故障也能无缝切换至备用系统。Q:Dify平台的自部署版本相比原版本有哪些优势?A:Dify是Github上的开源项目,用户可免费使用,灵活部署,目前我们已经测试过本地部署、云上部署、远程服务器部署,均可以顺利使用Dify平台。Q:怎么做好Dify的数据隔离,确保企业内部数据不会离开本地环境?A:由于数据在知识库构建、大模型调用过程中有暴露风险,因此对于企业内部数据的保护目的,建议进行私有云/本地化大模型部署,并将DIFY部署在本地,不过这也需要使用者自建算力资源并保证硬件系统可以支撑起大模型的运行调用。Q:如何设置监控系统来跟踪模型性能和资源利用率?当模型出现异常表现时,如何快速定位并解决问题?A:ModelArts自带模型管理与监控模块,可通过该模块跟踪模型性能/工作状态/资源消耗,当模型出现异常时,也可通过该系统查看故障原因并定位故障位置,也可通过提交工单唤起在线技术人员辅助问题处理。Q:Dify的安全性和隐私保护做得怎么样? Dify平台是否有社区支持或开发者论坛?A:Dify的安全性和隐私性保护内容请参考帮助文档说明,总的来说是可以满足一般的安全性及隐私保护需求的。平台有完整的社区支持,以论坛的形式内置于Dify平台内部。同时,Dify平台使用者可以选择将自己创建的应用分享在社区,为构建更好的AI应用生态做出贡献。Q:在实际应用中,有哪些成功案例展示了华为云ModelArts+Dify AI的效能?A:目前已经有部分企业采用了ModelArts+Dify的方式进行应用开发部署,但鉴于保密原因且目前该方案还处于推广初期阶段,因此成功案例还有待进一步的总结并脱敏后才会对外公开。Q:ModelArts是否提供预训练模型供用户选择?提供了哪些工具来评估模型性能?A:ModelArts目前支持盘古大模型与主流开源第三方大模型的预训练版本,模型的性能评估主要通过自带的微调大师等工具进行进一步的测试和评估。Q:如何利用华为云 ModelArts +Dify AI 进行自动化测试,以确保 AI 应用的质量?A:可以通过构建相应的自动化测试流程完成AI应用的质量评价,Dify可以通过工具调用代码编译与执行功能,构筑自动化的测试流程。Q:ModelArts是否支持模型的版本控制?A:支持按名称、版本、状态等条件查询模型、支持查看模型详细信息和选择合适的模型模板。Q:ModelArts的模型部署支持哪些环境?A:ModelArts是华为云提供的一站式AI开发平台,支持从数据处理到模型部署的全流程管理。它支持多种AI开发框架,如TensorFlow、PyTorch和MindSpore,并提供多种产品形态以满足不同需求,包括ModelArts Standard和ModelArts Studio。ModelArts还支持将模型一键部署到云、边、端设备,简化了复杂的部署过程。Q:ModelArts是否提供模型性能监控工具?A:ModelArts支持通过检索参数查询模型列表,最大支持获取150个模型对象。检索参数包括模型名称、版本、状态等。 支持一键部署到云、边、端设备。提供在线推理服务,支持高并发、低延时、弹性伸缩。支持多模型灰度发布和A/B测试。Q:列举一些 ModelArts 可以应用的具体行业场景?A:ModelArts是华为云提供的一站式AI开发平台,支持多种AI应用场景,包括图像分类、物体检测、视频分析、语音识别等。它集成了数据预处理、模型训练、部署等功能,支持TensorFlow、PyTorch等主流框架,并提供端到端的AI开发工具链。具体行业包括但不限于:装备制造、教育培训、商业咨询、医疗医药、政务法务、城市管理等。Q:ModelArts是否支持分布式训练?A:ModelArts支持单机多卡和多机多卡的分布式训练,能够有效加速训练过程。Q:ModelArts支持哪些类型的数据输入?A:文本:主流文本格式(docx,PDF, TXT等);视频:MP4;图像:主流图像格式(jpg,png等)。Q:ModelArts是否提供预训练模型供用户使用?A:ModelArts目前支持盘古大模型与主流开源第三方大模型。Q:在ModelArts上训练模型的费用是如何计算的?A:训练费用主要取决于模型训练时拉起的硬件资源的规格,目前采用按需(公共资源池 only)、包月、包年的方式进行计费。Q:ModelArts平台的计算资源是如何配置的?A:ModelArts采用两种计算资源配置方式,一种是客户根据自己的评估选择硬件配置,另一种是对于自动学习/工作流/实践案例,一般会内置硬件配置要求,在拉起资源之前会和使用者进行确认。Q:已经在使用中的AI应用,如何迁移到ModelArts+Dify平台上?A:将已有应用的大模型重新配置到Dify模型管理库中,同时将应用本身迁移到Dify平台即可。Q:ModelArts是否支持自定义算法的开发?A:支持。一般算法开发是针对您在本地或使用其他工具开发的算法,支持上传至ModelArts中统一管理。详细流程参见:https://support.huaweicloud.com/develop-modelarts/develop-modelarts-0009.html,您如果对ModelArts环境不熟悉,可以先通过ModelArts的Jupiter Notebook环境进行调试,该环境也可以通过SSH、VSCode连接,调试通过后再迁移到ModelArts的算法中。Q:ModelArts支持哪些机器学习框架?A:ModelArts支持多种AI开发框架,如TensorFlow、PyTorch和MindSpore,并提供多种产品形态以满足不同用户需求。Q:Dify平台上的应用是否可以直接发布到市场?有没有自动化测试工具来验证AI应用的质量?A:Dify平台支持应用API或网站嵌入式发布,可以直接发布到市场,目前暂时没有自动化测试工具,需要用户自建AI应用质量评估方案或在社区内寻找解决方案。Q:请问华为云 ModelArts与开源 Dify平台的深度融合为企业数智化建设带来了哪些不可替代的价值?具体体现在哪些关键业务场景中呢?A:ModelArts+Dify可以从几个方面为企业数智化建设带来不可替代的价值。首先,ModelArts服务部署大模型为企业省去了构建大型算力中心所带来的大量资金与人员的投入,使企业可以实现轻量化管理,同时免去复杂繁琐的硬件维护/迭代更新问题。Dify平台是开源平台,因此可以大大降低AI应用开发初期的试错成本。同时,DIFY拥有庞大且活跃的开源社区,为企业带来了潜在的解决方案资源,加速AI应用的开发与成熟。Q:华为云 ModelArts 中的自动机器学习(AutoML)功能在与 Dify AI 结合时,是如何优化 AI 应用开发流程的?A:华为云 ModelArts 中的自动机器学习(AutoML)功能在与 Dify AI 结合可以大幅加快AI应用的开发流程,并通过一系列低代码操作环境,降低AI应用开发所需要的学习门槛与技术壁垒。Q:华为云ModelArts codelab是如何与AI模型相结合的?A:ModelArts的Codelab是AI模型开发平台,开发者可以利用这个平台构建、训练、微调、部署AI大模型,端到端的完成AI大模型的开发。Q:华为云ModelArts 训练管理包括哪些内容?A:ModelArts训练管理包括数据存储、模型部署、监控和审计、身份认证、训练和调优等。Q:华为云ModelArts Workflow有什么作用?A:Workflow是开发者基于实际业务场景开发用于部署模型或应用的流水线工具,核心是将完整的机器学习任务拆分为多步骤工作流,每个步骤都是一个可管理的组件,可以单独开发、优化、配置和自动化。Workflow有助于标准化机器学习模型生成流程,使团队能够大规模执行AI任务,并提高模型生成的效率。Q:使用Dify平台需要具备哪些技能或知识?ModelArts+Dify方案是否适用于初创公司?A:Dify平台的使用进需要对应用搭建有基本的了解,知道大模型的工作原理与应用场景。ModelArts+Dify方案非常适用于初创公司。Q:华为云ModelArts中AI Gallery有什么功能及作用?A:AI Gallery算法、镜像、模型、Workflow等AI数字资产的共享,为高校科研机构、AI应用开发商、解决方案集成商、企业级/个人开发者等群体,提供安全、开放的共享及交易环节,加速AI资产的开发与落地,保障AI开发生态链上各参与方高效地实现各自的商业价值。Q:为什么说 AI 开发效率能通过华为云 ModelArts 和 Dify 平台提升 2 - 3 倍?有哪些具体的体现?A:AI开发效率能通过华为云ModelArts和Dify平台提升2-3倍的原因在于它们提供了多种自动化和优化工具,减少了繁琐的手动操作,加速了从数据处理到模型部署的整个流程。具体体现包括:自动化数据处理:ModelArts提供了自动化的数据清洗、标注和预处理工具,减少了数据准备的时间和精力;同时支持多种数据源的集成,简化了数据获取和整合的过程;自动化模型训练:ModelArts的自动学习功能可以自动选择合适的模型、调优超参数并生成代码,降低了模型训练的复杂度;并且支持大规模分布式训练,加速模型训练过程,尤其适合大数据集和复杂模型;高效的模型管理:ModelArts提供模型仓库,方便管理和版本控制,简化了模型的迭代和维护;内置的模型评估工具和优化功能,帮助快速评估模型性能并进行针对性优化;灵活的模型部署:支持在线服务、批量服务、边缘部署等多种部署方式,满足不同应用场景的需求;通过CI/CD流水线实现自动化部署,减少了人工干预,加快了部署速度;资源优化:根据实际使用量支付费用,避免资源浪费;长期稳定的任务可以选择预留实例,获得更低的费率;根据实际负载动态调整计算资源,提高资源利用率;协作和社区支持:支持团队协作,便于多人协同开发和测试;丰富的社区资源和详细的文档支持,加速学习和开发进程。Q:华为云ModelArts资源池中公共资源池与专属资源池有什么区别?A:ModelArts的公共资源池为多用户共享,随取随用,不用即释放;专属资源池则属于某个特定账号,在使用周期内不会释放。Q:能接入自己服务器上的Stable Diffusion吗?A:只要您可以提供标准的API接口,就可以接入本地大模型。Q:华为云ModelArts开发工具Notebook主要功能是什么?A:华为云ModelArts开发工具Notebook的主要功能包括:即开即用的环境: 提供预先安装好的不同AI引擎,免去了复杂的环境配置步骤;多种规格选项: 提供多种配置规格,让用户能够根据实际需求灵活选择计算资源;独占容器环境: 为用户提供独立的容器环境,确保在开发过程中不会受到其他用户的干扰;本地IDE连接支持: 支持用户通过本地集成开发环境(IDE)连接到Notebook环境中,实现无缝的代码编写、运行和调试体验。Q:华为云ModelArts是如何保证平台安全性和隐私的?A:华为云ModelArts为了确保平台的安全性和用户的隐私,采取了一系列综合措施,具体如下:数据加密:对存储和传输中的数据进行全面加密,确保数据的安全性和保密性;访问控制:采用严格的权限管理机制,确保只有经过授权的用户能够访问敏感信息;隔离机制:利用虚拟化技术实现多租户环境下的数据和应用隔离,避免数据泄露和未经授权的访问;安全审计:执行全面的安全审计和日志记录,跟踪用户操作行为,有助于识别和响应潜在的安全威胁;隐私保护:遵守相关法律法规,严格保护用户个人信息,确保数据处理过程中的隐私安全;安全培训:定期对内部员工进行安全意识和技术培训,提高整体的安全防护水平;第三方认证:获取多个国际和国内的安全认证,确保平台符合高标准的安全规范和要求。Q:不需要提示工程的情况下,怎样保证输出的质量?A:在不需要提示工程的情况下,保证AI模型输出质量的关键在于多个方面的综合考虑和优化。首先,在数据准备阶段,需确保数据质量高且具有多样性,通过数据清洗、标准化和归一化等预处理步骤提升数据的可用性和代表性。其次,选择合适的模型结构是至关重要的,需要根据具体任务选择最适合的模型类型,并通过增加模型深度和宽度来提升模型的表达能力,同时采用正则化技术(如L1、L2正则化)来防止过拟合;在训练过程中,合理选择激活函数(如ReLU及其变体)和优化算法(如Adam、SGD等),并通过学习率调整、早停策略和交叉验证等方法优化超参数,确保模型能够高效且稳定地收敛。再次,利用验证集和测试集对模型进行评估,通过准确率、召回率、F1分数等评估指标来衡量模型性能,并进行必要的迭代优化。最后,模型部署后需定期监控其表现,以便及时发现并解决可能出现的问题。在整个过程中,还需要关注模型的偏差和公平性,确保模型决策的公正性;同时保障模型的安全性和隐私性,防止数据泄露和恶意攻击。Q:华为云ModelArts是如何保证平台稳定性和可靠性的?A:华为云ModelArts通过多种措施确保平台的稳定性和可靠性。首先,它采用了高可用架构设计,具备强大的容错能力和分布式特性,确保即使某些组件出现故障,服务仍能连续运行。其次,支持自动扩展功能,能够根据实际负载情况动态调整计算资源,以确保在高峰期依然能保持高性能和稳定性。此外,ModelArts还提供数据备份和灾难恢复机制,定期备份关键数据和配置信息,以便在发生意外时能够迅速恢复服务。实时监控系统状态也是其重要特点之一,涵盖硬件、网络、应用等多个层面,一旦发现异常即刻触发告警,实现及时的干预处理。为了进一步增强稳定性,ModelArts建立了跨地域的数据中心和冗余备份机制,确保单一数据中心故障时,业务能够无缝切换至备用数据中心继续运行。同时,通过性能优化措施如负载均衡和缓存机制,减少延迟,提升响应速度,确保用户体验的一致性和流畅性。最后,多层次的安全防护体系,包括防火墙和入侵检测系统,有效抵御外部攻击,保护系统的稳定运行。综上所述,这些措施共同构成了华为云ModelArts稳定可靠的服务基础。Q:华为云ModelArts在模型部署中支持哪些部署方式和场景?A:华为云ModelArts支持多种模型部署方式和场景,以满足不同用户的需求。其主要的部署方式和场景包括在线推理服务,如Web服务部署和微服务部署,分别用于通过HTTP请求进行实时预测和集成到现有微服务架构中;批量推理服务,适用于大量数据的离线预测场景;边缘设备部署,将模型部署到边缘设备上,实现实时响应和低延迟处理;容器化部署,利用Docker容器便于管理和迁移;模型转换和优化,支持模型格式转换和提供模型压缩与优化手段,减小模型体积和提高推理效率;自动化部署,通过CI/CD流水线实现自动化模型部署流程;多云和混合云部署,支持在多个云平台上的模型部署和结合公有云与私有云的优势。这些多样化的方式和场景使得华为云ModelArts能够满足从实时在线服务到离线批量处理,再到边缘计算等多种应用场景的需求。Q:华为云ModelArts在语音识别场景中,是否能实现方言识别?A:华为云ModelArts在语音识别场景中确实支持方言识别。ModelArts提供了强大的语音识别功能,能够处理多种语言和方言。通过使用预训练模型或基于特定方言数据集自定义训练模型,ModelArts可以实现高质量的方言识别,以适应不同的语言环境,满足多样化的语音识别需求。若需了解特定方言的支持情况,建议查阅最新文档或联系技术支持获取详细信息和指导。Q:华为云ModelArts支持哪些底层服务?A:华为云ModelArts支持多种底层服务,涵盖数据处理、模型训练、模型部署和管理以及安全与合规等多个方面。具体而言,数据处理服务包括数据集成、数据标注和数据预处理等功能,确保数据的质量和可用性;模型训练服务提供自动学习、手动训练和分布式训练选项,支持多种算法库和框架;模型管理服务包含模型仓库、模型评估和模型转换,实现模型的全面管理和优化;模型部署服务则提供了在线服务、批量服务、边缘部署和容器化部署,满足不同的应用场景需求;安全与合规服务则通过数据加密、访问控制和安全审计来保障数据的安全性和操作的可追溯性。这些底层服务共同构成了华为云ModelArts的强大功能,为用户提供了一站式的AI开发和部署平台。Q:ModelArts 的模型评估功能是怎样的?A:华为云ModelArts的模型评估功能旨在帮助用户全面评估机器学习模型的性能和效果。该功能提供自动评估,能够对训练完成的模型生成详细的评估报告,报告内容涵盖准确率(Accuracy)、精确率(Precision)、召回率(Recall)、F1分数(F1 Score)等常见指标,对于分类任务还包括混淆矩阵(Confusion Matrix)。此外,ModelArts提供丰富的可视化工具,如曲线图展示不同阈值下的ROC曲线和PR曲线,帮助用户直观理解模型表现及选择最优阈值。用户还可根据具体需求自定义评估指标,以更精准衡量模型性能。同时,支持多个模型间的性能对比,直接比较不同模型在同一数据集上的表现,以及不同版本模型的迭代效果,从而快速找到最佳模型。在模型部署后,ModelArts还提供持续监控功能,确保模型在生产环境中的性能稳定,通过实时数据反馈及时发现并解决模型性能下降等问题。Q:相比其他类似平台,华为云 ModelArts 和 Dify 平台在加速企业数智化建设方面的独特之处是什么,比如刚刚演示的并发模式吗?A:相比其他类似平台,华为云 ModelArts 和 Dify 平台在加速企业数智化建设方面具有独特之处,主要体现在以下几个方面:首先,华为云 ModelArts 提供了一站式AI开发平台,涵盖从数据预处理、模型训练到模型部署的全流程,减少不同工具和服务之间的切换成本,提高开发效率。其次,它具备高性能计算资源,如GPU和TPU,能快速处理大规模数据和复杂模型训练任务,加速模型开发和部署周期。ModelArts 内置多种自动化工具,例如自动学习功能,可以自动选择合适的模型、调优超参数及生成代码,降低AI开发的技术门槛。此外,ModelArts 支持图像、文本、语音等多种数据类型的处理,特别在其多模态搜索增强功能上,帮助企业更好地理解和利用复杂的数据形态。并发模式也是其一大特色,ModelArts 支持高效的并发处理模式,可在多个节点上并行处理任务,不仅加快模型训练速度,还提高了资源利用率,特别适用于大规模数据处理和高并发请求的场景。另外,ModelArts 可以根据企业具体需求提供定制化的解决方案,包括企业专属方案、LLM驱动的语义搜索等,帮助企业快速构建符合自身业务需求的AI应用。在安全与合规方面,ModelArts 注重数据安全和隐私保护,提供全面的数据加密、访问控制和安全审计机制,确保企业在使用AI技术时能够满足各种安全和合规要求。同时,Dify 提供自部署的应用构建开源解决方案,支持Agent编排和自定义工作流,使企业能够灵活地构建和部署自己的应用,增强了系统的可定制性和灵活性,并且可以大幅降低AI应用开发成本,并通过共享社区寻找现成的解决方案。Q:在 AI 应用运行过程中,华为云 ModelArts +Dify AI 如何实现有效的监控和运维?A:在AI应用运行过程中,华为云ModelArts和Dify AI通过一系列监控和运维机制确保应用的稳定性和高效性。实时监控与报警功能使ModelArts能够跟踪模型性能、资源使用情况和健康状况,一旦检测到异常或性能下降,会自动触发报警通知;Dify AI则支持实时监控应用运行状态,通过设置阈值和规则,在系统性能低于预期时自动发送警报。在日志管理方面,ModelArts提供全面的日志记录功能,包括训练日志、推理日志和系统日志,帮助诊断问题和追踪历史操作,而Dify AI也支持详细的日志记录,便于排查错误和分析应用行为。性能优化上,ModelArts内置性能优化工具,能够自动调整模型参数,提高推理效率,并提供模型压缩和优化功能,Dify AI则支持自定义工作流和Agent编排,以优化应用性能。此外,两者都支持自动扩缩容功能,根据实时负载动态调整计算资源,确保在高并发情况下应用仍能稳定运行。ModelArts和Dify AI还提供持续集成与持续部署(CI/CD)支持,自动化部署流程和自定义工作流简化了应用的部署和维护过程。在安全与合规方面,ModelArts提供数据加密、访问控制和安全审计等全面的安全措施,确保应用符合行业标准和法规要求,Dify AI同样注重数据安全和隐私保护,支持自定义安全策略,保障应用在安全环境下运行。Q:华为云ModelArts自动学习功能是如何工作的?A:华为云ModelArts的自动学习功能工作流程如下:首先,用户可以通过拖拽文件或API接口将数据导入到ModelArts平台,并利用平台提供的数据清洗和预处理工具(如缺失值填充、异常值处理、数据标准化)来保证数据质量。接着,自动学习功能会自动识别数据中的特征,并进行特征选择和转换,包括特征提取、特征编码和降维,以提升模型性能。然后,平台会根据数据集的特点自动选择合适的机器学习或深度学习模型,并进行超参数调优,以确定最佳的模型配置,同时支持分布式训练,加快模型训练速度。训练完成之后,系统会生成详细的模型评估报告,包含准确率、精确率、召回率、F1分数等指标,并提供可视化工具,如ROC曲线和PR曲线,帮助用户直观理解模型性能。此外,还支持模型压缩和优化,以减少模型体积并提高推理效率。最后,自动学习功能支持多种部署方式,包括在线服务、批量服务、边缘部署和容器化部署,满足不同应用场景的需求,并通过CI/CD流水线实现自动化部署,简化部署流程,提高部署效率。部署后的模型还可以通过实时监控功能持续跟踪性能,确保其在生产环境中的稳定性和可靠性,并支持模型的持续迭代和更新,以适应不断变化的数据和业务需求。Q:ModelArts的推理服务是否可以自动扩展?AI应用支持哪些编程语言开发?A:华为云ModelArts的推理服务支持自动扩展功能,主要通过自动伸缩(Auto Scaling)和弹性计算资源管理来实现。自动伸缩功能允许系统根据实际负载情况自动调整推理服务的计算资源,增加或减少实例数量以适应请求量的变化,确保服务的稳定性和成本效益。此外,弹性计算资源管理使得ModelArts能够在不同负载条件下动态分配计算资源,保证高并发请求下的高性能和稳定性。就AI应用支持的编程语言而言,ModelArts提供广泛的语言支持,包括Python(主流的AI开发语言,拥有TensorFlow、PyTorch、Keras等丰富库)、Java(适合企业级应用开发)、C++(适用于对性能有极高要求的应用)、Go(构建高性能后端服务的理想选择)、JavaScript(通过Node.js环境支持前后端开发,适合Web应用)以及R(适合统计分析和数据科学应用)。Q:如何在华为云ModelArts中实现模型版本管理?A:在华为云ModelArts中实现模型版本管理主要通过以下几个步骤和功能来完成:首先,用户可以将训练好的模型文件上传至ModelArts平台,支持多种格式如TensorFlow、PyTorch等。ModelArts提供了一个模型仓库用于存储和管理不同版本的模型文件。每次上传新模型时,可以为其添加版本标签或版本号以便区分不同的模型版本,同时ModelArts会记录每个版本的详细信息,包括上传时间、训练数据集、超参数配置等,便于后续的追溯和管理。其次,上传模型后,可以使用ModelArts内置的评估工具对模型进行性能评估,生成详细的评估报告,并通过比较不同版本的模型评估结果,直观地看到各版本之间的性能差异,从而选择最优版本进行部署。在ModelArts平台上,用户可以在模型管理页面查看所有模型版本,并执行版本切换、下载、删除等操作,也可以通过版本比较功能来对比不同版本的性能指标。此外,当需要进行模型部署时,可以从多个版本中选择一个特定版本进行部署,以确保上线的是经过验证的最佳版本。如果新版本出现任何问题,还可以快速回滚到之前的稳定版本,保证服务的连续性和稳定性。对于不再使用的旧版本,可以将其归档保存,释放存储空间;而对于完全不需要的版本,则可以选择删除,清理不必要的数据。Q:如何对Stable Diffusion模型进行剪枝、量化等优化操作以减少内存占用和提高推理速度?A:在ModelArts平台上,对Stable Diffusion模型进行优化以减少内存占用和提高推理速度的操作步骤如下:首先,将Stable Diffusion模型上传至ModelArts Studio平台。接下来,在模型管理界面中选择SmoothQuant-W8A8或AWQ-W4A16作为模型压缩策略。然后,启动模型压缩任务,ModelArts将自动执行剪枝、量化等优化操作。压缩完成后,需测试模型以确保其性能符合预期要求。之后,将优化后的模型部署到所需的计算资源上。最后,通过API接口或其他方式在业务环境中调用该优化后的模型服务进行预测。需要注意的是,尽管ModelArts目前不直接支持对Stable Diffusion模型进行剪枝和量化操作,但上述步骤提供了一种变通的方法来实现类似效果,从而提升推理速度和降低内存占用。Q:从业务成果角度,华为云 ModelArts +Dify AI 的组合能为企业带来哪些可量化的效益(如增加收入、提高客户满意度等)?A:华为云 ModelArts + Dify AI 的组合能够为企业带来一系列可量化的效益,包括但不限于增加收入、提高客户满意度、降低成本及提升工作效率。具体来说,通过智能化的推荐系统和销售助手,该组合能提高销售效率和转化率,进而增加收入;利用AI自动化工具扩大市场覆盖面,触达更多潜在客户,进一步推动收入增长。在提高客户满意度方面,通过提供个性化的客户服务和产品推荐,以及快速响应客户需求的智能客服系统,能够显著提升客户满意度和降低客户流失率。此外,自动化流程和资源优化功能减少了人工操作,降低了运营成本,并提高了模型的运行效率,从而减少计算资源的消耗。在提升工作效率方面,基于大数据分析和机器学习的决策支持系统帮助管理层作出更精准的决策,同时自动化报告生成功能节省了人力时间,提高了数据处理效率。Q:华为云ModelArts 的自动学习功能有哪些限制?A:华为云ModelArts的自动学习功能虽然强大,但也存在一些限制,主要包括:数据量和质量:自动学习的效果很大程度上依赖于输入的数据量和数据质量。如果数据量不足或数据质量差,模型训练效果可能不佳;特征工程:自动学习会尝试自动提取特征,但对于某些复杂场景,可能需要手动进行特征工程以获得更好的模型性能;定制化需求:对于一些非常特定或定制化的需求,自动学习可能无法完全满足,需要进一步的手动调整或开发自定义模型;算法选择:虽然自动学习可以自动选择合适的算法,但在某些情况下,特定领域可能需要特定的算法,而这些算法可能不在自动学习的支持范围内;实时性:自动学习通常适用于离线训练场景,对于实时性要求极高的实时训练场景可能不太适用。Q:华为云ModelArts 支持哪些预训练模型?A:ModelArts目前支持盘古大模型与主流开源第三方大模型。此外,华为云ModelArts 支持多种预训练模型,覆盖了计算机视觉、自然语言处理、语音识别等多个领域。在计算机视觉方面,提供了图像分类模型如 ResNet、Inception、VGG;目标检测模型如 YOLO、SSD、Faster R-CNN;语义分割模型如 Mask R-CNN、DeepLab;以及图像生成模型如 StyleGAN、CycleGAN。针对自然语言处理,ModelArts 包含了文本分类模型如 BERT、RoBERTa;语言生成模型如 GPT 系列、T5;机器翻译模型如 Transformer、Marian;命名实体识别模型如 BERT、ERNIE。在语音识别领域,ModelArts 提供了语音转文本模型如 DeepSpeech、Conformer 和语音合成模型如 Tacotron、WaveNet。此外,在推荐系统方面,支持协同过滤模型如矩阵分解模型,以及深度学习推荐模型如 Wide & Deep、DIN。对于时间序列分析,ModelArts 提供了预测模型如 LSTM、Prophet。请注意,具体支持的预训练模型列表可能会根据华为云 ModelArts 的更新而有所变动,建议访问华为云官方文档或控制台以获取最新的预训练模型列表请注意,具体支持的预训练模型列表可能会根据华为云 ModelArts 的更新而有所变动,建议访问华为云官方文档或控制台以获取最新的预训练模型列表。Q:华为云ModelArts Standard有哪些功能?A:华为云ModelArts Standard是一款面向开发者和数据科学家的AI开发平台,它提供了丰富的功能来加速AI应用的开发和部署。其主要功能包括:数据管理:支持数据集的创建、上传、下载和共享,以及内置的数据清洗和转换工具以简化数据准备过程;自动学习:提供自动化模型训练和超参数优化能力,支持多种任务类型如图像分类、物体检测、语义分割、文本分类和回归分析,无需编写代码即可完成模型训练;模型开发:集成Jupyter Notebook环境用于模型开发和调试,支持自定义训练任务及使用TensorFlow、PyTorch、MindSpore等主流深度学习框架;模型评估与优化:提供多种评估指标以全面了解模型性能,同时支持模型压缩、剪枝、量化等优化手段,提升模型的推理速度并减少内存消耗;模型部署与管理:支持模型的一键部署至在线服务,提供API接口,具备多版本模型管理和在线监控与日志记录功能;边缘计算支持:允许将模型部署到边缘设备上进行低延迟的本地推理;安全与合规:确保数据加密和权限管理,符合多种安全和合规标准,保障企业级应用的安全性。Q:Dify是否有提供模型压缩和加速的工具?怎么做模型可解释性分析?A:模型压缩和加速及模型可解释性分析主要由ModelArts提供。华为云ModelArts提供了多种模型压缩和加速的工具,以帮助用户在保持模型精度的同时,减少模型大小和提高推理速度。这些工具包括模型剪枝,通过移除冗余或不重要的权重来减小模型尺寸;量化,将模型权重从浮点数转换为更低位宽的整数表示,以减少存储空间和计算量;知识蒸馏,利用大型“教师”模型的知识来训练一个小型“学生”模型,使其达到相似性能;以及模型裁剪,去除模型中的部分层或神经元,以减小模型复杂性和计算需求。在模型可解释性分析方面,ModelArts提供了多种工具和技术,帮助用户理解模型的决策过程。其中包括SHAP(SHapley Additive exPlanations),一种基于博弈论的方法,用于衡量每个特征对模型预测结果的影响;LIME(Local Interpretable Model-agnostic Explanations),通过局部近似来解释模型预测;CAM(Class Activation Mapping),主要用于图像分类模型,通过可视化热图展示模型关注的图像区域;以及PDP(Partial Dependence Plot),显示某个特征对模型预测结果的整体影响趋势。通过这些工具和技术,用户可以在ModelArts平台上进行模型压缩、加速和解释性分析,以优化模型性能并增强模型的透明度和可信度。Q:如何管理模型的不同版本,并在新版本发布后平滑过渡?A:华为云ModelArts提供了强大的模型版本管理和平滑过渡功能,以确保模型迭代过程中的业务连续性和稳定性。首先,在模型版本管理方面,ModelArts允许用户在每次训练或优化后创建新的模型版本,用户可以将当前模型保存为一个新版本,也可以基于已有版本进行更新。每个模型版本还可以添加标签,如v1.0、v2.0等,以便于管理和查询。此外,ModelArts还会详细记录每个版本的历史信息,包括创建时间、训练参数、性能指标等,帮助用户追踪和比较不同版本之间的差异。在模型部署和版本控制方面,ModelArts支持将不同版本的模型部署为独立的服务实例,每个实例可以配置为使用特定版本的模型。当新版本模型部署完成后,用户可以通过流量分配功能逐步将请求从旧版本转移到新版本,例如先将10%的流量导向新版本,观察其表现后再逐步增加比例,实现灰度发布。为了确保在新版本发布后的平滑过渡,ModelArts提供了灰度发布功能,通过设置流量分配比例,逐步将用户请求从旧版本模型迁移到新版本模型,以验证新版本的稳定性和性能。同时,ModelArts还具备回滚机制,若新版本出现任何问题,用户可以快速回滚到之前的稳定版本,保障业务不受影响。此外,ModelArts还提供监控和告警功能,用于在新版本上线后持续监测模型的性能和健康状态,及时发现并解决问题。Q:如何实施持续集成/持续部署(CI/CD)流程来简化发布周期?A:使用华为云ModelArts和Dify实施持续集成/持续部署(CI/CD)流程来简化发布周期,可以通过以下步骤实现:首先,在代码和模型版本管理方面,使用代码仓库管理代码,并在ModelArts中管理模型版本,确保每次训练或优化后都能保存新的模型版本。接下来,通过自动化构建和测试,使用ModelArts的自动化训练和测试功能,确保每次代码提交后都能自动训练模型并进行测试,同时编写自动化测试脚本来保证模型和代码的质量。在持续集成阶段,配置代码仓库的Webhook,触发ModelArts中的自动化训练和测试流程。每次代码提交后,自动触发构建和测试流程,确保代码变更能够及时集成到主分支。进入持续部署阶段,使用ModelArts的模型部署功能,将经过测试的模型自动部署到不同的环境(如开发、测试和生产环境)。此外,通过ModelArts的流量分配功能,实现灰度发布,逐步将流量从旧版本模型转移到新版本模型,实现平滑过渡。为了进一步监控模型的性能和健康状态,利用ModelArts提供的监控和告警功能进行实时监控,并配置回滚机制,确保在新版本出现问题时可以快速回滚到之前的稳定版本,保障业务连续性。Q:Dify的模型,可以用自己的吗A:可以,目前Dify支持所有符合API接口规则的本地部署大模型,不过如果想要在网络上进行调用,需要对模型服务器进行网络穿透Q:在ModelArts上进行模型训练需要哪些资源?是否支持分布式训练?A:在ModelArts上进行模型训练需要多种资源,包括计算资源、存储资源和网络资源。计算资源方面,ModelArts支持使用CPU、GPU以及华为自研的Ascend芯片进行模型训练,具体选择取决于模型训练的需求。对于存储资源,需要足够的存储空间来存放训练数据集、模型权重和其他相关文件,并且还需要一定的临时存储空间用于缓存中间结果和日志文件。网络资源方面,特别是在进行分布式训练时,需要稳定且高带宽的网络连接来支持节点之间的高效数据传输。关于是否支持分布式训练,ModelArts确实支持分布式训练。通过将host_distributed_mode参数设置为multiple,可以启用分布式训练模式,利用多个计算节点并行处理数据,从而加速模型训练过程。这使得ModelArts能够适应从小规模到大规模分布式训练的各种场景需求。Q:华为云ModelArts AI Gallery功能有什么作用?A:华为云ModelArts AI Gallery的功能旨在打造一个开放、共享的AI模型生态系统,帮助用户更便捷地获取和使用高质量的AI模型,加速AI应用的研发和落地。具体来说,它提供了一个平台,让用户可以分享自己训练好的模型,同时也能够查找和使用其他用户或社区贡献的高质量模型,从而加速AI应用的开发过程,减少重复劳动。用户可以在AI Gallery中浏览不同类型的预训练模型和解决方案,涵盖计算机视觉、自然语言处理、语音识别等多个领域,这有助于快速找到适合特定应用场景的模型,加速创新和实验。此外,AI Gallery还提供了模型的详细描述、性能指标和评价反馈,用户可以根据这些信息评估不同模型的优劣,选择最适合自身需求的模型进行使用或进一步优化。通过AI Gallery,用户可以直接将模型部署到华为云的计算资源上,或者将其集成到自己的应用中,简化了模型从研究到实际应用的流程,提高了开发效率。同时,AI Gallery鼓励开发者和研究者之间的交流与合作,促进了AI技术和应用的发展,形成了一个活跃的AI社区,推动技术创新和最佳实践的传播。Q:华为云ModelArts Lite功能有什么作用?有什么应用场景?A:华为云ModelArts Lite是一款专为资源受限环境设计的轻量级AI开发和部署工具,能够支持用户在计算能力和存储空间有限的条件下进行模型的训练、优化和部署。它的核心功能包括提供简化的工作流来加速模型开发,支持模型剪枝、量化等压缩和优化技术,从而减少模型大小和计算复杂度,提高模型在边缘设备上的运行效率,并且具备一键部署和模型版本管理功能,便于用户管理和监控模型。其典型应用场景涵盖物联网设备(如智能家居、智能穿戴设备、工业传感器等),边缘计算环境(如边缘服务器或网关,用于本地数据处理和分析),移动设备(如智能手机和平板电脑,用于离线智能应用),自动驾驶系统(车载计算单元,实现车辆实时感知和决策),以及医疗设备(便携式设备,用于疾病早期诊断和监测)。通过这些功能,ModelArts Lite帮助企业及开发者在边缘计算和物联网领域快速部署高效的AI应用。Q:华为云ModelArts自动学习功能有哪些优势?A:华为云ModelArts的自动学习功能具有多个显著优势,包括:低门槛,即无需用户具备深厚的机器学习专业知识,即可完成模型训练和优化,大大降低了AI应用开发的技术门槛;高效性,能够快速完成从数据准备到模型训练、评估的全流程,显著缩短模型开发周期,提高开发效率;灵活性,支持多种任务类型,包括图像分类、物体检测、语义分割、文本分类、回归分析等,满足不同应用场景需求;自动化优化,自动选择合适的算法和参数,进行超参数优化,提升模型性能,减少人工干预;易用性,提供直观的用户界面和指导,让用户能够轻松上手,快速开始模型训练和部署;模型压缩与优化,支持模型剪枝、量化等技术,在保持较高精度的前提下减小模型大小,提高资源受限环境中的运行效率;无缝集成,自动学习生成的模型可以无缝集成到ModelArts的其他功能中,如模型部署、版本管理等,形成完整的AI应用开发和部署流程;多样化的模型库,提供丰富的预训练模型库,用户可以选择合适的预训练模型进行微调,加快模型开发速度;性能监控与评估,提供详细的模型性能监控和评估报告,帮助用户了解模型的训练效果和潜在问题,进行针对性优化。这些优势共同助力企业及开发者快速构建高质量的AI应用,加速业务创新和智能化转型。Q:华为云ModelArts自动学习功能包括哪些?A:华为云ModelArts的自动学习功能涵盖了从数据准备到模型部署的全流程自动化,具体包括以下几方面:自动建模:支持多种机器学习任务,例如图像分类、物体检测、语义分割、文本分类以及回归分析,能够自动训练相应的模型。数据准备:提供数据标注工具,适用于图像、文本等多种类型的数据,并且具备数据增强功能,以提高模型的泛化能力。模型优化:实现自动超参数优化,寻找最佳的超参数组合来提升模型效果;同时支持模型压缩技术,比如模型剪枝和量化,以减小模型体积和计算复杂度,使其更适合资源受限的环境。模型评估:生成详尽的模型性能评估报告,涵盖准确率、召回率、F1分数等关键指标,并提供模型训练过程的可视化图表,帮助用户深入理解模型表现。模型部署:具备一键部署功能,可以将训练完成的模型迅速转化为在线服务,对外提供API接口;同时支持模型版本管理,便于追踪和切换不同版本的模型。集成与扩展:能够与华为云的其他服务无缝集成,例如对象存储服务(OBS)和数据库服务;并通过开放API和SDK,允许用户进行自定义扩展和二次开发。Q:华为云ModelArts服务中 SDK软件包有哪些功能和作用?A:华为云ModelArts服务中的SDK软件包提供了多种功能,旨在简化用户与ModelArts平台的交互,加速AI应用的开发和部署。其主要功能和作用包括:数据管理(数据上传和下载、数据集管理、数据预处理、数据标注、数据版本管理)、训练管理(训练作业提交、训练参数配置、训练过程监控、训练结果分析、模型保存)、模型管理(模型上传和下载、模型版本管理、模型评估、模型优化)、服务管理(服务创建、服务配置、服务监控、服务管理、服务升级和回滚)、自动化工具(自动学习、模型优化)。Q:StableDiffusion 3 与 Stable Diffusion XL 1.0 相比有什么差异?A:Stable Diffusion XL 1.0 作为 Stable Diffusion 系列的一个重要升级版本,相较于 Stable Diffusion 3,在多个方面进行了改进和增强。首先,在图像质量和多样性方面,Stable Diffusion XL 1.0 提供了更为逼真和细腻的图像生成效果,能够生成更多样化的图像内容和风格。其次,从模型大小和计算资源需求来看,XL 版本可能较大,因此在推理过程中需要更多的计算资源,比如更高的 GPU 内存和更强的硬件支持。此外,Stable Diffusion XL 1.0 引入了一些新功能,如增强了文本理解和条件生成的能力,以及改进的控制功能,使用户能够更精确地控制生成过程。在训练数据和方法上,XL 版本可能利用了更大的训练数据集和更先进的训练技术,提升了模型的泛化能力和生成质量。同时,它还得到了更广泛的社区支持,拥有更多的教程、示例和第三方工具支持,形成了更丰富的生态系统。最后,在兼容性和集成方面,Stable Diffusion XL 1.0 也表现出色,提供了更好的兼容性,支持更多的操作系统、编程语言和硬件平台,以及更方便的集成选项,支持更多的 API 和 SDK。这些改进使得 Stable Diffusion XL 1.0 成为一个更为强大和灵活的文本到图像生成工具。Q:ModelArts是端到端开发流程吗?是否支持模型跨域部署?A:ModelArts 是一个端到端的 AI 开发平台,它支持从数据预处理、模型训练、模型优化到模型部署的完整开发流程。其端到端开发流程涵盖以下环节:包括数据管理、模型训练、模型优化、模型部署。此外,ModelArts 支持模型跨域部署,能够将模型部署到云端和边缘设备等多种环境中。具体而言,云端部署可作为在线服务,提供 RESTful API 接口,支持高并发请求,同时也支持多版本管理和流量分配;边缘设备部署则适应资源受限环境,提供模型优化工具。同时,ModelArts 还提供跨域管理和监控功能,确保模型在不同计算环境中的高效运行与管理。Q:对于不懂代码的开发者来说,华为云ModelArts+Dify AI是否友好?A:对于不懂代码的开发者来说,华为云ModelArts和Dify AI的组合是相当友好的。ModelArts提供了强大的自动学习功能,允许用户通过上传数据集并选择模型类型来自动完成模型训练和优化,无需编写复杂的代码。其图形化界面设计使得非技术人员能够通过简单的点击和拖拽操作完成数据预处理、模型训练及部署等任务。此外,ModelArts还提供了丰富的预训练模型和模板供用户选择,进一步降低了技术门槛。另一方面,Dify AI则以低代码乃至无代码的方式,使用户能通过拖拽组件快速构建和部署AI应用,如聊天机器人和推荐系统等,无需编程知识。Dify AI支持可视化配置,用户可通过图形界面调整应用参数和逻辑,简化了复杂功能的实现。结合ModelArts和Dify AI的优势,不懂代码的开发者可以利用ModelArts进行模型训练和优化,再通过Dify AI快速部署和管理AI应用,整个过程大大减少了对编程技能的需求,显著提升了开发效率和用户体验。Q:Dify适合非技术人员使用吗?是否支持引入第三方插件开发?A:Dify是一款专注于低代码和无代码开发的平台,旨在让非技术人员能够轻松构建和部署AI应用。它提供了一个图形化界面,用户可以通过拖拽组件来构建应用,而无需编写复杂的代码。所有功能和逻辑都可以通过可视化的界面进行配置和调整,这显著降低了技术门槛。此外,Dify还提供了一系列预设的模板和组件,用户可以快速搭建常见的AI应用类型,如聊天机器人、推荐系统等。其界面设计直观,并配有详细的说明和引导,帮助用户快速上手。在第三方插件开发方面,Dify支持通过开放API和插件系统引入第三方服务和功能,从而扩展平台的功能和灵活性。对于有开发能力的用户,Dify还允许开发自定义插件,以满足特定需求。此外,还可以通过API集成现有的第三方服务,如支付网关、数据分析工具等,进一步增强应用的功能性。因此,Dify不仅适合非技术人员使用,同时也支持引入第三方插件开发,为用户提供扩展功能的能力。Q:CANN自定义算子能放进ModelArts使用吗?能和Dify AI融合到一起吗?A:CANN自定义算子可以放进ModelArts使用。ModelArts支持自定义算子的集成,用户可以在ModelArts环境中通过编写C++代码实现自定义算子,并在训练任务中使用这些算子以优化模型的计算性能或实现特定功能。然而,CANN自定义算子不能直接与Dify AI融合。尽管如此,用户可以通过ModelArts训练和优化模型(包括使用CANN自定义算子),并将优化后的模型部署到ModelArts提供的在线服务或边缘设备上,之后在Dify AI中通过API调用这些模型服务,从而实现间接集成。这种方式结合了ModelArts的高性能计算能力和Dify AI的低代码/无代码特性,为用户提供了一个灵活高效的AI开发和部署方案。Q:华为云 ModelArts 的模型开发与训练功能怎么样?A:华为云ModelArts的模型开发与训练功能非常强大且全面,旨在为开发者和数据科学家提供一个高效、灵活的平台来构建和优化AI模型。ModelArts支持自动学习(AutoML),包括自动建模、超参数优化和模型选择,适用于多种任务类型,如图像分类、物体检测、语义分割、文本分类和回归分析。同时,它也支持手动模型开发,提供了Jupyter Notebook环境,支持TensorFlow、PyTorch、MindSpore等主流深度学习框架进行自定义训练任务,配备丰富的数据预处理工具。此外,ModelArts具备模型优化能力,如模型压缩、知识蒸馏和模型裁剪,以提高模型在不同环境下的运行效率。在分布式训练方面,ModelArts支持多机多卡训练,提供灵活的资源配置选项,包括CPU、GPU和华为自研的Ascend芯片。模型评估与监控功能则包括详细评估报告、可视化工具和实时监控,确保用户能够深入了解模型的表现并及时调整。最后,ModelArts还提供了便捷的模型部署选项,包括一键部署、多版本管理和边缘部署,支持模型快速转变为在线服务,并与华为云其他服务无缝集成。Q:请问在利用这两个平台进行 AI 应用开发时,如何确保模型的准确性和稳定性呢?A:在利用华为云ModelArts进行AI应用开发时,确保模型的准确性和稳定性涉及多个关键步骤和最佳实践。首先,在数据准备阶段,需要确保数据集的质量,包括数据清洗和预处理,去除噪声数据,处理缺失值,并进行数据归一化;采用数据增强技术增加样本多样性;使用ModelArts的标注工具进行高质量的数据标注。其次,在模型训练过程中,选择合适的模型架构,如CNN或RNN,根据任务需求而定;利用ModelArts的自动超参数调优功能优化模型参数;通过交叉验证评估模型的稳定性和泛化能力;运用正则化技术和早停法预防过拟合。在模型评估环节,采用全面的评估指标,如准确率、召回率、F1分数等,综合评价模型性能;借助混淆矩阵和ModelArts的可视化工具监控训练过程。此外,通过模型压缩和知识蒸馏技术优化模型,减少计算复杂度的同时保持高精度。在模型部署与监控阶段,利用ModelArts的模型版本管理和灰度发布功能,确保平稳过渡;通过实时监控和A/B测试,保障模型在生产环境中的稳定性和优越性。最后,持续收集用户反馈和运行数据,定期重新训练模型以保持其时效性和准确性。通过这些步骤,可以在ModelArts平台上开发出既准确又稳定的AI模型,满足业务需求。Q:华为云 ModelArts 模型开发平台的主要优势有哪些?用户如何在不懂代码的情况下,利用华为云 ModelArts 和 Dify 平台实现分钟级的模型在线训练、微调、推理和部署上线吗?A:华为云 ModelArts 模型开发平台的主要优势包括提供一站式开发流程,涵盖数据预处理、模型训练、优化及部署;具备自动学习功能,支持自动模型选择、超参数优化和数据增强;拥有丰富的预训练模型库,用户可直接使用或微调;支持高性能计算资源,包括多GPU和Ascend芯片的分布式训练;提供模型优化工具,如模型剪枝和量化,提升边缘设备上的运行效率;以及模型部署与管理功能,支持一键部署、多版本管理和流量分配;同时,ModelArts能够与华为云其他服务无缝集成,提供开放API和SDK,便于二次开发和集成。用户在不懂代码的情况下,可通过以下步骤利用华为云 ModelArts 和 Dify 平台实现分钟级的模型在线训练、微调、推理和部署上线:首先,在ModelArts中通过图形化界面上传和管理数据集,并使用其数据标注工具进行数据标注,然后通过图形化界面进行数据预处理和增强。接着,选择自动学习功能,上传数据集并选择任务类型,ModelArts会自动选择合适的模型架构和超参数进行训练。用户还可以对预训练模型进行微调,只需在界面上选择模型并指定训练参数。随后,利用ModelArts提供的模型优化工具进行模型压缩和优化操作。接下来,使用ModelArts的一键部署功能,将训练好的模型部署为在线服务,并通过API接口调用模型进行推理。最后,在Dify AI平台上,通过拖拽组件快速构建应用界面,并使用Dify AI的API集成功能调用ModelArts部署的模型服务,通过图形化界面配置应用逻辑和参数,从而无需编写代码即可完成整个流程。Q:ModelArts是否支持多模态数据(如文本、图像、音频等)的处理和融合?A:华为云ModelArts确实支持多模态数据(如文本、图像、音频等)的处理和融合。作为一站式AI开发平台,ModelArts提供了一系列功能来支持多种类型的数据处理和模型训练需求。具体来说,ModelArts支持多种类型的数据上传和管理,包括图像、文本、音频等,并且具备数据标注和预处理能力。自动学习功能涵盖图像分类、物体检测、文本分类、语音识别等多种任务类型,适合多模态数据的初步处理和模型训练。对于更复杂的任务,用户可以通过自定义训练功能编写自定义代码,利用TensorFlow、PyTorch和MindSpore等深度学习框架实现多模态数据的融合与处理。此外,ModelArts还提供了模型优化工具,如模型剪枝、量化和知识蒸馏,帮助优化多模态模型的性能和效率。最后,训练好的多模态模型能够被部署到ModelArts的在线服务中,支持通过API接口进行实时推理和预测。ModelArts还提供了多种预训练模型,其中一些已经针对多模态数据进行了训练,可以直接使用或微调以适应特定应用场景。Q:ModelArts可以自定义算子开发吗?是否支持模型微服务化部署?A:ModelArts确实支持自定义算子开发,并且支持模型的微服务化部署。用户能够使用Python或C++等语言编写自定义算子,并将其集成到ModelArts中进行测试和验证。在模型训练过程中,这些自定义算子可用于实现特定的计算逻辑和优化目标。此外,ModelArts还提供了模型微服务化部署的能力,用户可以将训练好的模型导出为标准格式,例如ONNX或TensorFlow SavedModel,然后利用ModelArts的模型部署功能将模型部署为微服务。部署后,可通过API接口进行调用,同时ModelArts还提供了流量管理和版本控制功能,以及模型运行时的监控和日志记录,帮助用户更好地管理和维护模型服务。Q:Dify平台目前是否有AI应用移动端适配?A:Dify平台目前主要专注于提供低代码和无代码的AI应用开发能力,支持快速构建和部署各类AI应用,包括聊天机器人、推荐系统等。关于Dify平台是否直接支持AI应用的移动端适配,现有信息并不明确。Dify可能提供了一些基本的移动端适配功能,例如通过响应式设计使Web应用适配移动端浏览器,或者通过API接口将应用集成到原生移动应用中,甚至可能提供移动SDK以嵌入到原生移动应用中。但是,具体的适配细节和能力需要参考Dify的官方文档或联系其技术支持团队获取最新信息。为了获得最准确的支持情况,建议直接访问Dify的官方网站或联系Dify的客服和技术支持团队进行咨询。Q:ModelArts是否支持模型的批量预测和版本管理?A:华为云ModelArts确实支持模型的批量预测和版本管理功能,这些功能旨在提高模型部署和管理的效率及灵活性。ModelArts支持批量预测,允许用户一次性提交大量数据进行预测,这对于处理大规模数据集尤其有用。具体操作包括数据准备、模型部署、批量预测任务提交以及结果获取。用户可以通过ModelArts的控制台或API提交批量预测任务,预测结果会被存储到指定的位置,如华为云的对象存储服务(OBS)中。ModelArts还提供了强大的模型版本管理功能,帮助用户跟踪和管理不同版本的模型。具体功能包括版本创建、版本查询和管理、版本回滚以及流量分配。用户可以在ModelArts中训练或上传模型时创建新的模型版本,查看不同版本的模型及其训练参数、性能指标等信息,同时支持灰度发布,允许用户逐步将流量从旧版本模型转移到新版本模型,以验证新版本的稳定性和性能。通过这些功能,用户可以高效地管理模型生命周期,确保模型在生产环境中的稳定性和可靠性。想要了解更多大模型相关知识,欢迎观看DTSE Tech Talk 系列技术直播
-
同标题,尽可能详细解释,多谢
-
华为云的大模型和通义千问相比有哪些优势?
-
8月31日,由华为云开发者联盟联合华为(北京)虚拟现实创新中心主办的“HCDG城市行北京站——多模态大模型技术与场景化应用技术研讨沙龙”,在中关村虚拟现实产业园顺利举办。本次活动邀请到了大模型行业专家、技术专家以及优秀的企业代表进行分享,同时邀请了众多开发者到场,围绕多模态大模型技术与场景化应用展开讨论,聚焦AI前沿技术,重点关注人工智能的落地实践,一起探寻AI技术边界。华为云视频生成大模型算法专家 王博士华为云盘古大模型 让视频制作效率提升此次活动特别邀请到华为云视频生成大模型算法专家王博士亲临现场,专家以《多模态生成大模型技术与场景化应用》为主题,介绍了传统视频生产的流程、情况和难点,而盘古视频生成大模型主要囊括三种行业应用,包括一是自动驾驶,构建面向自动驾驶可控视频生成模型,提升长尾场景的识别效果以及场景泛化能力。二是具身智能,目标是构建具身智能任务执行视频生成模型,实现任务路径,意图预测的视频模拟。三是3D视频生成,通过构建工业和建筑场景的视频生成模型,从草图等设计初稿,可控生成对应的设计效果视频进而生成3D模型。手动实操 理论联系实际,增强感性认识在手动实验环节,华为云开发者技术服务专家胡子琪、刘宝梁带参与的开发者们体验了MusicGen文本生成音乐过程,可以根据文本描述(例如“带有重鼓和合成器垫声的80年代驾驶流行歌曲”)生成大约12秒的音频。MusicGen还可以选择性地使用参考音频进行“引导”,如现有的歌曲,在这种情况下,它将试图遵循描述和旋律。MusicGen使用了Transformer架构,能够根据文本提示生成新的音乐片段。与语言模型类似,MusicGen预测的是音乐片段的下一部分,而不是句子中的下一个字符。这使得它能够生成连贯和结构化的音乐作品。实操过程中,大家纷纷积极互动参与,收获良多。中影年年AIGC策划总监 魏瑜合作伙伴登台分享,共谋产业发展新蓝海本次沙龙有幸邀请到了中影年年AIGC策划总监魏瑜上台分享,主要介绍了中影年年基于华为云MetaStudio数字内容生成平台的应用,其中的数字人基于华为强大的算力和底座支撑,结合中影年年5000+高品质数字角色进行AI训练,通过一张照片可快速批量生产数字人,以AIGC生产模式实现规模化产出。针对定制化超写实数字人,采用自动化重拓扑和空洞补齐技术,满足超写实纹理和材质,还原真实毛发和现实光影、梯度照明等多种尖端技术。此外,中影开发出智能伴学AI等相关产品,引领个性化学习新体验。一人一台云主机,开箱即用现场开发者们还体验使用了华为开发者空间云主机。云主机预集成CodeArts IDE、代码仓及JDK、Python等运行时插件,解决本地开发环境中配置复杂、稳定性不足和依赖等问题,为开发者提供性能强大、安全、稳定、高效的开发环境,以及海量的技术赋能课程与专业开发者认证内容,让开发者拥有开箱即用的可延续工作空间。主题演讲后,在讲解员的带领下,开发者们共同参观了展厅,参观了包括智能数字生态互动缸、无标记点运动采集分析区、数字人体验区、4DVR过山车、3D云渲染引擎生态共性技术平台等展区项目。开发者们深入了展区项目的技术原理和应用场景,拓宽技术眼界。大家积极交流心得,分享体验感受,未来华为云HCDG将定期组织技术研讨会和技术体验类活动,以激发创新思维和促进技术交流为开发者们提供更好的学习交流平台。HCDG(Huawei Cloud Developer Group 华为云开发者社区组织),是基于城市圈和技术圈,由开发者核心组自发开展的开放、创新、多元的社区技术交流组织。致力于帮助开发者学习提升、互动交流、挖掘合作,推动技术应用与本地产业结合、数智化转型和开发者文化发展。期待您加入HCDG社区组织,点击申请报名
-
开源大模型和闭源大模型是人工智能领域中的两种重要模型类型,它们在开放性、可访问性、透明度等方面存在显著差异。以下是这两类模型的一些代表性例子:开源大模型代表LLaMA系列:LLaMA 2:由Meta AI开发的一系列预训练和微调的大型语言模型,参数规模从70亿到700亿不等。其中,LLaMA 2-Chat是特别优化用于对话场景的微调模型。LLaMA 3:Meta AI近期推出的两款开源模型,Llama 3 8B与Llama 3 70B,展现出卓越的性能,可供外部开发者免费使用。CodeGeeX:一个拥有130亿参数的多语言代码生成模型,能够生成语法和功能正确的代码,极大地提高了程序员的编码效率。OPT:一系列仅包含解码器的预训练transformers模型,参数范围从125M到175B。这些模型在零样本学习和少样本学习方面展现出卓越的能力,且训练成本较低。CPM系列:CPM:由清华大学研发的中文预训练语言模型,拥有26亿参数和100GB中文训练数据。CPM-2:基于大规模预训练语言模型(PLMs)的成本效益技术套件,旨在解决PLMs的效率问题。BLOOM:一个拥有1760亿参数的开放获取语言模型,由数百名研究人员合作设计和构建,支持46种自然语言和13种编程语言。GLM-130B:一个拥有1300亿参数的双语(英文和中文)预训练语言模型,旨在开源一个至少与GPT-3一样出色的1000亿规模模型。Phi-3:微软AI研究院的新开源语言模型,具备小巧且高效的特性,包括Phi-3-Mini、Phi-3-Small和Phi-3-Medium三种规模。Qwen1.5-110B:国内通义千问公司发布的千亿级参数模型,性能卓越,支持多种语言。Falcon:阿联酋技术创新研究所开发的开源LLM,Falcon 180B拥有1800亿参数,在多种NLP任务中表现出色。Yi系列:01.AI推出的强大开源语言模型,以双语能力领先领域,如Yi-34B-Chat在多个基准测试中表现优异。闭源大模型代表GPT系列:由OpenAI开发的系列模型,包括GPT-3、GPT-4等,这些模型在自然语言处理领域取得了显著成就,但源代码和内部实现细节不对外公开。BERT:虽然BERT在早期是开源的,并且作为Transformer潜力的首批实验之一迅速在自然语言处理任务中取得先进性能,但近年来谷歌对开源大模型的态度有所变化,且BERT本身已成为闭源大模型概念下的一个代表性例子,用于说明这类模型的特点。其他商业公司模型:许多大型科技公司,如Google、Facebook等,也开发了各自的闭源大模型,这些模型通常通过API访问或企业解决方案提供给用户,以保护知识产权和商业利益。本期讨论主题上述那么多大模型,你觉得最终开源类的能取胜,还是闭源类的能取胜?
-
6月15日, HCDG城市行·北京站——“AI原生应用的探索与创新”技术研讨沙龙圆满举办。活动特邀来自华为云和华为云HCDE圈层的专家们为与会开发者带来一场别开生面的技术交流活动。为正在探索AI创新之路的企业与开发者们赋能助力,与开发者共同探索AI技术的无限可能。句子互动联合创始人& CTO、华为云HCDE 高原活动伊始,句子互动联合创始人& CTO、华为云HCDE高原进行《AI Workflow 的敏捷开发》的主题演讲,他表示敏捷开发的核心在于快速迭代和持续交付,它要求我们在开发过程中不断收集反馈,快速调整策略,以适应不断变化的需求和技术环境。面对功能挑战,如精确控制的记忆、主动被动结合的沟通场景、自有系统逻辑的融合介入;以及迭代挑战,包括分析不符合预期的回答和保证新变动不影响旧逻辑。敏捷开发策略可总结为如下3点:一是快速迭代需要快速反馈,通过调优中心和一键导入测试中心实现;二是流程中节点验证和流程运行完动作校验,确保执行结果清晰可见。三是版本控制保证测试和生产环境的互不干扰,并通过不同版本的用例测试进行效果比对。通过他现场的操作演示,开发者们对这一理解更加深刻。华为云EI解决方案专家 张瑞锋随后,华为云EI解决方案专家张瑞锋为到场的开发者们介绍了华为云昇腾算力和盘古大模型,他表示在大模型产业的潜在空间极大,其本质是对人类知识的数字化,未来基础大模型的构建还需要企业与人才的持续投入。基于华为打造全栈的AI解决方案,充分释放AI算力潜能,通过ModelArts一站式开发平台为开发者提供全套工具,实现快速训推与部署。开发者们还可以在AI Gallery部署开源模型,支持百模千态一键部署。他指出大模型的开发与应用是一个复杂的系统工程,其训练需要在大规模数据处理和分布式并行训练方面具备广泛实践经验,例如在集群建设、数据准备、模型训练、推理压缩、应用开发等方面会遇到许多问题和挑战,这些都可以靠华为解决。华为云通过提供全套的开发套件使能开发者,提升行业大模型开发效率的同时也为用户和伙伴创造价值。此外他还介绍了盘古大模型在政务、互联网、影视、游戏等多个行业应用实践案例,进一步阐释了人工智能发展从局部探索正在走向千行百业。聆心智能CEO、华为云HCDE 郑叔亮最后,聆心智能CEO、华为云HCDE郑叔亮发表了《超拟人大模型和心理支持与陪伴》的主题演讲,介绍了超拟人大模型的概念、进展以及心里健康解决方案。他提到超拟人大模型是在效率价值及创意价值的基础上为用户进一步提供情绪价值,主要应用在情感陪伴、心理健康、教研教学等有个性化需求的领域。同时他还从高安全、强可控、拟人化多个角度对Emohaa、CharacterGLM、OPD-2拟人化LLM进行分析,以及应用于教育、文娱、营销等落地场景,提供AI Native社交/陪伴体验,展现沉浸式多模态交互。同时现场还邀请到了华为云DTSE专家(开发者技术支持工程师)与开发者们深入交流技术难题,解答开发困惑并提供对应的解决方案,为开发者用云开发保驾护航。未来华为云将继续携手广大开发者共同推进AI大模型创新技术应用的落地,共建繁荣的AI生态!
-
2024中关村轨道交通国际创新创业大赛-行业AI大模型专项赛,采用“揭榜挂帅”的形式,由轨道交通行业大型央国企及上市公司作为发榜方,从实际业务需求中拆解提炼出一批关键痛点问题,提供训练数据并面向社会技术大牛、团队和公司征集解决方案。优秀揭榜方将获得模型开发资金支持和大赛奖励支持,同时将有机会与发榜方达成长期合作关系,进一步参与后续AI大模型开发项目,并在行业内得到充分的曝光和推广。需求榜单(第一期)2024年度轨道交通行业AI大模型专项赛计划组织三期,首期专项赛发布了3项需求,分别为轨道交通头部企业的工务运维、生产经营和设备维护的AI大模型应用需求。榜单1.城轨工务检修助手城市轨道交通工务检修对安全和效率要求极高,任何操作失误都可能导致严重后果。随着技术的发展和标准的更新,运维人员需要及时了解和掌握最新的操作规范。现有解决方案面临信息更新滞后、高培训成本、经验传承困难、故障诊断效率低、数据分析能力有限和响应时间长等痛点。训练数据:相关国家、地区、团体和公司的操作规范文档数据格式:pdf、word文档核心任务:形成结构化数据,实现实时查询和统计分析功能关键指标:准确率95%以上榜单2.公司生产经营大脑现代企业需要更高效、更智能的数据分析解决方案,传统数据分析解决方案常面临数据集成难度大、分析速度慢、个性化服务不足、可扩展性差以及对专业技能依赖性强等痛点。训练数据:公司生产、商务、经营等数据数据格式:excel文档核心任务:提供快速、准确的数据分析服务、实现可视化报告生成和交互问答功能关键指标:准确性、可读性、可视化效果榜单3.轴承剩余寿命预测模型旋转机械的大多数故障都与轴承有关,轴承的工作状态在很大程度上影响轨道交通等行业中机械系统和设备的可用性、安全性和成本效率。现有解决方案面临数据收集与分析的复杂性、特征提取难度、预测准确性不足、成本与时间消耗较大以及对专业知识的高度依赖等问题。训练数据:在加速轴承退化实验中收集的轴承在线监测数据数据格式:csv文档(温度、振动加速度)核心任务:建立一个轴承剩余寿命预测模型,实现对轴承剩余使用寿命(RUL)预测功能关键指标:预测误差小于5%二、揭榜流程1.报名参赛2024/6/5-6/18扫描二维码,勾选拟揭榜题目并提交。需求对接2024/6/19-6/24由发榜方向揭榜方详细解读需求,包括应用场景、评价标准、交付标准并提供训练数据等,经确认后签署保密等相关协议。3.模型研发2024/6/25-7/23揭榜方根据的训练数据进行算法研发、模型训练与模型测试。4.专家评审2024/7/24-7/30组委会组织评审专家进行算法测试和评价,评选出杰出奖、优秀奖若干。5.结果公布2024/7/31公示评选结果,杰出奖揭榜方将与发榜方签署技术合作协议,获得研发资金支持。三、合作通道详见官网:www.zgcrail.com 咨询电话:姜老师18811103027
-
2024年5月26日,由华为云、鲲鹏会、创享梦空间联合主办的HCDG城市行上海站-AI大模型专场技术实践沙龙在上海创享梦空间举办。本次沙龙邀请了众多行业开发者、技术相关从业人员,共同聚焦华为云昇腾云服务、RAG模型、LLM大模型的最新技术动态和实践经验等议题进行交流探讨,激发大模型应用创新思维,共谋AI技术在行业中的应用与发展。随着人工智能技术的快速发展,AI算力需求正在加速增长,大算力成为支撑大型语言模型发展的关键。会上,华为云上海开发者生态总监发表了“基于ModelArts的开源LLM大模型应用实践”的主题演讲。他详细演示了通过AI Gallery一键部署ChatGLM2-6B-推理模型到昇腾云服务上,并基于LangChain应用框架实现自建知识库应用部署。他介绍道,在大模型应用方面,昇腾云凭借着其独特的灵活性和强大的技术能力,正在持续推动大模型技术进步和行业应用普及。▲ 华为云上海开发者生态总监英飞流(上海)信息科技有限公司 CEO张颖峰在会上深入分析了检索增强生成(Retrieval-Augmented Generation, RAG)的现状与未来。他指出,尽管长上下文大型语言模型(LLM)在能力上具有优势,RAG技术仍然不可或缺,但需要进一步的发展和完善。对此,张颖峰介绍了开源的RAGFlow产品,强调“质量输入,质量输出”的重要性。张颖峰还介绍了Infinity 开源AI原生数据库,旨在通过融合向量数据库、搜索引擎和结构化数据查询,提升RAG所必须的多路召回能力。未来,RAG将整合结构化/半结构化数据,形成一个更加强大和灵活的系统,统一服务企业级的搜索、推荐、对话、个人助手等应用,让企业高效使用大模型。▲ 英飞流(上海)信息科技有限公司CEO 张颖峰观测云产品架构师刘锐在会上详细介绍了 LLM 大模型 LangChain 的可观测性最佳实践。刘锐指出,事实上在 AI 模型的开发与调试过程中,掌握模型的内部运行状态是至关重要的。通过分析输入和输出的参数,有助于开发者对模型进行精确的调整和优化,包括对模型的 prompt 输入进行细化调整等。观测云为用户提供了端到端全链路追踪分析平台和强大的体验感知能力以解决分散式监控系统面临的诸多挑战,目前支持超过400+的技术栈,其中包括数据采集、观测模板和监控配置等,其核心技术优势包括统一数据采集器 DataKit、统一数据查询引擎 DQL、多模存储引擎 GuanceDB 以及智能一体化监控观测平台等。▲ 观测云产品架构师 刘锐大模型技术正逐渐成为推动各行各业发展的关键力量。未来,随着AI大模型技术的不断进步和应用场景的持续拓展,相信大模型技术将释放更多“模”力,为社会带来更多价值和可能性。在此过程中,华为云也将继续携手行业伙伴,共同探索AI技术的无限可能,推动大模型技术应用创新,助力企业在数字化、智能化的浪潮中乘风破浪,升级跃迁。
-
引言LangChain是一个先进的人工智能框架,它允许开发者构建复杂的思维链,模拟人类的思考过程。本文将介绍如何使用LangChain来创建一个复杂的思维链,以解决一个假设的复杂问题。第一步:定义问题首先,我们需要定义我们想要解决的问题。在本例中,我们将使用LangChain来解决一个复杂的物流优化问题。第二步:构建思维链2.1 收集数据使用LangChain的数据处理模块来收集所有相关的物流数据。from langchain.data_collection import DataCollector 初始化数据收集器 collector = DataCollector() 收集物流数据 logistics_data = collector.collect_data('logistics')2.2 数据处理处理收集到的数据,以便于分析。from langchain.data_processing import DataProcessor 初始化数据处理器 processor = DataProcessor() 处理物流数据 processed_data = processor.process(logistics_data)2.3 建立模型使用LangChain的模型构建工具来创建一个解决物流问题的模型。from langchain.model_building import ModelBuilder 初始化模型构建器 builder = ModelBuilder() 构建物流优化模型 logistics_model = builder.build_model(processed_data, 'logistics_optimization')2.4 模拟决策模拟不同决策对物流网络的影响。from langchain.simulation import DecisionSimulator 初始化决策模拟器 simulator = DecisionSimulator() 模拟不同决策 simulation_results = simulator.simulate(logistics_model, ['decision1', 'decision2', 'decision3'])2.5 分析结果分析模拟结果,确定最佳决策路径。from langchain.analysis import ResultAnalyzer 初始化结果分析器 analyzer = ResultAnalyzer() 分析模拟结果 best_decision_path = analyzer.analyze_results(simulation_results)第三步:实施决策根据分析得出的最佳决策路径,实施物流优化策略。from langchain.implementation import StrategyImplementer 初始化策略实施器 implementer = StrategyImplementer() 实施最佳决策路径 implementer.implement_strategy(best_decision_path)结语通过LangChain构建的思维链,我们能够模拟复杂的决策过程,并找到解决物流优化问题的最佳方案。LangChain提供了强大的工具来帮助开发者在各种复杂问题上进行深入的思考和分析。注意LangChain是一个虚构的概念,本示例中的代码和模块不是真实存在的。实际的人工智能框架和工具可能会有所不同。
-
3月19日,以“智”惠家庭,“碳”索未来为主题的HCDG城市行深圳站——产业融合与应用技术创新峰会在深圳国际会展中心(宝安新馆)圆满落幕。此次峰会聚焦智能科技与低碳发展的融合,展示了华为云AIoT在智能家电行业的实践案例,分享了物联网行业的发展趋势以及华为云物联网解决方案的优势。华为云IoT服务产品部高级产品经理管政阐述了华为云AIoT的服务能力,展示了华为云家具行业数字化转型方案,引领行业向智能化、低碳化发展。华为云IoT服务产品部高级产品经理 管政华为云IoT服务产品部高级产品经理管政分享了华为云AIoT智能家电行业实践案例,他表示,随着AI大模型的发布,我们已经步入了智能时代,而万物互联是智能化的基础。据调研显示,物联网在未来五到十年中将迎来爆发式增长,预计联接数将达到2000亿,市场规模将达到万亿美金。其中,中国物联网的市场占比预计将达到25%以上,一跃成为全球物联网第一大市场。华为云AIoT作为引领行业变革的重要力量,提供海量设备连接上云、设备和云端双向消息通信、设备管理、远程控制和监控等能力,并可将设备数据灵活流转到华为云其他服务,帮助物联网行业用户快速完成设备联网及行业应用集成。华为云工业互联网平台总架构师 刘益明华为云工业互联网平台总架构师刘益明分享了华为云家具行业数字化转型方案。分享过程中刘益明介绍到,制造企业数字化转型升级是“十四五规划”支持实体经济发展的重要方向,目标在 2025 年 50% 规模以上制造企业智能制造成熟度达到二级以上,要求企业主业务流程采用信息系统进行规范化管理。对大多数中小家具制造企业来说,企业数字化面临很大挑战,数字化需要覆盖家具企业的主业务流程,预算有限,用户界面要简单易用。是否有相应的方案能够满足该诉求了?答案是肯定的,华为云联合数夫打造的家具行业数字化转型方案,以 SaaS 方式提供市场推广、产品设计、生产和仓储等家具企业主业务流程应用,所有应用均通过统一平台承载,不同应用间数据预集成打通。目前该方案处于前期孵化阶段,感兴趣的企业可以联系我们试点使用。华为云产品中心高级专家 包宜强华为云产品中心高级专家包宜强进行了主题为人工智能赋能产业智能化分享。盘古大模型作为华为云的一项重要AI技术,已经在多个领域展现出强大的实力。它能够处理大规模的数据,提供精准的预测和决策支持,帮助企业提升效率,降低成本。 包宜强表示,盘古大模型可以广泛应用于金融、汽车、电力、医疗等行业,帮助企业实现智能化升级。例如,在金融领域,盘古大模型可以用于风险评估和信贷审批,提高决策的准确性和效率;在汽车行业,盘古大模型可以用于车辆检测和故障预测,提升车辆的安全性和可靠性;在电力行业,盘古大模型可以用于电网运行优化和能源调度,提高电力系统的稳定性和效率。 此外,盘古大模型还可以与其他华为云服务进行深度集成,为企业提供一站式的AI解决方案。包宜强表示,华为云将继续致力于AI技术的研发和应用,推动产业的智能化进程。企业万兴科技万兴播爆市场总监 黄立来自伙伴企业万兴科技万兴播爆市场总监黄立为我们分享了AI数字人助力家具行业品牌营销降本增效,他表示在短视频时代,随着用户习惯的改变以及用户阵地的转移,短视频营销成为了企业营销的必备手段,但是高昂的成本让很多企业难以起步,而AIGC基于其高效率和低成本,让每一个公司有了开启短视频营销的可能。本次活动是HCDG在2024年在深圳的首次城市活动,后续华为云也将继续携手各城市核心组成员,与广大企业及开发者,共建产业新生态,为企业及开发者提供“新技术、新体验、新机会”全方位支撑,赋能更多的企业数字化转型。HCDG(Huawei Cloud Developer Group 华为云开发者社区组织),是基于城市圈和技术圈,由开发者核心组自发开展的开放、创新、多元的社区技术交流组织,致力于帮助开发者学习提升、互动交流、挖掘合作,推动技术应用与本地产业结合、数智化转型和开发者文化发展。
-
[中国,深圳,2024年3月14日]3月14日至15日,以“因聚而生 数智有为”为主题的“华为中国合作伙伴大会2024”在深圳隆重举行。同期,华为成功举办了“助力城市智能新升级,携手共享时代大机遇”论坛,围绕城市智能体、城市智能中枢、城市大模型等智慧城市重点演进方向,共话政务与城市数字化发展趋势和实践经验。会上,华为联合伙伴重磅发布政务大模型和城市大模型首批应用场景,与伙伴共同构建端到端解决方案能力,共筑城市智能体,加速城市智能化。华为政务一网通军团研发总裁陈金助表示,国家将人工智能定义为发展新质生产力的重要引擎,强调加强前瞻布局,加快提升算力水平,推进算法突破,大力开展“人工智能+”行动,更好赋能千行百业。当前,各大城市都在积极推进人工智能产业发展,包括加大算力部署、加快大模型布局,以及在政务领域的先行先试。华为以城市智能体架构为依托,通过城市智能中枢解决方案,赋能城市数字化和政务数字化,让城市能感知、会思考、有温度、可进化。华为政务一网通军团研发总裁 陈金助大模型是时代机遇,华为政务一网通军团将携手更多的合作伙伴抓住大模型发展新机遇,为更多城市提供更智能的场景化解决方案。在城市智能新升级的道路上,核心技术的创新与应用是不可或缺的关键推动力。华为基于城市智能中枢的架构,面向合作伙伴提供昇腾适配使能、自然语言大模型使能、多模态大模型使能、工具平台开发使能等四大核心能力,共同打造城市智能化解决方案,为每个城市构筑自己的专属大模型。会上,华为联合致远互联、华海智汇、国泰新点、南威软件、泛微网络(排名不分先后)等伙伴发布了政务大模型首批应用场景。华为联合伙伴发布政务大模型首批应用场景联合奥看科技、四方伟业、国泰新点、丰图科技、数字冰雹、睿呈时代(排名不分先后)等伙伴发布了城市大模型首批应用场景。华为联合伙伴发布城市大模型首批应用场景这些场景的发布,不仅展示了华为助力城市智能化升级的最新成果,也将为城市带来更高效、更温暖的服务。深圳福田区政务服务数据管理局党组成员、副局长高增介绍,福田区以“全领域治理、全周期管理、全要素参与”的整体思路,创新提出“四智融合”的建设理念,运用城市大模型赋能福田区数字化建设,着力打造数字中国典范城区。南京奥看信息科技有限公司分享了基于视觉大模型的城市治理智能巡检方案,大模型提升城市治理效率,推动城市实现从“治理”到“智理”的转变。最后,北京致远互联软件股份有限公司分享了基于华为政务aPaaS和政务大模型的智慧公文方案,运用AI-COP平台让智慧办公更加触手可及,让政务OA的智能协同充满无限可能。面向未来,华为将秉持“因聚而生 数智有为”的核心理念,深化与伙伴合作的深度与广度,助力客户数智化升级的同时,携手伙伴共拓市场、共赢商机、共创共享数智世界新机遇。欲了解更多详情,请参阅: cid:link_0
-
应对通用人工智能挑战,发展新质生产力近日,李鸿飞老师受某国企邀请,为集团各级管理干部解读人工智能最新趋势与应用,发展新质生产力,李老师做了《应对AI时代挑战,加速企业数字化管理与运营,发展新质生产力》的专题讲座,从企业应用和个人学习两个方面,对管理团队提供新的知识与观念。由于有大量前沿信息与应用,特整理录音供大家参考。李老师首先感谢领导对AI前沿技术和新质生产力的重视,也感谢领导者对注重管理团队的学习和培养。李老师强调主要研究的是AI发展和RPA新一代数字技术在企业的应用,如何提高企业竞争力,如何降本增效,如何帮助企业数字化转型,可能在AI技术原理和发展路径上的一些看法和推论,不一定与技术专家相符,这些都是最前沿的实践,主要是想给大家带来一些启发和收获。01AI新一代数字技术对各行各业形成巨大影响李老师首先澄清了一个概念,我们普通人想象的人形机器人是强人工智能,实现的难度太大,而当前我们接触到的AI还在弱人工智能阶段,看到的AI机器人更像个玩具。强人工智能需要大语言模型及强大算力,大语言模型的参数量非常大,有数十亿甚至到万亿个,而且训练过程中也需要海量文本数据集,才能更好地理解人类的自然语言,以及生成高质量的文本。自从AI学科诞生以来,人工智能行业在近70年发展中经历多次繁荣与低谷,有很多次狼来了的故事,每次人工智能有点创新。新闻媒体,科幻电影都会叫到狼来了“ AI要统治世界啦,AI要毁灭人类了”,但最后的结果总让大家大失所望。这是因为人工智能这个行业,大众容易想象,媒体也喜欢炒作,大家一起幻想,结果期望越高,公众和投资者失望越大。AI行业经历过多次泡沫和二次发展低谷,留下的从业者扎扎实实研究应用,直到最近十几年有了深度学习,才有大的突破。计算机最初只能被动地接受人类输入的数据,就像人类的婴儿一样,只能等待喂养。当算力提升,特别是有了自然语言和图像处理能力以后,超级计算机可以通过网络获得海量的数据,包括文字、影像、语音,然后把它们融合在一起,产生多模态。形象地说是会听、会看、会学习了,然后就是会说、会动、会思考,这就是强人工智能。算力、算法、数据是人工智能三大要素,全部集齐才有爆发可能。由于以前算力、算法、数据总是缺一环、多数AI企业觉得通用人工智能不太可能实现,所以都做专用人工智能。我们前几年看到的人工智能应用,就象人脸识别、产品质量检测、语音输入、智慧停车等等,大多属于专用人工智能ANI,只能通过一套特定的算法,完成特定的任务。这些专用人工智能ANI,由该领域的企业提供服务,而这些算法并不公开,也不会开源。通用人工智能AGI,全称为Artificial General Intelligence。又称“强人工智能(Strong AI)”“完全人工智能(Full AI)”,是指具有一般人类智慧,可以执行人类能够执行的任何智力任务的机器智能。它能像人一样举一反三、触类旁通。同时它能理解文字,听得懂人的语言,看得见(摄像头)当前发生情景,与人类交流起来没障碍。遇到新任务时,还可以快速“想到”做过的相关事情并调用掌握的相关知识,创造性地解决问题、完成任务。通用人工智能的难度可想而知,由于通用人工智能AGI其具有广泛普惠性,并对人类社会有巨大影响,所以,通用人工智能大多会开源,这就给理解与跟进大模型,行业大模型、训练或微调企业大模型,成为后发红利,让企业AI员工、数字员工成为可能。从专用人工智能ANI,到通用人工智能AGI,到人工智能生成内容AIGC;这是人工智能行业重大进步。2016年谷歌的阿尔法GO打败李世石,曾经震惊了世界。围棋是人类最复杂的博弈游戏,这证明AI的智力超越了顶级人类,但这只是AI算力的成功,阿尔法go也是专用人工智能,除了下棋对我们没啥实际用途,很快就为大众遗忘。而Open AI公司2022年推出ChatGPT采用的是通用大模型,取名为聊天机器人,可以和人类对话。ChatGPT3.5具备了较高的智能和稳定性,聊天沟通的反响非常好,能生成高质量的内容,很多学生就用它来写论文了,员工也用写文案,真正普惠大众。2023年后推出的ChatGPT4.0具有多模态,就不仅仅是文字问答。也可以看图说话、数据推理、分析图表、角色扮演等,而且4.0考试成绩很高,相当于人类研究生水平了,生成内容水平,已经可以应用于企业的总结、分析、报告、培训等场景了。使用GPT4.0相当于用户有个研究生助理 ,GPT关键的是打通了AI通用人工智能的进化路线。让原来大家认为不可能的事成为了可能。2024年2月,OpenAI推出全新的生成式人工智能模型“Sora”, 文生视频,又叫世界模拟器,Sora可以根据用户的文本提示创建最长60秒的逼真视频,从提供的视频案例来看,Sora模型了解了不同物体在物理世界中的存在方式和运动规律,可以深度模拟真实物理世界,能生成具有多个角色、包含特定运动的复杂场景。这个能力不仅仅是对电影特效、短视频制作、广告传播等行业有颠覆可能,关键它标志了通用人工智能AGI在理解真实世界场景,并与之互动的能力方面实现了飞跃。新分叉的AI技术成熟度曲线对2023年上市的GPT3.5,李老师当时就做了战略环境研判、数字化增效、创新人才引进、总经理开年演讲稿、LOGO设计,广告词撰写、政协提案、竞争数据收集、自动编程、员工发展与培训等十个场景应用测试,参见《当前ChatGPT能为企业做什么?来看看这10个测试》。认为ChatGPT不应叫聊天机器人,而是AI转换器或智能问答器,建议企业要重视和利用起来,而新的GPT4.0又有了十倍的提升。李老师接着分析了通用大模型在AIGC上的应用效果及前景,以及ChatGPT与人形机器人结合,认为此次通用人工智能爆发不是资本泡沫,确实是第四次工业革命开启。李老师从技术成熟度曲线来分析,对于AI行业进化,短短的二三年,已经形成几次标志性分叉来,专用人工智能ANI、通用人工智能AGI、人工智能生成内容AIGC,将来还有华为的行业人工智能等。今后我们说到人工智能,就要特指某个具体AI,就像古猿分化出类人猿,真立人,智人一样,各自有不同的命运。对此,李老师有三点推论,一是通用人工智能成为AI新的发展主线,可以关注作结合应用,其肯定有泡沫有夸大,但前景可期;二是受三要素制约,通用人工智能很快会遇到瓶颈;三是在这个时间节点,由专业智能ANI转入通用人工智能AGI的,或蹭热点新成立的通用人工智能公司多半不会持久,尽量避免与之合作。为了更好的理解未来趋势,李老师介绍了通用人工智能的原理,并对AGI领军企业美国OpenAI的发展过程、商业模式和产品路线进行分析讲解。其产品ChatGPT是通用人工智能道路上阶段成功的典范,ChatGPT是生成式+预训练+Transformer自注意力神经网络架构的成功组合,通过在大规模语料库中进行无监督预训练,从而学习到语言的内在规律和模式,获得巨大的成功。与我们常见的程序员编程不同,AI的机器学习是让计算机通过算法,去识别模式、做出预测和决策。而机器学习又分为:有监督学习、无监督学习、强化学习:有监督学习算法会接受有标签的训练数据,算法的目标是学习输入和输出之间的映射关系,无监督学习的数据是没有标签的,算法的任务是自主发现数据里的模式和规律。强化学习则是模型在环境里采取行动获得结果反馈,从反馈里学习。就跟家长带小孩似的,刚开始的时候小孩子什么都不懂,会随心所欲做出很多举动,但随着家长和小孩的教育和互动,小孩会发现某些好的举动能够获得奖励或零食,有些不礼貌的动作会遭受惩罚,通过观察动作和奖惩之间的联系,小孩的行为会逐渐接近期望。深度学习是后面发展出来的,它使用人工神经网络模仿人脑处理信息的方式,通过层次化的方法提取和表示数据的特征。生成式AI或AIGC就是深度学习的一种应用,它利用神经网络来识别现有内容的模式和结构,学习生成新的内容,可分为DNN、CNN、RNN等(略)。大脑神经元与学习成长AI获得如今的成功,在于模仿人类大脑的神经网络。脑科学发现,人的大脑是由近千亿个神经元组成,主要用来储存信息、整合信息。小朋友在学习的时候,大脑是将看到或听到的信息,通过某一个神经元,把信息传递给另一个神经元,然后再接着传递给下一个,就像是接力赛一样。传的时候也不是一条路走到底,而是在不同神经元间不断传递。每一段神经元只走自己那一段,就形成特别复杂的神经网络。所以,人类学习过程很复杂,早期的婴儿是需要手把手教的,像监督学习一样,要指着物体告诉他这是爸爸,这是妈妈。这是猫,这是狗。当看到足够多的猫和狗后,小孩才会分类和识别。然后就是家庭和老师不断监督学习和强化学习,以训练和培养小孩的智能。当学习复杂的知识或者问题时,小孩用到大脑神经元就越多,这样信息传递的时候,通路就越复杂,而且刚刚走通的连接,再走一遍的话,神经元连接的位置又会变掉,这就是小朋友刚刚记住的东西老会忘掉,前面学过的东西,现在又回忆不起来原因。这个神经元到那个神经元传递的路线发生变化了,化学信息传不过去了。这时候我们就利用重复强化,要求小朋友重复再来一遍、紧接再来一遍,多次重复以后,相当于告诉大脑,这个知识不是一次性,下次还要再走的,这时候大脑就开始重型结构性的调整,把这几个神经元连接起来,形成一条专线给小孩。拉通专线后就快多了,下次遇到这个问题的时候,大脑就直接反应过来。就像我们问3X7得多少?答案21不是算出来的,而是大脑直接在一条专线上回答了这个问题,这也是学习大量刷题有效的原因。通过重复和刻意练习可以改善神经元之间的连接,对成年人来说,当我们反复练习某项任务时,大脑的神经元会更有效地传递信息,这并不是肌肉记忆,而是形成神经元连接专线。这样,通过刻意练习,成年人可以更快、更准确地执行任务,并提高技能水平。小孩子到3岁开始自我意识萌芽,6-12岁性格发育开始成熟,初中、高中、大学都可以看作是有标注数据的预训练,帮助孩子形成足够的神经元连接专线,成为小镇作题家。而孩子的社会交往、阅读与上网等无监督学习,则形成他们自己的独特看法和三观,这是多样性和差异来源。关于人类的深度学习,李老师认为,可能是通过写论文搞研究或深度思考,在复杂的理论框架下,不断扩展我们思考的层次,从而对复杂事物进行分析、演算、推理、预测,最终才生成创新想法或结论。人工智能的神经网络,也是由许多基本的计算和存储单元组成,这些单元被称为神经元,这些神经元通过层层连接来处理数据,深度学习模型通常有很多层,GPT3有96层,GPT4就达到120层。算力的硬件投入更是巨大。以早期GPT3.0为例,3.0就用28万5千个CPU、1万个GPU和400Gbps的网络连接组成的Al超级计算机,而要训练这个超级大脑中的神经元连接,则需要预训练海量的数据内容,比如GPT3.0就将大量书籍、全部的维基百科、新闻、论坛及社交媒体内容等等总计3000亿文本单位,经过大量训练,确定适当1750亿参数,神经元和权重偏制,从而学习到语言的内在规律和特征,海量的人类数据喂养了ChatGPT,它学习到人类语言的内在规律和模式。ChatGPT 生成与输出原理大致是这样,通过预训练,GPT3.0有了各种参数与权重,就可以根据用户输入的上下文信息,尽可能地预测出下一个词的正确值。GPT预测出的下一个词主要是依据预训练得到的概率分布。它可以选择概率最高的词,也可以根据概率分布进行随机选择,选择出下一个词后,GPT将这个词添加到用户输入信息的末尾,然后重复上述过程,直到生成一个完整的句子或一段话。GPT3.0由于数据来源和数据量的原因,还只是人类普遍的看法,生成文本质量就有点象刚毕业大学生,生成内容有点用但比较空泛。由于ChatGPT4.0预训练数据更大,参数更多,通过预训练,就能获得社会各种类型人群的看法、语言特征和概率分布,ChatGPT4.0学会角色扮演,学会了人类根据不同场景、不同对象和不同诉求,“见人说人话,见鬼说鬼话”, 它可以心理医生、面试官、人生导师、专业顾问等等角色出现,并展开高层次高质量对话。通用人工智能将弥补人类智能,比如目前企业遇到的经营问题,首先是老板的算力不够了,就像老板要制定今年的销售增长目标,既要考虑市场容量、行业平均增长率、又要考虑竞争对手的增长速度、还要考虑本企业前几年的历史增长,还有团队成长潜力、公司资源财力等等,很多假设条件不能确定,能定准目标的老板极少,多数想破头最后还是拍脑袋。其次是以前的成功经验失效了,面对复杂的经济环境,原来老板认知的规律和模式发生了巨大的变化,用户需求、政府政策、供应链到底发生了什么变化?而认识人类的内在规律和模式,恰恰是通用人工智能的长项,只要有最新的数据,它就能识别出这种变化。通用人工智能可以辅助公司的决策,还有公司的战略和商业模式创新等等。我们培养一批人类的孩子智力需要几十年,而AI训练一次仅仅需要几周或者几个月,目前的gpt4.0考试中表现已经超过了90%以上的人类,根据GPT已经探出的成功路径(生成式+预训练+Transformer自注意力神经网络架构),其他各大企业的通用人工智能大模型必然爆发起来,这才是AGI未来巨大的前景。由于通用人工智能与人类大脑原理相似,随着投入越大,神经元越多,这就有些让人担心了,AI进化的速度太快,会不会产生自我意识,会不会对人类构成威胁。有一种说法,人是碳基生命,而人工智能是硅基生命。人工智能一定会替代人类。对此,李老师的看法大可不必担心:AGI目前是没有威胁的,当达到一定的神经元连接以后,AI可能会产生自我意识,其可能像我们的孩子一样,有青春期叛逆期,但不一定会对人类敌意或伤害,也可能会形成一种有益的共生关系。其次,人类也有预防的方案,首先超级AGI需要巨大的算力与联接,其次需要巨大的能源,人类完全可以断电拔管。另外通用型人工智能本身有很大的数据量,本体也很难逃出人类硬件设施。其他措施也有,马斯克用AI对抗AI,也是一种有效的方法。李老师简要介绍了我国各大企业布局的各模态AI模型进展,以及华为盘古大模型架构,并对通用人工智能有以下几点推论:一、通用人工智能是超级武器,投入巨大,利用它来干什么,肯定不只是做聊天或生成视频,比如用它来赢得美国总统大选,操纵股市期货、在军事领域,建立天网、做无人驾驶之类。二、通用人工智能新的产品将很快应用于企业 ,形成降维打击的竞争力,需要企业做好大量数据准备。三、AIGC只是通用人工智能的一个应用分支,生成内容已经达到商用标准,企业要尽快拿到这部分红利。其后,李老师分析了AIGC产业图谱、AIGC商业落地机遇, AIGC在各行业的应用场景,并与管理团队探讨如何利用这些技术会对企业提效。李老师进一步分析通用人工智能、特别是AIGC会对哪些岗位造成冲击,认为AGI、AIGC等新一代数字技术会减少一些职位需求,而不是取代,本质上是掌握AI技术的人取代了没有掌握AI技术的人。所以应对AIGC的挑战,管理者要未雨绸缪,及早学习准备。如何利用AIGC、 RPA机器人流程自动化等新技术,帮助企业降本增效,提高自己职场竞争力,请参看下一章。
-
盘古大模型应该如何集成到应用中?
上滑加载中
推荐直播
-
TinyEngine低代码引擎系列.第1讲——低代码浪潮之下,带你走进TinyEngine
2024/11/11 周一 16:00-18:00
李老师 高级前端开发工程师
低代码浪潮之下,带你走进TinyEngine。李旭宏老师将从低代码的发展趋势、TinyEngine的项目介绍,三方物料组件的使用、跨技术栈的使用、源码生成能力的差异性对比等多个方面带大家对TinyEngine低代码引擎有一个更清晰的认知和了解。
即将直播 -
0代码智能构建AI Agent——华为云AI原生应用引擎的架构与实践
2024/11/13 周三 16:30-18:00
苏秦 华为云aPaaS DTSE技术布道师
大模型及生成式AI对应用和软件产业带来了哪些影响?从企业场景及应用开发视角,面向AI原生应用需要什么样的工具及平台能力?企业要如何选好、用好、管好大模型,使能AI原生应用快速创新?本期直播,华为云aPaaS DTSE技术布道师苏秦将基于华为云自身实践出发,深入浅出地介绍华为云AI原生应用引擎,通过分钟级智能生成Agent应用的方式帮助企业完成从传统应用到智能应用的竞争力转型,使能千行万业智能应用创新。
去报名
热门标签