-
华为云有没有提供针对个人的,免费的大模型Key(每日有限次数的也行啊)
-
在预算一体化平台的业务架构和功能架构搭建之后,随着AI架构逐步运行起来,慢漫开始出现了幻觉,这是模型泛化能力不强导致的。这需要开始优化AI架构,增强模型泛化能力,减少模型幻觉。这需要聊到AI架构依赖的平台和工作间环境。AI架构模型如何逐步从一个一个的模型算子,组合起来变成一套整体功能的模型,实现独立的预测功能。算子有五个,通过流水线部署的方式,部署到工程平台上,MA平台部署的算子都是独立,之间没有关联起来。之前谈过chatflow,这是一个MA平台的流程工作间,有了它,我们就可以把算子关联起来。我们先把算子跟训练数据集关联起来,训练数据库是存储在数仓里,上一回谈到数仓都是存储格式内容相对统一的数据,这里都是存放预算管理的训练数据。模型输入了训练数据集后进行计算,模型采用了稀疏数据间插的算法,计算出每天的预测结果,通过曲线把未来30天的预测结果显示在图表上。这些解析出来的结果要存储在数仓里,这也是依赖上回谈到数据架构。到这里你就会明白平台数据架构为什么要这样设计了。在云平台上,数据架构存储空间会换成OBS,也就是桶,五个算子的结果会存放在同一个桶中,这个桶命名为预算管理模型训练桶。这个OBS容量设计,我们预留了10T的空间,由于模型训练数据量比较大,通常要1000份数据作为训练数据集,根据2/8原则,还要预留250份数据作为测试数据集,共1250份数据集。经过了平台和工作间的再训练,模型的幻觉减少了,原来识别精度只有1/6,训练后加强到1/12.5,这样的精度基本满足的预算的工作要求。 我正在参加【案例共创】第1期 书写云产品应用构建开发最佳实践/评测,共创官方文档https://bbs.huaweicloud.com/forum/thread-0217170307934787108-1-1.html
-
在预算一体化平台的业务架构和功能架构搭建之后,随着AI架构逐步运行起来,慢漫开始出现了幻觉,这是模型泛化能力不强导致的。 这需要开始优化AI架构,增强模型泛化能力,减少模型幻觉。这需要聊到AI架构依赖的平台和工作间环境。AI架构模型如何逐步从一个一个的模型算子,组合起来变成一套整体功能的模型,实现独立的预测功能。算子有五个,通过流水线部署的方式,部署到工程平台上,MA平台部署的算子都是独立,之间没有关联起来。 之前谈过chatflow,这是一个MA平台的流程工作间,有了它,我们就可以把算子关联起来。我们先把算子跟训练数据集关联起来,训练数据库是存储在数仓里,上一回谈到数仓都是存储格式内容相对统一的数据,这里都是存放预算管理的训练数据。 模型输入了训练数据集后进行计算,模型采用了稀疏数据间插的算法,计算出每天的预测结果,通过曲线把未来30天的预测结果显示在图表上。 这些解析出来的结果要存储在数仓里,这也是依赖上回谈到数据架构。到这里你就会明白平台数据架构为什么要这样设计了。 在云平台上,数据架构存储空间会换成OBS,也就是桶,五个算子的结果会存放在同一个桶中,这个桶命名为预算管理模型训练桶。 这个OBS容量设计,我们预留了10T的空间,由于模型训练数据量比较大,通常要1000份数据作为训练数据集,根据2/8原则,还要预留250份数据作为测试数据集,共1250份数据集。 经过了平台和工作间的再训练,模型的幻觉减少了,原来识别精度只有1/6,训练后加强到1/12.5,这样的精度基本满足的预算的工作要求。
-
咨询项目调研完,客户提出一个问题:为什么不开发一个台风预测模型? 它既用于地质领域。既可以保护人身安全,也可以避免台风带来的山体滑坡自然灾害发生,减少经济损失。在地质一体化平台上要开发这个台风预测模型,有一些共同的特点:首先要有一个厚重的云底座,底座上有强大的平台能力和数据存储能力,云数据库;除此之外,计算能力都非常强大,依赖于强大的计算硬件平台提供的算力,台风模型才可以迅速计算出台风相似路径的预测结果。经过前期业界的了解,我们在项目中初步画出了云平台和台风模型二者之间的架构轮廓:上层应用是应用平台,调用中台的台风模型,模型层之下是坚实的平台能力,包括云平台和数据平台,AI工程平台;平台依托在下层的硬件平台之上,包括强大的计算平台、海量存储能力、高速网络和牢靠的安全能力。依据这个轮廓,我们通过调研获悉,院内有地质云平台,但版本比较旧,3.0版本,很多高阶服务还不支持;还有院内各业务部门和上下级机关单位多年存储的业务数据,我们惊奇的发现这些数据非常宝贵,直接可以用来训练模型,存储量达15T之多。众所周知,大模型训练至少需要10000份数据,地质数据分为两类:调查文献资料和勘探地形地貌的GIS数据或向量数据。调研之后就是着手开始写架构规划了,下回咱继续聊。我正在参加【案例共创】第1期 书写云产品应用构建开发最佳实践/评测,共创官方文档https://bbs.huaweicloud.com/forum/thread-0217170307934787108-1-1.html
-
咨询项目调研完,客户提出一个问题:为什么不开发一个台风预测模型? 它既用于地质领域。既可以保护人身安全,也可以避免台风带来的山体滑坡自然灾害发生,减少经济损失。 在地质一体化平台上要开发这个台风预测模型,有一些共同的特点:首先要有一个厚重的云底座,底座上有强大的平台能力和数据存储能力,云数据库;除此之外,计算能力都非常强大,依赖于强大的计算硬件平台提供的算力,台风模型才可以迅速计算出台风相似路径的预测结果。 经过前期业界的了解,我们在项目中初步画出了云平台和台风模型二者之间的架构轮廓:上层应用是应用平台,调用中台的台风模型,模型层之下是坚实的平台能力,包括云平台和数据平台,AI工程平台;平台依托在下层的硬件平台之上,包括强大的计算平台、海量存储能力、高速网络和牢靠的安全能力。 依据这个轮廓,我们通过调研获悉,院内有地质云平台,但版本比较旧,3.0版本,很多高阶服务还不支持;还有院内各业务部门和上下级机关单位多年存储的业务数据,我们惊奇的发现这些数据非常宝贵,直接可以用来训练模型,存储量达15T之多。众所周知,大模型训练至少需要10000份数据,地质数据分为两类:调查文献资料和勘探地形地貌的GIS数据或向量数据。 调研之后就是着手开始写架构规划了,下回咱继续聊。 欢迎点赞原文和关注公众号“科技江河”,如果喜欢,欢迎打赏,感谢。
-
它山之石可以攻玉!模型需要训练和调试,众所周知。 在不同平台上,开发部署训练调试模型,所经历的过程是不一样的。这里我们介绍一下在国内五彩斑斓的云环境下如何“借鸡下蛋”。在2017年,国内云市场不如现在百花齐放,云的概念还没有普及。在Z市台风模型一体化平台上曾经借助OWS云开发环境,开发业务模型,这是当时为数不多在国内企业B端市场上活跃的一朵云。有公有云和私有云两种场景,这里介绍这个平台的开发模式,供读者参照对比。当时私有云部署不多,硬件平台也不具备条件,大多数企业采用公有云开发,在公有云上训练模型算法。项目平台基本的业务架构和AI架构都已设计好后,接下来就是逐步搭建云平台能力,让AI模型运行起来。首先配置平台,这是AI模型配置部署运行流水线。 配置有两种形式,一种是在华为云私有云部署配置,适用本地数据不允许外发到互联网的场景;一种是数据外发到华为内部,在内部云上进行模型部署配置。这是集众多AI模型功能于一体的平台,本咨询项目涉及到AI Galley和流水线。流水线要配置数据处理全周期,数据选型、数据清洗和数据存储三部分。数据选型是对AI模型的训练数据和测试数据进行选型,这个功能提供了用户选用地质数据的范围,并且按照理论化的配置,80%用于训练,20%用于测试。这个基础上,再设计模型数据的分类,数据选型前就已经搭好数据湖设计,则按地质业务,训练数据分为图表和文字这两类结构化数据,这是由于当时云环境还不支持非结构化数据。
-
上回我们谈到AI模型的两大基石之一,云能力,而云能力分为边缘计算能力和PAAS层中心能力。在咨询项目中,如何构建PAAS层中心能力。从当时地质业务需求来看,中心层能力是大模型计算的核心能力,依赖机房的计算存储平台,大模型可以按需运算并预测结果。 由于部署了台风预测模型,业务侧需要分钟级输出未来30天的预测结果,每分钟计算资源要非常充足。因此,给每个因子每个场景配置了4VPU,128flop/VCPU;由于地质勘查图片量非常大,要一分钟内分析上千份图片,因此计算速度用最快的NPU,9XX型号的算力卡,20张/秒的分析速度,1200张/分钟。有了超级快的计算能力外,还要有海量的存储单元,分为块存储、文件存储和缓存三种类型。其中块存储的空间需求最多,因为它非常灵活,可以存放多种格式的数据;按10M/图片来计算,块存储空间预留500T空间,存储15年的图片数据。 硬件平台讲了这么多,其实都是为PAAS层能力服务。为了让业务侧具备自主编程和调试台风预测模型的能力,PAAS层配备了微服务流水线的能力,codearts, 微服务架构。这也是因为地质行业数据是保密数据,不允许外发到专有云外,因此必须在本地训练。同时业务场景层出不穷,目前只是梳理了5种场景:全球场景、局部场景、自然灾害场景、山体滑坡场景和泥石流场景。未来模型应用的场景会逐步增多,新场景除了模型泛化能力支持外,还要进行算法调优或RAG等技术辅助。欢迎点赞和关注公众号“科技江河”,如果喜欢,在公众号打赏下呗,感谢华为云App
-
在这次技术咨询项目中,AI架构的设计,让台风预测模型这项人工智能技术首次在地质领域应用。引入大模型,可不是简单的上层模型添加进来,而是一项系统工程。 台风模型是小模型,在需求分析阶段,就要先搜集台风模型采用的算法和了解模型预训练的数据集,这是模型的大脑和成长养分。台风模型的算法,主要是知识图谱的关联算法。在以往的台风路径中,把一张张图片打上标识并分析两张图之间的相似量。比如在浪高10米的台风图片中,有几张台风的轨迹坐标都非常相似,符合这些要素的台风就是相似台风,把共性路径坐标抽取出来,形成一条路径。新的台风来临,如果要素跟这条路径相似,那预测这个台风下一步的轨迹也会大致沿着路径前进。 为了让算法能顺利发挥作用,它需要训练,为此我们把院内以往积累的台风预警报告文件都发给了模型,但这是非结构化数据,模型还不能完全读懂,因此模型外还做了一个应用服务,跟院内每天台风预测信息系统对接,获取当天的人工数据。 此系统是院内早些年搭建的应用系统,国内所有省份每天都会进行气象会商,通过原始却有效的方法,人们进行着年复一年,日复一日的协同交流工作。这就像没有发明对讲机以前,村里通讯基本靠大喇叭;没有大喇叭以前,基本靠跑动交流...... 然而,人会疲惫,机器不会。这些结构化数据读取后,模型就会慢慢累积历史上本地经过的台风活动的轨迹、风力、浪高、风向.......这是自我学习的过程。除了这模型本身,下层依赖的Model Art平台,下回我们接着聊它是如何支撑台风模型实战。欢迎点赞原文和关注公众号“科技江河”,如果喜欢,欢迎打赏呗,感谢。
-
上次跟客户单位讨论台风模型的工作流程,客户是地质专家,对业务非常熟悉,可是一直认为我们的台风模型不符合业务流,对模型在训练阶段前稍微做了些定制,发现对模型应用非常有帮助。 模型在投入新应用前,有三个阶段:微调、预训练和训练。 客户对模型微调有一些改动,提出用全参调试。他指定了要用的关键参数,风力、浪高、有效波高、路径......在地质院每天会商会议上,各省市主要核对的也是这些参数。客户对参数做了一些阈值预设。 指定了参数后,还有预训练,这里涉及训练数据集和算子。 台风的训练数据是以往历史台风记录,而验证数据集则选定最近会商发布的台风记录。算子是一种逻辑算法,也就是教会计算机认识这些数据集,训练数据集之间有什么关联。算子也分为几种台风,例如海上产生的台风、大陆产生的台风等,每一种类型都有不同的算子。 进入训练阶段,就要开始跟云平台关联了。云平台是一种能力平台,上面有各种各样的OBS桶,有大的,有小的,有适合装文件数据的,有适合装图片数据的......台风记录通常是文件文档,因此选择大的适合装文件数据的OBS桶。这个桶就是在存储台风模型训练过程中产生的数据,以及训练后模型输出的结果数据。 台风模型后,就是具备一定分析推理能力的智能体,但上面说过,还要配置一定的业务流程才能让智能体更适合业务使用。业务流程在Model Art的studio中调试,这个平台可以进行流程改造,让台风模型输出相似路径后可以直接嵌入各种场景中使用,Model Art studio就像一个工作间,可以在这里创造和定制模型。
-
大模型及生成式AI对应用和软件产业带来了哪些影响?从企业场景及应用开发视角,面向AI原生应用需要什么样的工具及平台能力?企业要如何选好、用好、管好大模型,使能AI原生应用快速创新?本期直播,华为云aPaaS DTSE技术布道师苏秦将基于华为云自身实践出发,深入浅出地介绍华为云AI原生应用引擎,通过分钟级智能生成Agent应用的方式帮助企业完成从传统应用到智能应用的竞争力转型,使能千行万业智能应用创新。直播链接:cid:link_0Q:面对行业竞争加剧,华为云AI原生应用引擎如何不断优化算法以提升智能应用的精准度和效率,从而为企业在市场中赢得更大优势?A:持续发展繁荣生态,接入业界主流大模型;通过项目经验和伙伴协同,沉淀行业资产;聚焦业界主流趋势和技术发展,落地多种编排方式和编排能力;通过模型能力+RAG工程能力+编排能力+知识循环机制+资产沉淀形成合力,共同助力AI应用效果最佳。Q:对于那些对0代码构建AIAgent感兴趣的开发者,您有什么建议或资源推荐?A:基于大模型的0代码开发更适用于业务人员或者初级开发者,理解工具、技能、插件、知识库、RAG能力、工作流、记忆等概念,关键是懂得业务流程和Know-How,通过技术与业务的组合,就可以实现最佳匹配业务场景的各类AI应用。Q:华为云AI原生应用平台如何降低开发难度?A:AI原生应用引擎平台提供开箱即用的工具、可自由灵活编排的工作流、知识库及其开放的、可编排的RAG工程能力、知识检索流、记忆能力等众多可视化,可编排的能力 ,让AI业务人员也可以通过这些可视化的工具能力,快速完成场景应用的编排开发。Q:在设计AI原生应用引擎时,您是如何考虑系统的可扩展性和灵活性的?A:整个系统是基于模块化构建的,每个模块功能相对解耦及可扩展,可独立进行技术演进和生态发展,各个模块通过业务流串联在一起,客户可方便快速地完成业务场景应用的构建。如果业务流上某一个节点要更新,也可以单独更新。Q:随着企业数字化转型的深入,对于那些拥有众多历史悠久且复杂的遗留业务系统的大型企业,华为云AI原生应用引擎在整合和优化这些系统,实现与新的智能应用的无缝对接和协同工作方面,具备哪些独特的技术能力和解决方案?A:AI原生应用引擎提供了API-Hub,不仅托管了数万+行业API,也支持企业托管私有场景API,这些API可以无缝集成到AI Agent应用中,实现存量应用于新智能应用的协同;API-Hub作为一站式API生命周期管理平台工具,提供了丰富的能力和可靠性。Q:从实践角度看,0代码智能构建AIAgent的可扩展性如何?是否可以方便地根据业务的发展进行扩展和升级?A:0代码构建AI Agent,仍然支持进行更复杂的功能业务的可视化编排,以集成更多的周边工具以及匹配复杂的业务场景。Q:0代码构建AIAgent的技术原理是什么?A:通过平台预置的大模型,根据用户的一句话输入进行Agent定义扩写,并自动为agent选择平台中合适的工具、知识库等,自动生成可用的Agent应用。当然,也支持通过LUI界面实现复杂的业务定义,而无需任何编码。Q:在当前复杂多变的国际商业环境中,华为云AI原生应用引擎如何协助跨国企业应对不同国家和地区在数据主权、隐私法规、行业标准等方面的巨大差异,以确保其在全球范围内的应用开发和部署能够顺利进行并且完全合规?A:可以参考华为云官网相关说明: https://www.huaweicloud.com/about/global-infrastructure.html AI原生应用引擎遵照华为云的全球布局及相关合规性遵从规定。Q:华为云AI原生应用引擎如何处理大规模数据和复杂计算任务?A:简单来说,AI原生应用引擎默认集成了华为云PaaS层的大数据服务以及函数计算等服务,可以处理非常大规模的数据及计算任务;这些底层组件对开发者是透明的、免维护的。Q:华为云AI原生应用引擎支持哪些类型的AI应用开发?A:政务、办公、金融、交通、煤矿、电商、医疗、教育等众多行业的复杂场景AI应用皆可支持。Q:华为云AI原生应用引擎如何帮助企业在数字化转型过程中实现业务流程的优化和再造?A:所有数据数字化,所有业务AI化,根据企业业务的具体场景,提供合理的解决方案,通过AI赋能人,AI赋能事,可以做到企业资产沉淀规划范化,业务效率提升,达到降本增效。Q:华为云AI原生应用引擎在安全性和隐私保护方面有哪些措施?A:针对数据安全、模型安全、内容风控、应用安全,建立四道防线,通过数据合规治理、模型安全对齐、安全评测、大模型安全护栏等AI安全可信治理策略,保障客户隐私数据安全。Q:平台是否支持与现有的企业系统或第三方服务集成?A:支持。资产中心可以上架所有三方的服务和资产,包含但不限于AI应用、数据集、工具、大模型、提示词模版等。Q:华为云AI原生应用引擎在实际业务场景中的应用案例有哪些?A:知识问答、电话咨询、病情筛查、数据查询、售后咨询、技术支持等。Q:在保障应用的高可用性和容错性方面,华为云AI原生应用引擎采用了哪些创新的技术手段?A:简单说分两层,一,AI原生应用引擎所依赖的华为云服务,都采用了多AZ、或者多Region的高可靠、高可用部署架构;二,AI原生应用引擎自身的微服务采用了双AZ的高可用架构;因此,无论是平台自身,还是托管的AI Agent应用,都可以获得高可用及高可靠的能力。Q:华为云AI原生应用引擎如何促进企业内部不同团队(如开发、运维、业务)之间的高效协作?A:通过不同团队、不同项目之间的架构设计和权限管理,可实现关键资产隔离,公共资产共享,所有业务流程数字化和智能化,高效协同。Q:华为云AI原生应用引擎在哪些具体的行业和业务场景中得到了实践应用?A:政务、办公、金融、交通、煤矿、电商、医疗、教育等众多行业中落地了知识问答、电话咨询、病情筛查、数据查询、售后咨询、技术支持等场景。Q:对于没有编程背景的用户,如何快速上手使用这个平台?A:不需要具备传统编程技能,但需要了解和掌握面向AI开发的工具、技能、插件、知识库、RAG能力、工作流、记忆等编排能力的使用,关键是了解业务场景的业务流程,就可以编排出契合实际业务场景的复杂AI应用。Q:华为云AI原生应用引擎的技术架构是怎样的?它如何支持0代码开发?A:通过平台预置的大模型,根据用户的一句话输入进行Agent定义扩写,并自动为agent选择平台中合适的工具、知识库等,自动生成可用的Agent应用。当然,也支持通过LUI界面实现复杂的业务定义,而无需任何编码。Q:平台计划引入哪些新的功能或技术来进一步提升用户体验?A:优化界面的使用体验,提升RAG工程能力,增加模型评测能力,增加Agent编排的技能。Q:对于具有高度定制化需求的企业,华为云AI原生应用引擎如何实现个性化配置与规模化推广的平衡?A:针对不同类型的客户,制定几套合理平衡的解决方案,满足客户需求,达成项目交付。Q:在数据隐私法规日益严格的背景下,华为云AI原生应用引擎如何协助企业进行合规性审计和风险评估?A:AI原生应用引擎目前集成了华为云终端安全风控能力,能够对Agent输出内容进行安全过滤。后续规划“3+1”AI应用安全体系,确保合规准入、安全生产Q:在AIAgent的开发过程中,有哪些常见的性能瓶颈和解决方案?A:AI Agent性能瓶颈分为两层,其中大模型侧的回答是关键因素,也是各大模型厂商的重要命题。作为AI Agent平台,AI原生应用引擎提供SLA级保障,通过Agent的独占资源部署,保证在大模型响应外能够做到随时扩缩容以保证性能。Q:现在AI大多数文字方面的,有没有图片识别方面的AI。比如做智能货柜。能否通过华为的Aiagent通过摄像头来判断用户的价格A:AI原生应用引擎目前已经接入了少量的多模态大模型,后续会接入更多主流多模态大模型,应用形态上也会考虑图片理解等多模态场景Q:现在AIagent,除了问答,生成图片和声音。还有没有什么能完全代替人工完成某一项工作的具体应用,而不是单纯的辅助人工的工具。A:目前和慧通差旅有做订酒店的Agent,能够自动根据差旅单帮助预定酒店,但过程中还是需要人的参与,譬如最终的确认阶段。Q:开发者如何扩展或定制AIAgent的功能以满足特定需求?A:开发者可以基于AI原生应用引擎提供的API和SDK,灵活定制。Q:在模型训练过程中,如何利用华为云AI原生应用引擎的分布式架构提高效率?A:AI原生应用引擎不涉及模型训练,而是提供模型之上的AI Agent应用的开发。Q:华为云AI原生应用引擎如何确保用户数据的安全性和隐私保护?A:AI原生应用引擎目前集成了华为云终端安全风控能力,能够对Agent输出内容进行安全过滤。后续规划“3+1”AI应用安全体系,确保合规准入、安全生产。Q:对于行业新进入者,华为云AI原生应用引擎能提供怎样独特的支持来帮助他们快速适应市场?A:首先提供极低门槛的Agent构建能力,其次提供开箱即用的问答问数服务,配合专业服务直接帮客户搞定场景。Q:如何与合作伙伴共同推动AI原生应用的创新和发展,实现互利共赢?A:不断扩展模型伙伴、Agent伙伴、数据伙伴及ISV伙伴,丰富生态的同时,制定完善的商业机制,保证伙伴能够获利。Q:华为云AI原生应用引擎如何帮助企业提升用户体验和客户满意度?A:通过赋能企业创建不同业务场景的助手,提升企业客户的体验和满意度Q:华为在AI领域的未来发展规划都有什么,特别是在0代码智能构建方面?对于想要进入AI的企业和个人,华为能提供哪些服务帮助我们更好的使用AI,有哪些建议和指导?A:AI原生应用引擎最主要的目标就是帮助企业和个人实现0代码智能构建Agent。对于想要进入AI的企业和个人,AI原生应用引擎同样提供多样的专业服务,手把手教学。Q:对于数据量巨大且实时性要求高的应用,华为云AI原生应用引擎的优势在哪里?A:AI原生应用引擎底层使用华为云数据库,天然具备巨大数据量的处理能力。同时AI原生应用引擎提供Agent的独享资源部署,提升Agent性能。Q:华为云AI原生应用引擎如何确保在不同网络环境下的稳定运行和高效性能?A:AI原生应用引擎当前支持华为公有云、华为云Stack等运行环境,未来也将支持云、边、端的协同分布式部署架构。Q:华为AI原生应用引擎有哪些开放平台?如何选择合适的大模型?A:支持API、SDK开放。AI原生应用引擎支持大模型调测,可以直观体验大模型的不同效果。目前正在集成华为内部使用的模型评测系统,帮助客户选好大模型。Q:华为云AI原生应用引擎在未来发展中面临的挑战和机遇都有哪些?如何利用挑战和机遇更好的发挥华为云的优势?A:任何产品在发展的过程中都会面临各种的挑战,且不同阶段对应的关键挑战也不一样,产品的迭代也是不断面临挑战和应对挑战的过程,当然面临挑战同时也伴随着机遇,当前AI原生应用引擎主要挑战是协同伙伴或客户找到AI价值场景并通过产品实现行业的ChatGPT时刻。华为云经过多年的行业耕耘,积累了大量的行业伙伴和客户,有丰富的行业Know-how,在当前AI这个浪潮之下,企业都将面临的一次重大的转型与升级的机遇,我们将持续协同伙伴和客户,通过AI重塑行业应用。Q:华为云AI原生应用引擎如何支持企业进行敏捷开发和快速迭代?A:AI原生引用引擎在产品设计上一直秉持做产品把困难留个自己,把方便留给客户的理念;产品定位就是AI应用的一站式开发平台,比如:模型的选择切换无感,开放的工具集成,便捷的工作流编排等等特性,未来还将持续构建Agent for Agents能力,更敏捷,更快速支持业务的应用创新与迭代。Q:华为云AI原生应用引擎如何与其他云服务提供商的产品进行互操作和集成?A:华为云AI原生应用引擎引擎产品架构就设计是开放的,如模型的统一汇聚与开放,工具接入与开放等,我们与其他云服务厂商的集成合作也是开放的态度,只要有利于业务,有利于客户都可以集成与开放。Q:华为AI原生应用引擎中Loss曲线有什么作用?A:loss曲线是评估模型训练效果Q:华为AI原生应用引擎中ClickHouse有什么功能?A:主要是大宽表多维聚合分析功能,实现亚秒级响应。Q:企业应用大模型及生成式AI时,需要注意哪些安全问题?A:安全是一个基础的必备能力,当前主要会面临内容安全(含提示词攻击),数据安全,模型安全,应用安全等问题。Q:推理和训练的话,数据量过大,有什么好的解决办法?比如speech这样的,多卡910b有环境吗?A:业界根据业务的实际情况有不同的解决办法,有的大力出奇迹,算力换时间,有的数据先转化为有效知识等,910b环境,可以与华为的昇腾云团队接洽。Q:华为云AI原生应用引擎在促进企业间合作与生态建设方面发挥了怎样的作用?A:华为云AI原生应用引擎一个关键使命就是生态建设,从应用视角出发,使能企业客户选好,用好和管好大模型,聚合生态,赋能企业,可以说起到了一个关键的桥梁作用。Q:华为云AI原生应用引擎在处理大规模数据时的性能如何,如何保证高可靠性?A:华为云AI原生应用引擎采用华为云大数据底座,具备多个行业海量数据的处理实践,在金融,政府等多个行业都有成功应用。Q:在架构上是如何设计来确保不同模型之间的兼容性、高效调用以及资源分配的合理性?A:基于微服务、Serverless等框架实现业务隔离,资源按需弹性伸缩等能力Q:华为AI原生应用引擎能提供哪些模型管理服务?A:AI原生应用引擎会汇聚业界主流的模型,年底会实现100+模型的汇聚,同时会提供部分模型的托管。Q:大模型如何解决数据量有限带来的局限性呢A:不可否认,数据是大模型应用的最关键的输入,所谓NO DATA,NO AI。如果有局限性需要考虑如何小步试跑,把知识飞轮构建起来。Q:在使能千行万业智能应用创新方面,华为云AI原生应用引擎如何解决不同行业之间的差异和特殊需求?A:我们一般把需求区分为产品需求和解决方案需求,产品需求一般是通用共性可复制的需求,解决方案需求一般跟贴近行业场景;不同的需求不同的处理策略,主要是做好开放性,产品客户适配各种特殊场景。Q:华为AppStage与AI原生应用引擎平台有什么关系?A:AppStage是云原生应用的开发平台,AI应用也是应用的一种形态,可以理解AI原生应用引擎是AppStage的一个产品模板。Q:华为云AI原生应用引擎由哪些主要的组件或模块构成?这些组件之间是如何相互协作以实现整个引擎的功能的?A:AI原生应用引擎主要包含5大功能模板,包括模型中心,知识中心,编排中心,资产中心和安全中心,五大模板基本涵盖了AI应用开发的全生命周期管理。Q:大模型相关的训练需要哪些步骤才可以完成?A:业界一般要区分基础模型,行业模型和领域模型三种场景的训练,对应的节奏和步骤都有不同。Q:华为云AI原生应用引擎在助力企业转型过程中,如何平衡创新速度与应用稳定性之间的关系?A:速度与稳定性一直是一个重要的权衡点,我们一般常用的处理方法是区分创新态与运行态,创新态速度优先,运行态稳定优先。Q:请问老师哪些类型的应用亟需AI重构?或者说我们的机会在哪类应用?A:未来所有的AI应用都值得用AI重构一遍,我们也总结归纳了选择价值应用的方法,从商业价值,场景成熟,可持续运营角度来分析,如果你有场景可以找我们的产品一起评估一下;当前普遍认为开发者在2B的场景应用机会很多。想要了解 0代码智能构建AI Agent 更多相关知识,欢迎观看DTSE Tech Talk 系列技术直播
-
中奖结果公示感谢各位小伙伴参与本次活动,欢迎关注华为云开发者社区技术直播更多活动~本次活动获奖名单如下(部分抽奖未填问卷用户无账号名):账号名 奖项名称 奖品名称 备注持久观看有奖华为云云宝手办-盲盒款持久观看有奖华为云云宝手办-盲盒款
-
想知道如何快速部署大模型并进行AI应用敏捷开发吗?华为云ModelArts+开源Dify平台了解一下?本期直播将聚焦华为云ModelArts模型开发平台,并通过Dify平台实现模型调用和AI应用开发。用户无需懂代码,分钟级即可完成模型在线训练、微调、推理、部署上线,并可以通过Dify开源平台实现场景应用快速搭建、测试与落地应用。AI开发效率提升2-3倍,加速推动企业数智化建设,辅助经营发展。直播链接:cid:link_0Q:Dify可以混合着用吗,比如文本生成和图片生成?A:目前DIFY暂时不支持图片生成类模型,不过后续应该会更新加入相应的功能。Q:在使用华为云ModelArts+Dify AI进行开发时,是否会遇到兼容性问题?比如与其他软件或硬件的兼容性A:目前华为自己测试还没有碰到过兼容性问题,因为本质上就是DIFY通过API接口调用华为云ModelArts上部署的模型,两者相对独立Q:如何将训练好的模型部署成API服务?如何利用ModelArts的自动模型部署功能简化流程?A:AI应用部署成在线服务后,用户可以获取API接口用于访问推理。ModelArts支持将模型部署为在线服务、批量服务和边缘服务。在线服务提供API接口供用户调用推理,而批量服务则可以对批量数据进行推理。ModelArts使用容器化部署,容器运行时有空间大小限制,最大支持50G。ModelArts提供多版本支持和灵活的流量策略,可以通过灰度发布实现模型版本的平滑过渡升级。在修改服务部署新版本模型或切换模型版本时,原服务预测API不会变化。 对于昇腾云已经适配并上架AI Gallery的模型,可以直接在模型页面点击推理部署完成一键自动部署。Q:如何根据实际需求选择最优的成本效益方案?在ModelArts上是否有节省成本的方法,如使用预留实例或按需付费?A:在华为云ModelArts平台上,确实存在多种节省成本的方法。按需付费(Pay-as-you-go)模式允许用户根据实际使用的计算资源和时间支付费用,非常适合短期或临时项目,避免了不必要的长期投入。若工作负载稳定且持续时间较长,购买预留实例(Reserved Instances, RIs)能够享受较低的小时费率,这特别适用于长期运行的任务,可大幅降低成本。此外,通过自动伸缩策略,根据实际负载动态调整计算资源,避免了资源浪费。当负载上升时自动增加实例数量,负载下降时则自动减少实例数量。同时,优化资源配置,根据实际需求选择合适规格的计算资源,避免过度配置,例如选择符合当前任务需求的CPU、内存和存储配置。对于非实时访问的数据,可以使用低成本的存储服务,如对象存储服务OBS,而非昂贵的高速存储。另外,关注华为云提供的折扣和促销活动,有时可以获得额外的成本节约。通过这些方法,可以根据实际需求灵活选择最合适的计费模式和优化策略,从而实现最优的成本效益方案。Q:华为云ModelArts MaaS大模型即服务平台有哪些功能?A:ModelArts Studio大模型即服务平台(简称MaaS服务)是华为云计算技术有限公司提供的一项服务,旨在帮助用户通过简单易用的工具链进行大模型的定制开发,实现模型与业务系统的无缝衔接,降低企业AI落地的成本和难度。MaaS服务的主要功能包括:模型创建、模型调优、模型压缩、模型部署、服务调用等。MaaS集成了业界主流开源大模型,如Llama、Baichuan、Yi、Qwen等,基于异腾AI云服务进行全面适配和优化,提供零代码、免配置、免调优的模型开发能力。同时,MaaS提供灵活的模型开发能力,按需收费,按需扩缩,支持故障快速恢复和断点续训,降低进入AI领域的门槛。MaaS强调高可用性,多数据中心部署确保数据与任务备份,即使遭遇故障也能无缝切换至备用系统。Q:Dify平台的自部署版本相比原版本有哪些优势?A:Dify是Github上的开源项目,用户可免费使用,灵活部署,目前我们已经测试过本地部署、云上部署、远程服务器部署,均可以顺利使用Dify平台。Q:怎么做好Dify的数据隔离,确保企业内部数据不会离开本地环境?A:由于数据在知识库构建、大模型调用过程中有暴露风险,因此对于企业内部数据的保护目的,建议进行私有云/本地化大模型部署,并将DIFY部署在本地,不过这也需要使用者自建算力资源并保证硬件系统可以支撑起大模型的运行调用。Q:如何设置监控系统来跟踪模型性能和资源利用率?当模型出现异常表现时,如何快速定位并解决问题?A:ModelArts自带模型管理与监控模块,可通过该模块跟踪模型性能/工作状态/资源消耗,当模型出现异常时,也可通过该系统查看故障原因并定位故障位置,也可通过提交工单唤起在线技术人员辅助问题处理。Q:Dify的安全性和隐私保护做得怎么样? Dify平台是否有社区支持或开发者论坛?A:Dify的安全性和隐私性保护内容请参考帮助文档说明,总的来说是可以满足一般的安全性及隐私保护需求的。平台有完整的社区支持,以论坛的形式内置于Dify平台内部。同时,Dify平台使用者可以选择将自己创建的应用分享在社区,为构建更好的AI应用生态做出贡献。Q:在实际应用中,有哪些成功案例展示了华为云ModelArts+Dify AI的效能?A:目前已经有部分企业采用了ModelArts+Dify的方式进行应用开发部署,但鉴于保密原因且目前该方案还处于推广初期阶段,因此成功案例还有待进一步的总结并脱敏后才会对外公开。Q:ModelArts是否提供预训练模型供用户选择?提供了哪些工具来评估模型性能?A:ModelArts目前支持盘古大模型与主流开源第三方大模型的预训练版本,模型的性能评估主要通过自带的微调大师等工具进行进一步的测试和评估。Q:如何利用华为云 ModelArts +Dify AI 进行自动化测试,以确保 AI 应用的质量?A:可以通过构建相应的自动化测试流程完成AI应用的质量评价,Dify可以通过工具调用代码编译与执行功能,构筑自动化的测试流程。Q:ModelArts是否支持模型的版本控制?A:支持按名称、版本、状态等条件查询模型、支持查看模型详细信息和选择合适的模型模板。Q:ModelArts的模型部署支持哪些环境?A:ModelArts是华为云提供的一站式AI开发平台,支持从数据处理到模型部署的全流程管理。它支持多种AI开发框架,如TensorFlow、PyTorch和MindSpore,并提供多种产品形态以满足不同需求,包括ModelArts Standard和ModelArts Studio。ModelArts还支持将模型一键部署到云、边、端设备,简化了复杂的部署过程。Q:ModelArts是否提供模型性能监控工具?A:ModelArts支持通过检索参数查询模型列表,最大支持获取150个模型对象。检索参数包括模型名称、版本、状态等。 支持一键部署到云、边、端设备。提供在线推理服务,支持高并发、低延时、弹性伸缩。支持多模型灰度发布和A/B测试。Q:列举一些 ModelArts 可以应用的具体行业场景?A:ModelArts是华为云提供的一站式AI开发平台,支持多种AI应用场景,包括图像分类、物体检测、视频分析、语音识别等。它集成了数据预处理、模型训练、部署等功能,支持TensorFlow、PyTorch等主流框架,并提供端到端的AI开发工具链。具体行业包括但不限于:装备制造、教育培训、商业咨询、医疗医药、政务法务、城市管理等。Q:ModelArts是否支持分布式训练?A:ModelArts支持单机多卡和多机多卡的分布式训练,能够有效加速训练过程。Q:ModelArts支持哪些类型的数据输入?A:文本:主流文本格式(docx,PDF, TXT等);视频:MP4;图像:主流图像格式(jpg,png等)。Q:ModelArts是否提供预训练模型供用户使用?A:ModelArts目前支持盘古大模型与主流开源第三方大模型。Q:在ModelArts上训练模型的费用是如何计算的?A:训练费用主要取决于模型训练时拉起的硬件资源的规格,目前采用按需(公共资源池 only)、包月、包年的方式进行计费。Q:ModelArts平台的计算资源是如何配置的?A:ModelArts采用两种计算资源配置方式,一种是客户根据自己的评估选择硬件配置,另一种是对于自动学习/工作流/实践案例,一般会内置硬件配置要求,在拉起资源之前会和使用者进行确认。Q:已经在使用中的AI应用,如何迁移到ModelArts+Dify平台上?A:将已有应用的大模型重新配置到Dify模型管理库中,同时将应用本身迁移到Dify平台即可。Q:ModelArts是否支持自定义算法的开发?A:支持。一般算法开发是针对您在本地或使用其他工具开发的算法,支持上传至ModelArts中统一管理。详细流程参见:https://support.huaweicloud.com/develop-modelarts/develop-modelarts-0009.html,您如果对ModelArts环境不熟悉,可以先通过ModelArts的Jupiter Notebook环境进行调试,该环境也可以通过SSH、VSCode连接,调试通过后再迁移到ModelArts的算法中。Q:ModelArts支持哪些机器学习框架?A:ModelArts支持多种AI开发框架,如TensorFlow、PyTorch和MindSpore,并提供多种产品形态以满足不同用户需求。Q:Dify平台上的应用是否可以直接发布到市场?有没有自动化测试工具来验证AI应用的质量?A:Dify平台支持应用API或网站嵌入式发布,可以直接发布到市场,目前暂时没有自动化测试工具,需要用户自建AI应用质量评估方案或在社区内寻找解决方案。Q:请问华为云 ModelArts与开源 Dify平台的深度融合为企业数智化建设带来了哪些不可替代的价值?具体体现在哪些关键业务场景中呢?A:ModelArts+Dify可以从几个方面为企业数智化建设带来不可替代的价值。首先,ModelArts服务部署大模型为企业省去了构建大型算力中心所带来的大量资金与人员的投入,使企业可以实现轻量化管理,同时免去复杂繁琐的硬件维护/迭代更新问题。Dify平台是开源平台,因此可以大大降低AI应用开发初期的试错成本。同时,DIFY拥有庞大且活跃的开源社区,为企业带来了潜在的解决方案资源,加速AI应用的开发与成熟。Q:华为云 ModelArts 中的自动机器学习(AutoML)功能在与 Dify AI 结合时,是如何优化 AI 应用开发流程的?A:华为云 ModelArts 中的自动机器学习(AutoML)功能在与 Dify AI 结合可以大幅加快AI应用的开发流程,并通过一系列低代码操作环境,降低AI应用开发所需要的学习门槛与技术壁垒。Q:华为云ModelArts codelab是如何与AI模型相结合的?A:ModelArts的Codelab是AI模型开发平台,开发者可以利用这个平台构建、训练、微调、部署AI大模型,端到端的完成AI大模型的开发。Q:华为云ModelArts 训练管理包括哪些内容?A:ModelArts训练管理包括数据存储、模型部署、监控和审计、身份认证、训练和调优等。Q:华为云ModelArts Workflow有什么作用?A:Workflow是开发者基于实际业务场景开发用于部署模型或应用的流水线工具,核心是将完整的机器学习任务拆分为多步骤工作流,每个步骤都是一个可管理的组件,可以单独开发、优化、配置和自动化。Workflow有助于标准化机器学习模型生成流程,使团队能够大规模执行AI任务,并提高模型生成的效率。Q:使用Dify平台需要具备哪些技能或知识?ModelArts+Dify方案是否适用于初创公司?A:Dify平台的使用进需要对应用搭建有基本的了解,知道大模型的工作原理与应用场景。ModelArts+Dify方案非常适用于初创公司。Q:华为云ModelArts中AI Gallery有什么功能及作用?A:AI Gallery算法、镜像、模型、Workflow等AI数字资产的共享,为高校科研机构、AI应用开发商、解决方案集成商、企业级/个人开发者等群体,提供安全、开放的共享及交易环节,加速AI资产的开发与落地,保障AI开发生态链上各参与方高效地实现各自的商业价值。Q:为什么说 AI 开发效率能通过华为云 ModelArts 和 Dify 平台提升 2 - 3 倍?有哪些具体的体现?A:AI开发效率能通过华为云ModelArts和Dify平台提升2-3倍的原因在于它们提供了多种自动化和优化工具,减少了繁琐的手动操作,加速了从数据处理到模型部署的整个流程。具体体现包括:自动化数据处理:ModelArts提供了自动化的数据清洗、标注和预处理工具,减少了数据准备的时间和精力;同时支持多种数据源的集成,简化了数据获取和整合的过程;自动化模型训练:ModelArts的自动学习功能可以自动选择合适的模型、调优超参数并生成代码,降低了模型训练的复杂度;并且支持大规模分布式训练,加速模型训练过程,尤其适合大数据集和复杂模型;高效的模型管理:ModelArts提供模型仓库,方便管理和版本控制,简化了模型的迭代和维护;内置的模型评估工具和优化功能,帮助快速评估模型性能并进行针对性优化;灵活的模型部署:支持在线服务、批量服务、边缘部署等多种部署方式,满足不同应用场景的需求;通过CI/CD流水线实现自动化部署,减少了人工干预,加快了部署速度;资源优化:根据实际使用量支付费用,避免资源浪费;长期稳定的任务可以选择预留实例,获得更低的费率;根据实际负载动态调整计算资源,提高资源利用率;协作和社区支持:支持团队协作,便于多人协同开发和测试;丰富的社区资源和详细的文档支持,加速学习和开发进程。Q:华为云ModelArts资源池中公共资源池与专属资源池有什么区别?A:ModelArts的公共资源池为多用户共享,随取随用,不用即释放;专属资源池则属于某个特定账号,在使用周期内不会释放。Q:能接入自己服务器上的Stable Diffusion吗?A:只要您可以提供标准的API接口,就可以接入本地大模型。Q:华为云ModelArts开发工具Notebook主要功能是什么?A:华为云ModelArts开发工具Notebook的主要功能包括:即开即用的环境: 提供预先安装好的不同AI引擎,免去了复杂的环境配置步骤;多种规格选项: 提供多种配置规格,让用户能够根据实际需求灵活选择计算资源;独占容器环境: 为用户提供独立的容器环境,确保在开发过程中不会受到其他用户的干扰;本地IDE连接支持: 支持用户通过本地集成开发环境(IDE)连接到Notebook环境中,实现无缝的代码编写、运行和调试体验。Q:华为云ModelArts是如何保证平台安全性和隐私的?A:华为云ModelArts为了确保平台的安全性和用户的隐私,采取了一系列综合措施,具体如下:数据加密:对存储和传输中的数据进行全面加密,确保数据的安全性和保密性;访问控制:采用严格的权限管理机制,确保只有经过授权的用户能够访问敏感信息;隔离机制:利用虚拟化技术实现多租户环境下的数据和应用隔离,避免数据泄露和未经授权的访问;安全审计:执行全面的安全审计和日志记录,跟踪用户操作行为,有助于识别和响应潜在的安全威胁;隐私保护:遵守相关法律法规,严格保护用户个人信息,确保数据处理过程中的隐私安全;安全培训:定期对内部员工进行安全意识和技术培训,提高整体的安全防护水平;第三方认证:获取多个国际和国内的安全认证,确保平台符合高标准的安全规范和要求。Q:不需要提示工程的情况下,怎样保证输出的质量?A:在不需要提示工程的情况下,保证AI模型输出质量的关键在于多个方面的综合考虑和优化。首先,在数据准备阶段,需确保数据质量高且具有多样性,通过数据清洗、标准化和归一化等预处理步骤提升数据的可用性和代表性。其次,选择合适的模型结构是至关重要的,需要根据具体任务选择最适合的模型类型,并通过增加模型深度和宽度来提升模型的表达能力,同时采用正则化技术(如L1、L2正则化)来防止过拟合;在训练过程中,合理选择激活函数(如ReLU及其变体)和优化算法(如Adam、SGD等),并通过学习率调整、早停策略和交叉验证等方法优化超参数,确保模型能够高效且稳定地收敛。再次,利用验证集和测试集对模型进行评估,通过准确率、召回率、F1分数等评估指标来衡量模型性能,并进行必要的迭代优化。最后,模型部署后需定期监控其表现,以便及时发现并解决可能出现的问题。在整个过程中,还需要关注模型的偏差和公平性,确保模型决策的公正性;同时保障模型的安全性和隐私性,防止数据泄露和恶意攻击。Q:华为云ModelArts是如何保证平台稳定性和可靠性的?A:华为云ModelArts通过多种措施确保平台的稳定性和可靠性。首先,它采用了高可用架构设计,具备强大的容错能力和分布式特性,确保即使某些组件出现故障,服务仍能连续运行。其次,支持自动扩展功能,能够根据实际负载情况动态调整计算资源,以确保在高峰期依然能保持高性能和稳定性。此外,ModelArts还提供数据备份和灾难恢复机制,定期备份关键数据和配置信息,以便在发生意外时能够迅速恢复服务。实时监控系统状态也是其重要特点之一,涵盖硬件、网络、应用等多个层面,一旦发现异常即刻触发告警,实现及时的干预处理。为了进一步增强稳定性,ModelArts建立了跨地域的数据中心和冗余备份机制,确保单一数据中心故障时,业务能够无缝切换至备用数据中心继续运行。同时,通过性能优化措施如负载均衡和缓存机制,减少延迟,提升响应速度,确保用户体验的一致性和流畅性。最后,多层次的安全防护体系,包括防火墙和入侵检测系统,有效抵御外部攻击,保护系统的稳定运行。综上所述,这些措施共同构成了华为云ModelArts稳定可靠的服务基础。Q:华为云ModelArts在模型部署中支持哪些部署方式和场景?A:华为云ModelArts支持多种模型部署方式和场景,以满足不同用户的需求。其主要的部署方式和场景包括在线推理服务,如Web服务部署和微服务部署,分别用于通过HTTP请求进行实时预测和集成到现有微服务架构中;批量推理服务,适用于大量数据的离线预测场景;边缘设备部署,将模型部署到边缘设备上,实现实时响应和低延迟处理;容器化部署,利用Docker容器便于管理和迁移;模型转换和优化,支持模型格式转换和提供模型压缩与优化手段,减小模型体积和提高推理效率;自动化部署,通过CI/CD流水线实现自动化模型部署流程;多云和混合云部署,支持在多个云平台上的模型部署和结合公有云与私有云的优势。这些多样化的方式和场景使得华为云ModelArts能够满足从实时在线服务到离线批量处理,再到边缘计算等多种应用场景的需求。Q:华为云ModelArts在语音识别场景中,是否能实现方言识别?A:华为云ModelArts在语音识别场景中确实支持方言识别。ModelArts提供了强大的语音识别功能,能够处理多种语言和方言。通过使用预训练模型或基于特定方言数据集自定义训练模型,ModelArts可以实现高质量的方言识别,以适应不同的语言环境,满足多样化的语音识别需求。若需了解特定方言的支持情况,建议查阅最新文档或联系技术支持获取详细信息和指导。Q:华为云ModelArts支持哪些底层服务?A:华为云ModelArts支持多种底层服务,涵盖数据处理、模型训练、模型部署和管理以及安全与合规等多个方面。具体而言,数据处理服务包括数据集成、数据标注和数据预处理等功能,确保数据的质量和可用性;模型训练服务提供自动学习、手动训练和分布式训练选项,支持多种算法库和框架;模型管理服务包含模型仓库、模型评估和模型转换,实现模型的全面管理和优化;模型部署服务则提供了在线服务、批量服务、边缘部署和容器化部署,满足不同的应用场景需求;安全与合规服务则通过数据加密、访问控制和安全审计来保障数据的安全性和操作的可追溯性。这些底层服务共同构成了华为云ModelArts的强大功能,为用户提供了一站式的AI开发和部署平台。Q:ModelArts 的模型评估功能是怎样的?A:华为云ModelArts的模型评估功能旨在帮助用户全面评估机器学习模型的性能和效果。该功能提供自动评估,能够对训练完成的模型生成详细的评估报告,报告内容涵盖准确率(Accuracy)、精确率(Precision)、召回率(Recall)、F1分数(F1 Score)等常见指标,对于分类任务还包括混淆矩阵(Confusion Matrix)。此外,ModelArts提供丰富的可视化工具,如曲线图展示不同阈值下的ROC曲线和PR曲线,帮助用户直观理解模型表现及选择最优阈值。用户还可根据具体需求自定义评估指标,以更精准衡量模型性能。同时,支持多个模型间的性能对比,直接比较不同模型在同一数据集上的表现,以及不同版本模型的迭代效果,从而快速找到最佳模型。在模型部署后,ModelArts还提供持续监控功能,确保模型在生产环境中的性能稳定,通过实时数据反馈及时发现并解决模型性能下降等问题。Q:相比其他类似平台,华为云 ModelArts 和 Dify 平台在加速企业数智化建设方面的独特之处是什么,比如刚刚演示的并发模式吗?A:相比其他类似平台,华为云 ModelArts 和 Dify 平台在加速企业数智化建设方面具有独特之处,主要体现在以下几个方面:首先,华为云 ModelArts 提供了一站式AI开发平台,涵盖从数据预处理、模型训练到模型部署的全流程,减少不同工具和服务之间的切换成本,提高开发效率。其次,它具备高性能计算资源,如GPU和TPU,能快速处理大规模数据和复杂模型训练任务,加速模型开发和部署周期。ModelArts 内置多种自动化工具,例如自动学习功能,可以自动选择合适的模型、调优超参数及生成代码,降低AI开发的技术门槛。此外,ModelArts 支持图像、文本、语音等多种数据类型的处理,特别在其多模态搜索增强功能上,帮助企业更好地理解和利用复杂的数据形态。并发模式也是其一大特色,ModelArts 支持高效的并发处理模式,可在多个节点上并行处理任务,不仅加快模型训练速度,还提高了资源利用率,特别适用于大规模数据处理和高并发请求的场景。另外,ModelArts 可以根据企业具体需求提供定制化的解决方案,包括企业专属方案、LLM驱动的语义搜索等,帮助企业快速构建符合自身业务需求的AI应用。在安全与合规方面,ModelArts 注重数据安全和隐私保护,提供全面的数据加密、访问控制和安全审计机制,确保企业在使用AI技术时能够满足各种安全和合规要求。同时,Dify 提供自部署的应用构建开源解决方案,支持Agent编排和自定义工作流,使企业能够灵活地构建和部署自己的应用,增强了系统的可定制性和灵活性,并且可以大幅降低AI应用开发成本,并通过共享社区寻找现成的解决方案。Q:在 AI 应用运行过程中,华为云 ModelArts +Dify AI 如何实现有效的监控和运维?A:在AI应用运行过程中,华为云ModelArts和Dify AI通过一系列监控和运维机制确保应用的稳定性和高效性。实时监控与报警功能使ModelArts能够跟踪模型性能、资源使用情况和健康状况,一旦检测到异常或性能下降,会自动触发报警通知;Dify AI则支持实时监控应用运行状态,通过设置阈值和规则,在系统性能低于预期时自动发送警报。在日志管理方面,ModelArts提供全面的日志记录功能,包括训练日志、推理日志和系统日志,帮助诊断问题和追踪历史操作,而Dify AI也支持详细的日志记录,便于排查错误和分析应用行为。性能优化上,ModelArts内置性能优化工具,能够自动调整模型参数,提高推理效率,并提供模型压缩和优化功能,Dify AI则支持自定义工作流和Agent编排,以优化应用性能。此外,两者都支持自动扩缩容功能,根据实时负载动态调整计算资源,确保在高并发情况下应用仍能稳定运行。ModelArts和Dify AI还提供持续集成与持续部署(CI/CD)支持,自动化部署流程和自定义工作流简化了应用的部署和维护过程。在安全与合规方面,ModelArts提供数据加密、访问控制和安全审计等全面的安全措施,确保应用符合行业标准和法规要求,Dify AI同样注重数据安全和隐私保护,支持自定义安全策略,保障应用在安全环境下运行。Q:华为云ModelArts自动学习功能是如何工作的?A:华为云ModelArts的自动学习功能工作流程如下:首先,用户可以通过拖拽文件或API接口将数据导入到ModelArts平台,并利用平台提供的数据清洗和预处理工具(如缺失值填充、异常值处理、数据标准化)来保证数据质量。接着,自动学习功能会自动识别数据中的特征,并进行特征选择和转换,包括特征提取、特征编码和降维,以提升模型性能。然后,平台会根据数据集的特点自动选择合适的机器学习或深度学习模型,并进行超参数调优,以确定最佳的模型配置,同时支持分布式训练,加快模型训练速度。训练完成之后,系统会生成详细的模型评估报告,包含准确率、精确率、召回率、F1分数等指标,并提供可视化工具,如ROC曲线和PR曲线,帮助用户直观理解模型性能。此外,还支持模型压缩和优化,以减少模型体积并提高推理效率。最后,自动学习功能支持多种部署方式,包括在线服务、批量服务、边缘部署和容器化部署,满足不同应用场景的需求,并通过CI/CD流水线实现自动化部署,简化部署流程,提高部署效率。部署后的模型还可以通过实时监控功能持续跟踪性能,确保其在生产环境中的稳定性和可靠性,并支持模型的持续迭代和更新,以适应不断变化的数据和业务需求。Q:ModelArts的推理服务是否可以自动扩展?AI应用支持哪些编程语言开发?A:华为云ModelArts的推理服务支持自动扩展功能,主要通过自动伸缩(Auto Scaling)和弹性计算资源管理来实现。自动伸缩功能允许系统根据实际负载情况自动调整推理服务的计算资源,增加或减少实例数量以适应请求量的变化,确保服务的稳定性和成本效益。此外,弹性计算资源管理使得ModelArts能够在不同负载条件下动态分配计算资源,保证高并发请求下的高性能和稳定性。就AI应用支持的编程语言而言,ModelArts提供广泛的语言支持,包括Python(主流的AI开发语言,拥有TensorFlow、PyTorch、Keras等丰富库)、Java(适合企业级应用开发)、C++(适用于对性能有极高要求的应用)、Go(构建高性能后端服务的理想选择)、JavaScript(通过Node.js环境支持前后端开发,适合Web应用)以及R(适合统计分析和数据科学应用)。Q:如何在华为云ModelArts中实现模型版本管理?A:在华为云ModelArts中实现模型版本管理主要通过以下几个步骤和功能来完成:首先,用户可以将训练好的模型文件上传至ModelArts平台,支持多种格式如TensorFlow、PyTorch等。ModelArts提供了一个模型仓库用于存储和管理不同版本的模型文件。每次上传新模型时,可以为其添加版本标签或版本号以便区分不同的模型版本,同时ModelArts会记录每个版本的详细信息,包括上传时间、训练数据集、超参数配置等,便于后续的追溯和管理。其次,上传模型后,可以使用ModelArts内置的评估工具对模型进行性能评估,生成详细的评估报告,并通过比较不同版本的模型评估结果,直观地看到各版本之间的性能差异,从而选择最优版本进行部署。在ModelArts平台上,用户可以在模型管理页面查看所有模型版本,并执行版本切换、下载、删除等操作,也可以通过版本比较功能来对比不同版本的性能指标。此外,当需要进行模型部署时,可以从多个版本中选择一个特定版本进行部署,以确保上线的是经过验证的最佳版本。如果新版本出现任何问题,还可以快速回滚到之前的稳定版本,保证服务的连续性和稳定性。对于不再使用的旧版本,可以将其归档保存,释放存储空间;而对于完全不需要的版本,则可以选择删除,清理不必要的数据。Q:如何对Stable Diffusion模型进行剪枝、量化等优化操作以减少内存占用和提高推理速度?A:在ModelArts平台上,对Stable Diffusion模型进行优化以减少内存占用和提高推理速度的操作步骤如下:首先,将Stable Diffusion模型上传至ModelArts Studio平台。接下来,在模型管理界面中选择SmoothQuant-W8A8或AWQ-W4A16作为模型压缩策略。然后,启动模型压缩任务,ModelArts将自动执行剪枝、量化等优化操作。压缩完成后,需测试模型以确保其性能符合预期要求。之后,将优化后的模型部署到所需的计算资源上。最后,通过API接口或其他方式在业务环境中调用该优化后的模型服务进行预测。需要注意的是,尽管ModelArts目前不直接支持对Stable Diffusion模型进行剪枝和量化操作,但上述步骤提供了一种变通的方法来实现类似效果,从而提升推理速度和降低内存占用。Q:从业务成果角度,华为云 ModelArts +Dify AI 的组合能为企业带来哪些可量化的效益(如增加收入、提高客户满意度等)?A:华为云 ModelArts + Dify AI 的组合能够为企业带来一系列可量化的效益,包括但不限于增加收入、提高客户满意度、降低成本及提升工作效率。具体来说,通过智能化的推荐系统和销售助手,该组合能提高销售效率和转化率,进而增加收入;利用AI自动化工具扩大市场覆盖面,触达更多潜在客户,进一步推动收入增长。在提高客户满意度方面,通过提供个性化的客户服务和产品推荐,以及快速响应客户需求的智能客服系统,能够显著提升客户满意度和降低客户流失率。此外,自动化流程和资源优化功能减少了人工操作,降低了运营成本,并提高了模型的运行效率,从而减少计算资源的消耗。在提升工作效率方面,基于大数据分析和机器学习的决策支持系统帮助管理层作出更精准的决策,同时自动化报告生成功能节省了人力时间,提高了数据处理效率。Q:华为云ModelArts 的自动学习功能有哪些限制?A:华为云ModelArts的自动学习功能虽然强大,但也存在一些限制,主要包括:数据量和质量:自动学习的效果很大程度上依赖于输入的数据量和数据质量。如果数据量不足或数据质量差,模型训练效果可能不佳;特征工程:自动学习会尝试自动提取特征,但对于某些复杂场景,可能需要手动进行特征工程以获得更好的模型性能;定制化需求:对于一些非常特定或定制化的需求,自动学习可能无法完全满足,需要进一步的手动调整或开发自定义模型;算法选择:虽然自动学习可以自动选择合适的算法,但在某些情况下,特定领域可能需要特定的算法,而这些算法可能不在自动学习的支持范围内;实时性:自动学习通常适用于离线训练场景,对于实时性要求极高的实时训练场景可能不太适用。Q:华为云ModelArts 支持哪些预训练模型?A:ModelArts目前支持盘古大模型与主流开源第三方大模型。此外,华为云ModelArts 支持多种预训练模型,覆盖了计算机视觉、自然语言处理、语音识别等多个领域。在计算机视觉方面,提供了图像分类模型如 ResNet、Inception、VGG;目标检测模型如 YOLO、SSD、Faster R-CNN;语义分割模型如 Mask R-CNN、DeepLab;以及图像生成模型如 StyleGAN、CycleGAN。针对自然语言处理,ModelArts 包含了文本分类模型如 BERT、RoBERTa;语言生成模型如 GPT 系列、T5;机器翻译模型如 Transformer、Marian;命名实体识别模型如 BERT、ERNIE。在语音识别领域,ModelArts 提供了语音转文本模型如 DeepSpeech、Conformer 和语音合成模型如 Tacotron、WaveNet。此外,在推荐系统方面,支持协同过滤模型如矩阵分解模型,以及深度学习推荐模型如 Wide & Deep、DIN。对于时间序列分析,ModelArts 提供了预测模型如 LSTM、Prophet。请注意,具体支持的预训练模型列表可能会根据华为云 ModelArts 的更新而有所变动,建议访问华为云官方文档或控制台以获取最新的预训练模型列表请注意,具体支持的预训练模型列表可能会根据华为云 ModelArts 的更新而有所变动,建议访问华为云官方文档或控制台以获取最新的预训练模型列表。Q:华为云ModelArts Standard有哪些功能?A:华为云ModelArts Standard是一款面向开发者和数据科学家的AI开发平台,它提供了丰富的功能来加速AI应用的开发和部署。其主要功能包括:数据管理:支持数据集的创建、上传、下载和共享,以及内置的数据清洗和转换工具以简化数据准备过程;自动学习:提供自动化模型训练和超参数优化能力,支持多种任务类型如图像分类、物体检测、语义分割、文本分类和回归分析,无需编写代码即可完成模型训练;模型开发:集成Jupyter Notebook环境用于模型开发和调试,支持自定义训练任务及使用TensorFlow、PyTorch、MindSpore等主流深度学习框架;模型评估与优化:提供多种评估指标以全面了解模型性能,同时支持模型压缩、剪枝、量化等优化手段,提升模型的推理速度并减少内存消耗;模型部署与管理:支持模型的一键部署至在线服务,提供API接口,具备多版本模型管理和在线监控与日志记录功能;边缘计算支持:允许将模型部署到边缘设备上进行低延迟的本地推理;安全与合规:确保数据加密和权限管理,符合多种安全和合规标准,保障企业级应用的安全性。Q:Dify是否有提供模型压缩和加速的工具?怎么做模型可解释性分析?A:模型压缩和加速及模型可解释性分析主要由ModelArts提供。华为云ModelArts提供了多种模型压缩和加速的工具,以帮助用户在保持模型精度的同时,减少模型大小和提高推理速度。这些工具包括模型剪枝,通过移除冗余或不重要的权重来减小模型尺寸;量化,将模型权重从浮点数转换为更低位宽的整数表示,以减少存储空间和计算量;知识蒸馏,利用大型“教师”模型的知识来训练一个小型“学生”模型,使其达到相似性能;以及模型裁剪,去除模型中的部分层或神经元,以减小模型复杂性和计算需求。在模型可解释性分析方面,ModelArts提供了多种工具和技术,帮助用户理解模型的决策过程。其中包括SHAP(SHapley Additive exPlanations),一种基于博弈论的方法,用于衡量每个特征对模型预测结果的影响;LIME(Local Interpretable Model-agnostic Explanations),通过局部近似来解释模型预测;CAM(Class Activation Mapping),主要用于图像分类模型,通过可视化热图展示模型关注的图像区域;以及PDP(Partial Dependence Plot),显示某个特征对模型预测结果的整体影响趋势。通过这些工具和技术,用户可以在ModelArts平台上进行模型压缩、加速和解释性分析,以优化模型性能并增强模型的透明度和可信度。Q:如何管理模型的不同版本,并在新版本发布后平滑过渡?A:华为云ModelArts提供了强大的模型版本管理和平滑过渡功能,以确保模型迭代过程中的业务连续性和稳定性。首先,在模型版本管理方面,ModelArts允许用户在每次训练或优化后创建新的模型版本,用户可以将当前模型保存为一个新版本,也可以基于已有版本进行更新。每个模型版本还可以添加标签,如v1.0、v2.0等,以便于管理和查询。此外,ModelArts还会详细记录每个版本的历史信息,包括创建时间、训练参数、性能指标等,帮助用户追踪和比较不同版本之间的差异。在模型部署和版本控制方面,ModelArts支持将不同版本的模型部署为独立的服务实例,每个实例可以配置为使用特定版本的模型。当新版本模型部署完成后,用户可以通过流量分配功能逐步将请求从旧版本转移到新版本,例如先将10%的流量导向新版本,观察其表现后再逐步增加比例,实现灰度发布。为了确保在新版本发布后的平滑过渡,ModelArts提供了灰度发布功能,通过设置流量分配比例,逐步将用户请求从旧版本模型迁移到新版本模型,以验证新版本的稳定性和性能。同时,ModelArts还具备回滚机制,若新版本出现任何问题,用户可以快速回滚到之前的稳定版本,保障业务不受影响。此外,ModelArts还提供监控和告警功能,用于在新版本上线后持续监测模型的性能和健康状态,及时发现并解决问题。Q:如何实施持续集成/持续部署(CI/CD)流程来简化发布周期?A:使用华为云ModelArts和Dify实施持续集成/持续部署(CI/CD)流程来简化发布周期,可以通过以下步骤实现:首先,在代码和模型版本管理方面,使用代码仓库管理代码,并在ModelArts中管理模型版本,确保每次训练或优化后都能保存新的模型版本。接下来,通过自动化构建和测试,使用ModelArts的自动化训练和测试功能,确保每次代码提交后都能自动训练模型并进行测试,同时编写自动化测试脚本来保证模型和代码的质量。在持续集成阶段,配置代码仓库的Webhook,触发ModelArts中的自动化训练和测试流程。每次代码提交后,自动触发构建和测试流程,确保代码变更能够及时集成到主分支。进入持续部署阶段,使用ModelArts的模型部署功能,将经过测试的模型自动部署到不同的环境(如开发、测试和生产环境)。此外,通过ModelArts的流量分配功能,实现灰度发布,逐步将流量从旧版本模型转移到新版本模型,实现平滑过渡。为了进一步监控模型的性能和健康状态,利用ModelArts提供的监控和告警功能进行实时监控,并配置回滚机制,确保在新版本出现问题时可以快速回滚到之前的稳定版本,保障业务连续性。Q:Dify的模型,可以用自己的吗A:可以,目前Dify支持所有符合API接口规则的本地部署大模型,不过如果想要在网络上进行调用,需要对模型服务器进行网络穿透Q:在ModelArts上进行模型训练需要哪些资源?是否支持分布式训练?A:在ModelArts上进行模型训练需要多种资源,包括计算资源、存储资源和网络资源。计算资源方面,ModelArts支持使用CPU、GPU以及华为自研的Ascend芯片进行模型训练,具体选择取决于模型训练的需求。对于存储资源,需要足够的存储空间来存放训练数据集、模型权重和其他相关文件,并且还需要一定的临时存储空间用于缓存中间结果和日志文件。网络资源方面,特别是在进行分布式训练时,需要稳定且高带宽的网络连接来支持节点之间的高效数据传输。关于是否支持分布式训练,ModelArts确实支持分布式训练。通过将host_distributed_mode参数设置为multiple,可以启用分布式训练模式,利用多个计算节点并行处理数据,从而加速模型训练过程。这使得ModelArts能够适应从小规模到大规模分布式训练的各种场景需求。Q:华为云ModelArts AI Gallery功能有什么作用?A:华为云ModelArts AI Gallery的功能旨在打造一个开放、共享的AI模型生态系统,帮助用户更便捷地获取和使用高质量的AI模型,加速AI应用的研发和落地。具体来说,它提供了一个平台,让用户可以分享自己训练好的模型,同时也能够查找和使用其他用户或社区贡献的高质量模型,从而加速AI应用的开发过程,减少重复劳动。用户可以在AI Gallery中浏览不同类型的预训练模型和解决方案,涵盖计算机视觉、自然语言处理、语音识别等多个领域,这有助于快速找到适合特定应用场景的模型,加速创新和实验。此外,AI Gallery还提供了模型的详细描述、性能指标和评价反馈,用户可以根据这些信息评估不同模型的优劣,选择最适合自身需求的模型进行使用或进一步优化。通过AI Gallery,用户可以直接将模型部署到华为云的计算资源上,或者将其集成到自己的应用中,简化了模型从研究到实际应用的流程,提高了开发效率。同时,AI Gallery鼓励开发者和研究者之间的交流与合作,促进了AI技术和应用的发展,形成了一个活跃的AI社区,推动技术创新和最佳实践的传播。Q:华为云ModelArts Lite功能有什么作用?有什么应用场景?A:华为云ModelArts Lite是一款专为资源受限环境设计的轻量级AI开发和部署工具,能够支持用户在计算能力和存储空间有限的条件下进行模型的训练、优化和部署。它的核心功能包括提供简化的工作流来加速模型开发,支持模型剪枝、量化等压缩和优化技术,从而减少模型大小和计算复杂度,提高模型在边缘设备上的运行效率,并且具备一键部署和模型版本管理功能,便于用户管理和监控模型。其典型应用场景涵盖物联网设备(如智能家居、智能穿戴设备、工业传感器等),边缘计算环境(如边缘服务器或网关,用于本地数据处理和分析),移动设备(如智能手机和平板电脑,用于离线智能应用),自动驾驶系统(车载计算单元,实现车辆实时感知和决策),以及医疗设备(便携式设备,用于疾病早期诊断和监测)。通过这些功能,ModelArts Lite帮助企业及开发者在边缘计算和物联网领域快速部署高效的AI应用。Q:华为云ModelArts自动学习功能有哪些优势?A:华为云ModelArts的自动学习功能具有多个显著优势,包括:低门槛,即无需用户具备深厚的机器学习专业知识,即可完成模型训练和优化,大大降低了AI应用开发的技术门槛;高效性,能够快速完成从数据准备到模型训练、评估的全流程,显著缩短模型开发周期,提高开发效率;灵活性,支持多种任务类型,包括图像分类、物体检测、语义分割、文本分类、回归分析等,满足不同应用场景需求;自动化优化,自动选择合适的算法和参数,进行超参数优化,提升模型性能,减少人工干预;易用性,提供直观的用户界面和指导,让用户能够轻松上手,快速开始模型训练和部署;模型压缩与优化,支持模型剪枝、量化等技术,在保持较高精度的前提下减小模型大小,提高资源受限环境中的运行效率;无缝集成,自动学习生成的模型可以无缝集成到ModelArts的其他功能中,如模型部署、版本管理等,形成完整的AI应用开发和部署流程;多样化的模型库,提供丰富的预训练模型库,用户可以选择合适的预训练模型进行微调,加快模型开发速度;性能监控与评估,提供详细的模型性能监控和评估报告,帮助用户了解模型的训练效果和潜在问题,进行针对性优化。这些优势共同助力企业及开发者快速构建高质量的AI应用,加速业务创新和智能化转型。Q:华为云ModelArts自动学习功能包括哪些?A:华为云ModelArts的自动学习功能涵盖了从数据准备到模型部署的全流程自动化,具体包括以下几方面:自动建模:支持多种机器学习任务,例如图像分类、物体检测、语义分割、文本分类以及回归分析,能够自动训练相应的模型。数据准备:提供数据标注工具,适用于图像、文本等多种类型的数据,并且具备数据增强功能,以提高模型的泛化能力。模型优化:实现自动超参数优化,寻找最佳的超参数组合来提升模型效果;同时支持模型压缩技术,比如模型剪枝和量化,以减小模型体积和计算复杂度,使其更适合资源受限的环境。模型评估:生成详尽的模型性能评估报告,涵盖准确率、召回率、F1分数等关键指标,并提供模型训练过程的可视化图表,帮助用户深入理解模型表现。模型部署:具备一键部署功能,可以将训练完成的模型迅速转化为在线服务,对外提供API接口;同时支持模型版本管理,便于追踪和切换不同版本的模型。集成与扩展:能够与华为云的其他服务无缝集成,例如对象存储服务(OBS)和数据库服务;并通过开放API和SDK,允许用户进行自定义扩展和二次开发。Q:华为云ModelArts服务中 SDK软件包有哪些功能和作用?A:华为云ModelArts服务中的SDK软件包提供了多种功能,旨在简化用户与ModelArts平台的交互,加速AI应用的开发和部署。其主要功能和作用包括:数据管理(数据上传和下载、数据集管理、数据预处理、数据标注、数据版本管理)、训练管理(训练作业提交、训练参数配置、训练过程监控、训练结果分析、模型保存)、模型管理(模型上传和下载、模型版本管理、模型评估、模型优化)、服务管理(服务创建、服务配置、服务监控、服务管理、服务升级和回滚)、自动化工具(自动学习、模型优化)。Q:StableDiffusion 3 与 Stable Diffusion XL 1.0 相比有什么差异?A:Stable Diffusion XL 1.0 作为 Stable Diffusion 系列的一个重要升级版本,相较于 Stable Diffusion 3,在多个方面进行了改进和增强。首先,在图像质量和多样性方面,Stable Diffusion XL 1.0 提供了更为逼真和细腻的图像生成效果,能够生成更多样化的图像内容和风格。其次,从模型大小和计算资源需求来看,XL 版本可能较大,因此在推理过程中需要更多的计算资源,比如更高的 GPU 内存和更强的硬件支持。此外,Stable Diffusion XL 1.0 引入了一些新功能,如增强了文本理解和条件生成的能力,以及改进的控制功能,使用户能够更精确地控制生成过程。在训练数据和方法上,XL 版本可能利用了更大的训练数据集和更先进的训练技术,提升了模型的泛化能力和生成质量。同时,它还得到了更广泛的社区支持,拥有更多的教程、示例和第三方工具支持,形成了更丰富的生态系统。最后,在兼容性和集成方面,Stable Diffusion XL 1.0 也表现出色,提供了更好的兼容性,支持更多的操作系统、编程语言和硬件平台,以及更方便的集成选项,支持更多的 API 和 SDK。这些改进使得 Stable Diffusion XL 1.0 成为一个更为强大和灵活的文本到图像生成工具。Q:ModelArts是端到端开发流程吗?是否支持模型跨域部署?A:ModelArts 是一个端到端的 AI 开发平台,它支持从数据预处理、模型训练、模型优化到模型部署的完整开发流程。其端到端开发流程涵盖以下环节:包括数据管理、模型训练、模型优化、模型部署。此外,ModelArts 支持模型跨域部署,能够将模型部署到云端和边缘设备等多种环境中。具体而言,云端部署可作为在线服务,提供 RESTful API 接口,支持高并发请求,同时也支持多版本管理和流量分配;边缘设备部署则适应资源受限环境,提供模型优化工具。同时,ModelArts 还提供跨域管理和监控功能,确保模型在不同计算环境中的高效运行与管理。Q:对于不懂代码的开发者来说,华为云ModelArts+Dify AI是否友好?A:对于不懂代码的开发者来说,华为云ModelArts和Dify AI的组合是相当友好的。ModelArts提供了强大的自动学习功能,允许用户通过上传数据集并选择模型类型来自动完成模型训练和优化,无需编写复杂的代码。其图形化界面设计使得非技术人员能够通过简单的点击和拖拽操作完成数据预处理、模型训练及部署等任务。此外,ModelArts还提供了丰富的预训练模型和模板供用户选择,进一步降低了技术门槛。另一方面,Dify AI则以低代码乃至无代码的方式,使用户能通过拖拽组件快速构建和部署AI应用,如聊天机器人和推荐系统等,无需编程知识。Dify AI支持可视化配置,用户可通过图形界面调整应用参数和逻辑,简化了复杂功能的实现。结合ModelArts和Dify AI的优势,不懂代码的开发者可以利用ModelArts进行模型训练和优化,再通过Dify AI快速部署和管理AI应用,整个过程大大减少了对编程技能的需求,显著提升了开发效率和用户体验。Q:Dify适合非技术人员使用吗?是否支持引入第三方插件开发?A:Dify是一款专注于低代码和无代码开发的平台,旨在让非技术人员能够轻松构建和部署AI应用。它提供了一个图形化界面,用户可以通过拖拽组件来构建应用,而无需编写复杂的代码。所有功能和逻辑都可以通过可视化的界面进行配置和调整,这显著降低了技术门槛。此外,Dify还提供了一系列预设的模板和组件,用户可以快速搭建常见的AI应用类型,如聊天机器人、推荐系统等。其界面设计直观,并配有详细的说明和引导,帮助用户快速上手。在第三方插件开发方面,Dify支持通过开放API和插件系统引入第三方服务和功能,从而扩展平台的功能和灵活性。对于有开发能力的用户,Dify还允许开发自定义插件,以满足特定需求。此外,还可以通过API集成现有的第三方服务,如支付网关、数据分析工具等,进一步增强应用的功能性。因此,Dify不仅适合非技术人员使用,同时也支持引入第三方插件开发,为用户提供扩展功能的能力。Q:CANN自定义算子能放进ModelArts使用吗?能和Dify AI融合到一起吗?A:CANN自定义算子可以放进ModelArts使用。ModelArts支持自定义算子的集成,用户可以在ModelArts环境中通过编写C++代码实现自定义算子,并在训练任务中使用这些算子以优化模型的计算性能或实现特定功能。然而,CANN自定义算子不能直接与Dify AI融合。尽管如此,用户可以通过ModelArts训练和优化模型(包括使用CANN自定义算子),并将优化后的模型部署到ModelArts提供的在线服务或边缘设备上,之后在Dify AI中通过API调用这些模型服务,从而实现间接集成。这种方式结合了ModelArts的高性能计算能力和Dify AI的低代码/无代码特性,为用户提供了一个灵活高效的AI开发和部署方案。Q:华为云 ModelArts 的模型开发与训练功能怎么样?A:华为云ModelArts的模型开发与训练功能非常强大且全面,旨在为开发者和数据科学家提供一个高效、灵活的平台来构建和优化AI模型。ModelArts支持自动学习(AutoML),包括自动建模、超参数优化和模型选择,适用于多种任务类型,如图像分类、物体检测、语义分割、文本分类和回归分析。同时,它也支持手动模型开发,提供了Jupyter Notebook环境,支持TensorFlow、PyTorch、MindSpore等主流深度学习框架进行自定义训练任务,配备丰富的数据预处理工具。此外,ModelArts具备模型优化能力,如模型压缩、知识蒸馏和模型裁剪,以提高模型在不同环境下的运行效率。在分布式训练方面,ModelArts支持多机多卡训练,提供灵活的资源配置选项,包括CPU、GPU和华为自研的Ascend芯片。模型评估与监控功能则包括详细评估报告、可视化工具和实时监控,确保用户能够深入了解模型的表现并及时调整。最后,ModelArts还提供了便捷的模型部署选项,包括一键部署、多版本管理和边缘部署,支持模型快速转变为在线服务,并与华为云其他服务无缝集成。Q:请问在利用这两个平台进行 AI 应用开发时,如何确保模型的准确性和稳定性呢?A:在利用华为云ModelArts进行AI应用开发时,确保模型的准确性和稳定性涉及多个关键步骤和最佳实践。首先,在数据准备阶段,需要确保数据集的质量,包括数据清洗和预处理,去除噪声数据,处理缺失值,并进行数据归一化;采用数据增强技术增加样本多样性;使用ModelArts的标注工具进行高质量的数据标注。其次,在模型训练过程中,选择合适的模型架构,如CNN或RNN,根据任务需求而定;利用ModelArts的自动超参数调优功能优化模型参数;通过交叉验证评估模型的稳定性和泛化能力;运用正则化技术和早停法预防过拟合。在模型评估环节,采用全面的评估指标,如准确率、召回率、F1分数等,综合评价模型性能;借助混淆矩阵和ModelArts的可视化工具监控训练过程。此外,通过模型压缩和知识蒸馏技术优化模型,减少计算复杂度的同时保持高精度。在模型部署与监控阶段,利用ModelArts的模型版本管理和灰度发布功能,确保平稳过渡;通过实时监控和A/B测试,保障模型在生产环境中的稳定性和优越性。最后,持续收集用户反馈和运行数据,定期重新训练模型以保持其时效性和准确性。通过这些步骤,可以在ModelArts平台上开发出既准确又稳定的AI模型,满足业务需求。Q:华为云 ModelArts 模型开发平台的主要优势有哪些?用户如何在不懂代码的情况下,利用华为云 ModelArts 和 Dify 平台实现分钟级的模型在线训练、微调、推理和部署上线吗?A:华为云 ModelArts 模型开发平台的主要优势包括提供一站式开发流程,涵盖数据预处理、模型训练、优化及部署;具备自动学习功能,支持自动模型选择、超参数优化和数据增强;拥有丰富的预训练模型库,用户可直接使用或微调;支持高性能计算资源,包括多GPU和Ascend芯片的分布式训练;提供模型优化工具,如模型剪枝和量化,提升边缘设备上的运行效率;以及模型部署与管理功能,支持一键部署、多版本管理和流量分配;同时,ModelArts能够与华为云其他服务无缝集成,提供开放API和SDK,便于二次开发和集成。用户在不懂代码的情况下,可通过以下步骤利用华为云 ModelArts 和 Dify 平台实现分钟级的模型在线训练、微调、推理和部署上线:首先,在ModelArts中通过图形化界面上传和管理数据集,并使用其数据标注工具进行数据标注,然后通过图形化界面进行数据预处理和增强。接着,选择自动学习功能,上传数据集并选择任务类型,ModelArts会自动选择合适的模型架构和超参数进行训练。用户还可以对预训练模型进行微调,只需在界面上选择模型并指定训练参数。随后,利用ModelArts提供的模型优化工具进行模型压缩和优化操作。接下来,使用ModelArts的一键部署功能,将训练好的模型部署为在线服务,并通过API接口调用模型进行推理。最后,在Dify AI平台上,通过拖拽组件快速构建应用界面,并使用Dify AI的API集成功能调用ModelArts部署的模型服务,通过图形化界面配置应用逻辑和参数,从而无需编写代码即可完成整个流程。Q:ModelArts是否支持多模态数据(如文本、图像、音频等)的处理和融合?A:华为云ModelArts确实支持多模态数据(如文本、图像、音频等)的处理和融合。作为一站式AI开发平台,ModelArts提供了一系列功能来支持多种类型的数据处理和模型训练需求。具体来说,ModelArts支持多种类型的数据上传和管理,包括图像、文本、音频等,并且具备数据标注和预处理能力。自动学习功能涵盖图像分类、物体检测、文本分类、语音识别等多种任务类型,适合多模态数据的初步处理和模型训练。对于更复杂的任务,用户可以通过自定义训练功能编写自定义代码,利用TensorFlow、PyTorch和MindSpore等深度学习框架实现多模态数据的融合与处理。此外,ModelArts还提供了模型优化工具,如模型剪枝、量化和知识蒸馏,帮助优化多模态模型的性能和效率。最后,训练好的多模态模型能够被部署到ModelArts的在线服务中,支持通过API接口进行实时推理和预测。ModelArts还提供了多种预训练模型,其中一些已经针对多模态数据进行了训练,可以直接使用或微调以适应特定应用场景。Q:ModelArts可以自定义算子开发吗?是否支持模型微服务化部署?A:ModelArts确实支持自定义算子开发,并且支持模型的微服务化部署。用户能够使用Python或C++等语言编写自定义算子,并将其集成到ModelArts中进行测试和验证。在模型训练过程中,这些自定义算子可用于实现特定的计算逻辑和优化目标。此外,ModelArts还提供了模型微服务化部署的能力,用户可以将训练好的模型导出为标准格式,例如ONNX或TensorFlow SavedModel,然后利用ModelArts的模型部署功能将模型部署为微服务。部署后,可通过API接口进行调用,同时ModelArts还提供了流量管理和版本控制功能,以及模型运行时的监控和日志记录,帮助用户更好地管理和维护模型服务。Q:Dify平台目前是否有AI应用移动端适配?A:Dify平台目前主要专注于提供低代码和无代码的AI应用开发能力,支持快速构建和部署各类AI应用,包括聊天机器人、推荐系统等。关于Dify平台是否直接支持AI应用的移动端适配,现有信息并不明确。Dify可能提供了一些基本的移动端适配功能,例如通过响应式设计使Web应用适配移动端浏览器,或者通过API接口将应用集成到原生移动应用中,甚至可能提供移动SDK以嵌入到原生移动应用中。但是,具体的适配细节和能力需要参考Dify的官方文档或联系其技术支持团队获取最新信息。为了获得最准确的支持情况,建议直接访问Dify的官方网站或联系Dify的客服和技术支持团队进行咨询。Q:ModelArts是否支持模型的批量预测和版本管理?A:华为云ModelArts确实支持模型的批量预测和版本管理功能,这些功能旨在提高模型部署和管理的效率及灵活性。ModelArts支持批量预测,允许用户一次性提交大量数据进行预测,这对于处理大规模数据集尤其有用。具体操作包括数据准备、模型部署、批量预测任务提交以及结果获取。用户可以通过ModelArts的控制台或API提交批量预测任务,预测结果会被存储到指定的位置,如华为云的对象存储服务(OBS)中。ModelArts还提供了强大的模型版本管理功能,帮助用户跟踪和管理不同版本的模型。具体功能包括版本创建、版本查询和管理、版本回滚以及流量分配。用户可以在ModelArts中训练或上传模型时创建新的模型版本,查看不同版本的模型及其训练参数、性能指标等信息,同时支持灰度发布,允许用户逐步将流量从旧版本模型转移到新版本模型,以验证新版本的稳定性和性能。通过这些功能,用户可以高效地管理模型生命周期,确保模型在生产环境中的稳定性和可靠性。想要了解更多大模型相关知识,欢迎观看DTSE Tech Talk 系列技术直播
-
同标题,尽可能详细解释,多谢
-
华为云的大模型和通义千问相比有哪些优势?
-
8月31日,由华为云开发者联盟联合华为(北京)虚拟现实创新中心主办的“HCDG城市行北京站——多模态大模型技术与场景化应用技术研讨沙龙”,在中关村虚拟现实产业园顺利举办。本次活动邀请到了大模型行业专家、技术专家以及优秀的企业代表进行分享,同时邀请了众多开发者到场,围绕多模态大模型技术与场景化应用展开讨论,聚焦AI前沿技术,重点关注人工智能的落地实践,一起探寻AI技术边界。华为云视频生成大模型算法专家 王博士华为云盘古大模型 让视频制作效率提升此次活动特别邀请到华为云视频生成大模型算法专家王博士亲临现场,专家以《多模态生成大模型技术与场景化应用》为主题,介绍了传统视频生产的流程、情况和难点,而盘古视频生成大模型主要囊括三种行业应用,包括一是自动驾驶,构建面向自动驾驶可控视频生成模型,提升长尾场景的识别效果以及场景泛化能力。二是具身智能,目标是构建具身智能任务执行视频生成模型,实现任务路径,意图预测的视频模拟。三是3D视频生成,通过构建工业和建筑场景的视频生成模型,从草图等设计初稿,可控生成对应的设计效果视频进而生成3D模型。手动实操 理论联系实际,增强感性认识在手动实验环节,华为云开发者技术服务专家胡子琪、刘宝梁带参与的开发者们体验了MusicGen文本生成音乐过程,可以根据文本描述(例如“带有重鼓和合成器垫声的80年代驾驶流行歌曲”)生成大约12秒的音频。MusicGen还可以选择性地使用参考音频进行“引导”,如现有的歌曲,在这种情况下,它将试图遵循描述和旋律。MusicGen使用了Transformer架构,能够根据文本提示生成新的音乐片段。与语言模型类似,MusicGen预测的是音乐片段的下一部分,而不是句子中的下一个字符。这使得它能够生成连贯和结构化的音乐作品。实操过程中,大家纷纷积极互动参与,收获良多。中影年年AIGC策划总监 魏瑜合作伙伴登台分享,共谋产业发展新蓝海本次沙龙有幸邀请到了中影年年AIGC策划总监魏瑜上台分享,主要介绍了中影年年基于华为云MetaStudio数字内容生成平台的应用,其中的数字人基于华为强大的算力和底座支撑,结合中影年年5000+高品质数字角色进行AI训练,通过一张照片可快速批量生产数字人,以AIGC生产模式实现规模化产出。针对定制化超写实数字人,采用自动化重拓扑和空洞补齐技术,满足超写实纹理和材质,还原真实毛发和现实光影、梯度照明等多种尖端技术。此外,中影开发出智能伴学AI等相关产品,引领个性化学习新体验。一人一台云主机,开箱即用现场开发者们还体验使用了华为开发者空间云主机。云主机预集成CodeArts IDE、代码仓及JDK、Python等运行时插件,解决本地开发环境中配置复杂、稳定性不足和依赖等问题,为开发者提供性能强大、安全、稳定、高效的开发环境,以及海量的技术赋能课程与专业开发者认证内容,让开发者拥有开箱即用的可延续工作空间。主题演讲后,在讲解员的带领下,开发者们共同参观了展厅,参观了包括智能数字生态互动缸、无标记点运动采集分析区、数字人体验区、4DVR过山车、3D云渲染引擎生态共性技术平台等展区项目。开发者们深入了展区项目的技术原理和应用场景,拓宽技术眼界。大家积极交流心得,分享体验感受,未来华为云HCDG将定期组织技术研讨会和技术体验类活动,以激发创新思维和促进技术交流为开发者们提供更好的学习交流平台。HCDG(Huawei Cloud Developer Group 华为云开发者社区组织),是基于城市圈和技术圈,由开发者核心组自发开展的开放、创新、多元的社区技术交流组织。致力于帮助开发者学习提升、互动交流、挖掘合作,推动技术应用与本地产业结合、数智化转型和开发者文化发展。期待您加入HCDG社区组织,点击申请报名
上滑加载中
推荐直播
-
GaussDB数据库介绍
2025/01/07 周二 16:00-18:00
Steven 华为云学堂技术讲师
本期直播将介绍GaussDB数据库的发展历程、优势、架构、关键特性和部署模式等,旨在帮助开发者了解GaussDB数据库,并通过手把手实验教大家如何在华为云部署GaussDB数据库和使用gsql连接GaussDB数据库。
去报名 -
DTT年度收官盛典:华为开发者空间大咖汇,共探云端开发创新
2025/01/08 周三 16:30-18:00
Yawei 华为云开发工具和效率首席专家 Edwin 华为开发者空间产品总监
数字化转型进程持续加速,驱动着技术革新发展,华为开发者空间如何巧妙整合鸿蒙、昇腾、鲲鹏等核心资源,打破平台间的壁垒,实现跨平台协同?在科技迅猛发展的今天,开发者们如何迅速把握机遇,实现高效、创新的技术突破?DTT 年度收官盛典,将与大家共同探索华为开发者空间的创新奥秘。
去报名 -
GaussDB应用实战:手把手带你写SQL
2025/01/09 周四 16:00-18:00
Steven 华为云学堂技术讲师
本期直播将围绕数据库中常用的数据类型、数据库对象、系统函数及操作符等内容展开介绍,帮助初学者掌握SQL入门级的基础语法。同时在线手把手教你写好SQL。
去报名
热门标签