-
在云计算领域,Serverless架构早已突破“仅用于API后端”的刻板印象,成为企业降本增效、实现业务创新的核心引擎。本文基于行业权威报告与前沿实践,盘点Serverless在十大场景中的实战价值,直击资源闲置、弹性不足、运维复杂等痛点,为技术选型提供深度参考。 一、实时文件处理:高并发场景下的“秒级响应”引擎 痛点破解:传统架构在处理用户上传的图片、音视频时,需预置资源应对流量高峰,易导致资源浪费或响应延迟。 Serverless方案:通过事件触发函数,自动执行**压缩、格式转换、内容审核**等操作。例如,用户上传图片后,多个函数并行处理,实现毫秒级转码与鉴黄鉴暴。 实践价值:资源利用率提升30%+,且无需管理文件处理集群。 二、数据ETL处理:低成本实现大数据流水线 痛点破解:传统Hadoop/Spark集群成本高,资源闲置严重,且扩缩容缓慢。 Serverless方案:对象存储触发函数执行数据抽取、清洗、转换任务。例如,日志数据存入OSS后,自动触发函数进行实时聚合,并导入分析数据库。 实践价值:按量计费避免资源空置,处理时长缩短60%+。 三、AI推理预测:弹性承载模型服务 痛点破解:AI模型部署需长期占用GPU资源,推理请求波动大,成本可控性差。 Serverless方案:将训练好的模型封装为函数,通过API网关触发推理任务。 实践价值:资源成本降低70%+,且自动伸缩应对流量洪峰。 四、IoT后端:万物互联的“轻量大脑”痛点破解:物联网设备数据量波动大,传统后端易过载或资源浪费。 Serverless方案:设备数据通过MQTT等协议触发函数,实时处理并存储。例如,智能音箱的语音请求由函数解析后返回结果。 实践价值:毫秒级弹性伸缩,支撑亿级设备连接。 五、音视频转码:自适应码率的“智能工厂” 痛点破解:视频平台需为不同终端生成多清晰度文件,转码集群运维复杂。 Serverless方案:上传视频触发函数链,并行生成多规格输出。 实践价值:转码成本下降40%+,且支持4K/8K超高清实时处理。 六、电商边缘定制:大促流量的“隐形护盾” 痛点破解:电商活动期间流量瞬发,中心化架构易崩溃。 Serverless方案:边缘节点运行函数,实现个性化页面渲染、虚拟排队、库存更新等功能。 实践价值:春晚级大促场景下,资源成本降低20%,研发效率提升40%。 七、实时数据处理:流式数据的“即时分析器” 痛点破解:传统消息队列处理流数据时,需维护消费者集群,稳定性差。 Serverless方案:消息触发函数实时清洗、聚合数据。例如,电商点击流实时分析用户行为。 实践价值:数据延迟从分钟级降至秒级,运维效率提升70%。 八、自动化运维:无人值守的“云上SRE”痛点破解:运维脚本需常驻服务器,权限管理复杂,执行记录难追踪。 Serverless方案:通过定时触发器或告警事件执行**日志归档、资源巡检、自动扩容**等任务。 实践价值:运维人力投入减少50%+,且规避脚本环境依赖问题。 九、持续集成/交付:按需供给的“构建工坊”痛点破解:传统CI/CD需维护构建集群,资源利用率低。 Serverless方案:代码提交触发函数动态创建构建环境,完成后自动释放。 实践价值:构建资源成本下降80%,并发任务数无上限。 十、边缘AI与渲染:元宇宙的“算力毛细血管” 痛点破解:XR、云游戏等场景要求低延迟渲染,中心化算力难以满足。 Serverless方案:边缘节点运行函数完成图像渲染、AI推理,结果就近返回。 实践价值:端到端延迟降至50ms内,用户体验显著优化。 场景选择指南:如何匹配业务与Serverless? 根据CNCF总结,Serverless优先适用于以下特征场景: 1. 异步并发——任务可独立拆分并行处理; 2. 流量波动大——突发请求需秒级扩容; 3. 短时任务——单次执行时长在分钟级内; 4. 事件驱动——由存储、消息等事件触发。 结语:Serverless的边界与未来 Serverless正从“单一功能平台”迈向“全栈应用引擎”,在AI、边缘计算、元宇宙领域持续拓展。据Gartner预测,2025年超50%企业将采用Serverless架构。企业需跳出“仅作API后端”的局限,挖掘其在实时处理、弹性算力、成本优化中的核心价值,方能在技术浪潮中抢占先机。
-
直播回放链接:cid:link_0 本次直播基于云开发环境与全栈工具链深度体验昇腾鲲鹏等根技术生态, 三大课程体系:AI系列(DeepSeek/MCP)、鲲鹏调优、MySQL实战,涵盖人工智能系列含MCP智能体协议开发实战鲲鹏性能调优及MySQL数据库实战课程,重点介绍开发者空间三大系列课程与MCP协议揭秘并提供百万级DeepSeek Tokens资源。开发者空间系列精品课,面向个人开发者、高校开发者和企业开发者,结合开发者特点并基于空间能力,开发个性化体系化精品课程。每门课程都存在配合理论知识的实操手册案例,在开发者空间中进行实验操作,实现边学边练,从而达到掌握知识的目标。课程链接地址:cid:link_1 结合当前热门技术,进行逐步分层的技能深入拓展,按照技术领域和职业发展方向规划学习路径,帮助开发者快速获取所需技能。 Q:什么是MCPA:MCP(Model Context Protocol,模型上下文协议) ,2024年11月底,由 Anthropic 推出的一种开放标准,旨在统一大型语言模型(LLM)与外部数据源和工具之间的通信协议。MCP是基于JSON-RPC 2.0的协议,是一种Client/Server架构,提供了多种语言(Java、TypeScipt、Python、Kotlin)的MCP Client SDK和MCP Server SDK。Q:MCP Server 和我们平时说的后端服务器(Backend Server)是一个东西吗?A:有关联,角色定位不同。可以理解为后端服务器是一个“后厨”,负责做菜,执行业务逻辑,访问数据库,和调用算法等等。而MCP Server则是站在后厨门口的“专业点餐员”,它懂AI助手语言,就是MCP协议,负责接收AI订单,并翻译给“后厨”,也就是后端服务器。Q:链式调用多个工具的MCP工作流时(比如:先搜索资料 -> 再总结 -> 最后发邮件), 我应该在Client(AI助手)层面编排这些步骤,还是在MCP Server内部封装这个完整流程? 这两种方案各有什么优劣?A:优势:灵活性高,可解释性强;缺点:依赖AI能力,需要有较强的AI逻辑能力。Q:请问开发者空间云主机免费使用时长是总共180小时,还是每年180小时免费使用时长?A:目前是每年180小时免费使用时长。Q:自己尝试做一个 MCP Server,需要什么准备?难不难?A:( 不难 )入门并不难!你只需要:基础知识:基本的Python或Node.js编程能力。核心环境:一个AI助手平台(如Cursor、Cherry Studio、Claude Desktop等)作为MCP Client。你可以从做一个最简单的“天气查询Server”或“备忘录Server”开始,一两个小时就能跑通第一个例子,体验非常好!华为开发者空间,让开发者低门槛体验华为工具和资源,是为全球开发者打造的专属开发空间,汇聚昇腾、鸿蒙、鲲鹏、GaussDB、欧拉等各项根技术的开发资源及工具,致力于为每位开发者提供一台云主机、一套开发工具和云上存储空间,为开发者提供AI时代的智能应用开发体验,集成AI原生应用引擎,开发者可一键生成智能Agent,调用MCP Server插件能力,快速构建个性化AI应用。快来学习体验吧!
-
直播回放: https://bbs.huaweicloud.com/live/DTT_live/202508201630.html 本期直播详解本次直播回顾了近一年AI应用的发展趋势从“助手”到“智能体”再到“企业级融合应用”的演进。并邀请华为云Serverless总监Ewen解读MCP协议为解决行业知识接入难题而诞生的必然性及其核心价值、华为云Serverless如何构建一套完整方案,解决企业级AI建设的运行和治理难题,帮助企业快速、高效、低成本地落地AI应用。Ai应用的演进趋势AI应用的第一阶段是以单一通用大模型为核心。它的典型特征是模型即应用,价值在于问答和分析,扮演一个“助手”的角色。但其局限性在于无法驱动外部业务系统、需要频繁人工干预,因此难以解决实际的、复杂的企业业务问题。第二阶段:AI Agent。AI Agent不再只是模型本身,而是一个自主的任务调度中枢。它能将复杂任务拆解,分发给合适的模型或工具执行,并能自主调用API和访问数据,动态执行动作。这意味着AI应用从只有“大脑和嘴巴”的助手,进化成了有“手和脚”的智能体。实现了动态决策和多模型协作。但第二代AI Agent仍是“自我闭环”的,它无法深度连接企业内部的私有知识、数据和系统,因此只能解决通用问题,无法解决专业领域问题。这就催生了第三阶段AI应用的演进:引入MCP协议。MCP的核心作用正是以标准化方式,让AI应用无缝链接企业内外的各种数据、服务和知识库,从而打破AI应用的界限。Agent(大脑) + MCP(手脚桥梁) + 大模型(知识基础) 这三件套组合,构成了真正适用于企业级的“融合AI应用”。MCP的关键优势在于它是业界统一的开放标准,使得任何服务都能以统一方式与AI交互。通用大模型训练成行业模型成本高、数据要求严,难以普及,而MCP提供了另一种思路:不改变模型本身,而是将企业的知识、数据和服务“外挂”给模型。MCP就是这个“外挂”的统一标准协议,真正解决行业问题。它就像是AI世界的USB-C通用接口。你的笔记本(AI应用)通过这个接口,可以连接任何外设(企业服务、数据、知识库)。MCP协议打破壁垒,实现即插即用,极大地拓宽了AI应用的能力边界。MCP不仅让AI应用能读取外部数据,更能反向调用外部服务去执行动作。这意味着AI从“顾问”变成了“执行者”,实现了从静态推理到动态执行的质变。例如,它不仅能给你旅行建议,还能直接帮你订好酒店和车票。接下来,我们将探讨如何构建这样的AI 应用华为云如何提供一整套工具和架构,让“Agent + MCP + 大模型”新组合范式能够高效、低成本地落地?华为云提供的整体架构方案MCP Server是连接企业内部能力的桥梁,企业可以将各种业务能力托管在上面,暴露给AI Agent调用。而华为云Serverless平台负责流量的转发、调度和稳定运行。这带来了一个巨大优势,即轻松实现存量系统的AI化。企业里现有的通过API开放的服务和数据,可以通过华为云网关API,无缝转换成MCP协议。这意味着企业无需改造老系统,就能让AI应用直接调用它们。AI应用的边界被打破了,整个企业的IT资产都能被快速“AI-ready”。为什么企业AI应用的核心组件要用Serverless托管?因为AI应用是典型的事件驱动型应用:即有问答时消耗资源,没问答时完全空闲。如果采用传统部署方式会导致资源大量闲置浪费,而Serverless的按需运行、按量付费模型与AI应用是完美契合,能为企业实现极致的降本增效。为了进一步加速落地,华为云提供了Serverless应用中心,其预置了丰富的Agent和MCP Server模板。这些模板一键部署到Serverless平台上,快速获得一个功能完备的AI应用,降低开发门槛和时间成本。总结来说,Serverless + MCP 为企业级AI应用提供了一套全新的高效范式,让落地变得快速和简单。深入解读这套华为云架构方案解决AI应用中最核心两个问题:“如何连接?” 和 “如何托管?AI应用之间“三大件”(Agent、大模型、MCP Server)之间如何智能地通信和协作?如何让AI应用具备稳定性、安全性、高性能和低成本,从Demo变成真正可上线的生产系统?华为云Serverless构建了一套完整方案,通过提供AI网关、云应用引擎、函数计算、微服务引擎等核心能力,解决AI应用运行和治理难题。一、华为云全新的 AI网关。它不同于传统的API网关,具备三大核心能力:原生支持MCP协议:华为云AI网关是“Agent、大模型、MCP Server”三者间的天然粘合剂。智能流量分发:华为云AI网关能深度分析用户提问(Token内容),将问题精准路由到最擅长处理该领域的模型或Agent上,保证回答准确。企业级安全:华为云AI网关提供各种标准的鉴权方式,保障整个AI应用访问的安全。二、AI应用中Agent怎么托管?MCP Server怎么托管?华为云根据组件特性,提供两级最优的Serverless托管方案:对于Agent(有状态): 推荐使用华为云云应用引擎CAE。它以应用为维度进行托管和弹性伸缩,能很好地保持Agent的会话状态,同时兼顾性能和成本。对于MCP Server(无状态): 推荐使用华为云函数工作流 FunctionGraph。它完美匹配MCP事件触发、瞬时处理的特点,真正做到闲置时成本为零,并且启动速度和隔离性都经过深度优化。Serverless托管在技术方面,给企业极致的弹性伸缩与成本优化。体验价值方面,对开发者友好,一站式部署、所见即所得,大幅提升开发效率。华为云以 Serverless技术为核心,整合Agent和MCP能力,为企业构建了一个完整的、可落地的AI智能中枢。无论企业的需求多么复杂,都可以通过华为云构建的AI智能中枢实现能力的快速互通和流转,驱动业务创新。三、华为云Serverless总监Ewen说:真正的企业级AI化不是另起炉灶,而是与现有IT资产和经验的深度融合华为云Serverless提供的不仅是最新的技术组件,更是一套将成熟的微服务治理体系平滑演进到AI治理体系的完整方案,让企业能够盘活存量、拥抱增量,无痛实现全面智能化。 构建新AI应用只是第一步。更关键的问题是:如何让新AI能力赋能存量业务和数据?又如何让老系统快速拥抱AI? 这是实现企业全面智能化的终极挑战。通过华为云微服务引擎CSE,我们提供了一站式解决方案:协议转换: 直接将现有微服务API转换成MCP Server,让AI应用能直接调用。服务治理: 提供 MCP注册中心,实现服务的动态发现和确定性治理,你能清晰知道企业内有哪些AI能力可用。这彻底解决了存量应用与AI应用的融合难题。这套方案的优势在于,它不是从零开始构建,是经验传承。我们将华为云在微服务治理领域积累的所有最佳实践和经验,直接复用于AI应用的管理。这意味着企业使用一套久经考验的、成熟的治理体系来管理企业级AI应用,以实现了从微服务到AI服务的平滑演进。Ewen不仅是华为云Serverless产品负责人,在整个Serverless领域发展的过程中,也一直专注于能够将整个Serverless技术带入到真实的行业场景当中去。为更多的开发者,企业业务应用带来一个更加强大的弹性伸缩、降本增效的Serverless平台。本期直播期间收到了许多开发者伙伴的提问,已由华为云DTSE技术布道师一一解答,欢迎在文末扫码回顾直播并查看相关问题解答。以下为部分精选问题: Q1:MCP协议的产生对AI应用意味着什么?能够提供何种助力?A:MCP协议对AI应用意味着一次质的飞跃。它最核心的价值是解决了如何让通用型AI应用下沉到具体行业和企业,去解决专业领域实际问题的难题。MCP是AI应用“行业化”和“专业化”的关键使能器。 Q2: AI应用越来越多,所产生的MCP生态也继续扩大,那未来会发展成什么样子?A:AI应用就是下一个流量核心入口。地图、支付、数据等各类服务商都在将自身能力以MCP协议开放。这将为开发者带来巨大红利。未来构建AI应用,不再需要重复开发通用功能,而是可以像‘逛App Store’一样,从MCP市场中挑选并集成最优秀的能力,快速打造功能强大的应用,将重心完全放在核心创新上。最终,一个由能力提供商、开发者和用户构成的正向循环生态将形成。它不仅会带来技术的融合,更将催生全新的商业模式,如能力订阅、专业MCP开发等,这就是MCP协议所引领的、令人兴奋的未来。” Q3:从开发者的视角,相比传统应用和云原生应用,AI应用会带来哪些变化? A:【开发者视角】传统应用是确定的,开发者是主导一切的“乐手”。而AI应用是非确定性的、自主的,开发者变成了评估结果、统筹规划的“指挥家”。这意味着对开发者的系统思维和架构能力要求更高了,降低了对单一领域专业技能的学习门槛。开发者可以站在更高的维度,组合各种AI能力来构建更强大的应用。【运行视角】传统应用的流量是可预期的,而AI应用的执行链长度和资源消耗是完全不可控的、突发的。AI应用这种 “事件触发” 的特性,让需要预先分配资源的传统虚机/容器模式感到吃力。这正是我们坚信 Serverless技术将与AI应用共同普及和爆发的原因。Serverless的毫秒级弹性伸缩和按需使用、闲置成本为零的模式,完美匹配AI应用的天性,真正助力其落地。Q4: 开发者使用MCP协议会遇到哪些问题?当遇到这些问题的时候,开发者可以采用哪些方式规避掉?A:遇到的第一个问题是弹性与成本。MCP调用具备突发、不可预测的特性,为避免资源闲置浪费,最根本的解决方案就是采用 Serverless托管模式(云应用引擎for Agent, 函数计算for MCP Server),用更低的成本保障应用流畅运行。但更关键的是第二个问题:内生性安全风险。AI应用能自主决策,这带来了传统应用没有的新风险——跨用户的数据泄露。例如,用户A的请求数据和结果,可能会意外泄露给提出类似请求的用户B。这不是外部攻击,而是AI自主执行流程中可能产生的漏洞。针对这一风险,华为云在Serverless平台底层做了深度安全加固。核心方案是:每个MCP Server请求都在一个独立的函数沙箱中运行。请求处理完毕后,沙箱连同其所有运行数据立即被彻底销毁。这样实现了极致的租户隔离,从架构上根除上下文泄露的风险。总结来说,弹性,安全隔离是使用MCP时需要关注的核心问题。华为云Serverless平台已经通过沙箱隔离机制等一系列安全加固,为开发者扫清了这一障碍,确保AI应用在拥有强大能力的同时,也具备企业级的安全性。 Q5:面临安全隔离的问题,我们开发用函数沙箱去解决它,这是不是Serverless函数会成为Agent加MCP Server托管的最佳选择的原因呢?A:Serverless是AI应用的最佳底座,但其内部针对不同场景有最优选型。函数计的弹性、隔离和易用性,使其成为托管无状态MCP Server 的完美选择,能解决安全与成本问题。然而,Agent需要保持会话和上下文状态,函数‘用后即焚’的特性会破坏这种状态。因此对于Agent,我们推荐另一款Serverless产品——华为云云应用引擎CAE ,它能提供出色的会话保持能力。根据您的业务场景选择最合适的工具即可。
-
以为夏日漫长, 却忽而已秋,晚风凉凉,秋意初显PaaS生态宠粉福利又双叒叕来咯给你一整个惊喜和仪式感,与夏末余热告别吧登录四个开发平台,即可获得抽奖机会1次,100%中奖悄悄告诉你,奖品池大换新,一起解锁吧 一、活动时间2025年8月27日-8月29日二、活动流程登录4个平台 → 首页截图 → 发给活动助手 → 参与抽奖三、活动方式第1步:活动期间,登录PaaS生态大家族4个产品的用户,凭登录截图联系活动助手,即可参与抽奖活动(注意:截图需包含华为云账号)。①产品一:FunctionGraphFunctionGraph是基于事件驱动的函数托管的计算服务,使用FunctionGraph函数,只需编写业务函数代码并设置运行的条件,无需配置和管理服务器等基础设施,函数以弹性、免运维、高可靠的方式运行,助力开发者快速上线各类应用。登录网址:cid:link_0②产品二:CodeArts 华为云软件开发生产线CodeArts是一站式、全流程、安全可信的云原生DevSecOps平台,覆盖需求、开发、测试、部署、运维等软件交付全生命周期环节,为开发者打造全云化研发体验。登录网址:cid:link_3, ③产品三:CodeArts IDE 华为云CodeArts IDE Online是轻量级WebIDE,通过浏览器即可实现环境快速获取和环境访问,完成编码、构建、调试、运行、访问代码仓库和命令执行等工作,支持第三方业务集成,内置插件市场支持插件扩展。登录网址:cid:link_2 ④产品四:Astro Zero Astro 低代码平台是华为云自主创新的全场景低代码平台,其中的Astro轻应用,通过简单拖拽配置完成应用搭建,轻松构建专业级应用,创新随心所欲,敏捷超乎想象,为企业提供低门槛、高效率的数字化业务应用生产新模式。登录网址:cid:link_1, 第2步:添加小助手微信号,将所有的首页截图发给其中一位工作人员即可。 第3步:经过小助手确认有效后,即发送链接进行抽奖,100%中奖。四、奖品展示苏泊尔保温杯、手机支架、手持电风扇、冰箱贴、熊猫小夜灯、折叠团扇。五、活动须知a.奖品已实物为准,如遇缺货将为您替换同等价值奖品;b.请确保您的用户信息填写准确无误,以便我们及时为您送上精美奖品;c.请确保截图右上角华为云用户名与获奖信息保持一致,即截图、获奖信息与华为云账号保持一致视为一次有效抽奖,否则不予奖品发放;d.奖品将在活动结束后15个工作日内发放,如遇缺货将会替换同等价值奖品;e.如有任何疑问,欢迎随时联系我们的小助手;f.本活动最终解释权归PaaS生态宠粉活动所有。
-
DTT直播是华为云开发者联盟推出的技术公开课直播栏目,解读云上前沿技术,畅聊开发应用实践。由专家团队授课,答疑解惑,助力开发者使用华为云开放能力进行应用构建、技术创新。8月20日16:30,DTT第79期为大家带来《HDC深度解读系列-Serverless与MCP融合创新,构建AI应用全新智能中枢》。HDC2025期间,华为云展示了Serverless与MCP融合创新的解决方案,本期访谈直播,由华为云开发者专家(HCDE)兼华为云开发者社区组织HCDG北京核心组代表张鹏先生主持,华为云PaaS服务产品部 Serverless总监Ewen为大家深度解读华为云Serverless与MCP如何融合构建AI应用全新智能中枢。
-
夏日炎炎,暑气正盛PaaS生态夏日嘉年华带着满满的清爽和诚意来啦登录任意两个以上开发平台,即可获得抽奖机会1次,完成四个额外获得抽奖机会1次!无论是被高温困住脚步的你,还是在空调房里想找点乐子的你,这场夏日限定狂欢都能让你甩掉燥热,收获一整个夏天的好心情! 活动时间2025年7月28日-7月31日活动流程登录2个及以上平台 → 首页截图 → 发给活动助手 → 参与抽奖活动方式第1步:活动期间,登录PaaS生态大家族2个及以上PaaS开发平台的用户,凭登录截图联系活动助手,即可参与抽奖活动。 ①【FunctionGraph平台】FunctionGraph是基于事件驱动的函数托管的计算服务,使用FunctionGraph函数,只需编写业务函数代码并设置运行的条件,无需配置和管理服务器等基础设施,函数以弹性、免运维、高可靠的方式运行,助力开发者快速上线各类应用。截图需包含华为云账号登录网址:cid:link_0 ②【Astro Zero平台】Astro 低代码平台是华为云自主创新的全场景低代码平台,其中的Astro轻应用,通过简单拖拽配置完成应用搭建,轻松构建专业级应用,创新随心所欲,敏捷超乎想象,为企业提供低门槛、高效率的数字化业务应用生产新模式。截图需包含华为云账号登录网址:cid:link_1, ③【CodeArts平台】华为云软件开发生产线CodeArts是一站式、全流程、安全可信的云原生DevSecOps平台,覆盖需求、开发、测试、部署、运维等软件交付全生命周期环节,为开发者打造全云化研发体验。截图需包含华为云账号登录网址:cid:link_3, ④【CodeArts IDE平台】华为云CodeArts IDE Online是轻量级WebIDE,通过浏览器即可实现环境快速获取和环境访问,完成编码、构建、调试、运行、访问代码仓库和命令执行等工作,支持第三方业务集成,内置插件市场支持插件扩展。截图需包含华为云账号登录网址:cid:link_2 第2步:添加小助手微信号,将所有的首页截图发给其中一位工作人员即可。 第3步:经过小助手确认有效后,即发送链接进行抽奖。 登录任意两大开发平台,即可获得抽奖机会1次; 完成四大开发平台登录并截图,额外获得1次抽奖机会; 当用户获得 2 次抽奖机会且两次抽奖均获奖时,可从两次抽中的礼品中选择其一,另一未选择的礼品自动失效;若两次抽奖中仅有一次获奖,则获得该次抽中的礼品;若两次均未获奖,则无礼品。奖品展示华为智能跳绳 8个云宝公仔 50个便携茶具 10个U型枕 6个数据线 30个马克杯 14个*奖品已实物为准,如遇缺货将替换同等价值礼品。活动须知请确保您的用户信息填写准确无误,以便我们及时为您送上精美奖品。请确保截图右上角华为云用户名与获奖信息保持一致,即截图、获奖信息与华为云账号保持一致视为一次有效抽奖,否则不予奖品发放。奖品将在活动结束后15个工作日内发放,如遇缺货将会替换同等价值奖品。如有任何疑问,欢迎随时联系我们的小助手。本活动最终解释权归PaaS生态夏日嘉年华活动所有。特别注意:用户参与活动产品截图中的华为云账号需与参与抽奖的华为云账号一致,否则获奖信息无效。
-
Serverless 函数通常需要依赖外部库或框架,如何管理这些依赖,并确保部署过程的自动化和一致性?
-
在 Serverless 架构中实现高效的日志管理和监控?
-
如何在微服务架构中有效利用 Serverless 技术,实现快速开发和高效运维?
-
如何有效地监控和调试 Serverless 应用,尤其是在分布式环境中?
-
【学习赛简介】AIGC作为当下最热门的技术领域,逐渐深入到了人们生活工作的方方面面,在各个领域都有着广泛的应用场景。同时也面临着诸多挑战,包括硬件成本高昂、资源分配困难以及部署与维护复杂等问题。而随着Serverless技术的发展,这些难题正在得到有效解决,为AIGC应用的广泛应用打开了新的可能性。本赛道围绕华为云FunctionGraph和ModelArts服务,并结合CodeArts IDE、开发者空间等,展示Serverless如何帮助开发者快速构建AI应用,从而简化AIGC应用的部署和管理流程,为用户提供了更加便捷、高效的应用体验。开发者可根据本指导文档,完成相应环节后提交,即可参与奖项。赛事详情请点击大赛首页链接>>Link。【环境准备】点击链接>>Link,根据领取指南免费领取云主机,成功领取后可开始实验操作。【环节一】Serverless Hello World1、创建函数点击链接>>Link进入函数工作流界面,点击“创建函数”,参数如下:创建方式:选择创建空白函数函数类型:HTTP函数区域:华北-北京四项目:保持默认函数名称:用户自定义企业项目:保持默认委托名称:保持默认点击“创建函数”,等待创建完成。2、测试函数在函数详情页,依次点击“代码”->“测试”->“创建”,来创建一个APIG触发器的测试事件。再次点击“测试”,即可在右侧看到测试结果。返回结果的Body体内容经过Base64编码,解码后可以看到其内容就是函数写入的内容。【环节二】实现AI 动漫头像制作功能1、前期准备1.1 订阅模型并部署 AI 应用在华为云控制台点击搜索框搜索“ModelArts”,点击“ModelArts”,选择“AI Gallery”。导航栏选择“模型”,搜索框输入“动漫”,选择“头像动漫化模型”。进入详情页,点击“部署”,选择“ModelArts”。选择ModelArts的云服务区域。跳转到订阅应用列表,如果页面提示需要创建委托,根据指引创建即可。委托创建成功后订阅应用列表,点击“部署”。点击右侧弹窗“部署”按钮,选择“在线服务”。资源池选择“公共资源池”,AI应用及配置选择“订阅应用”,选择AI应用及版本,计算节点规格选择“[限时免费]CPU:1核4GB”,勾选“我已阅读并同意以上内容”,点击“下一步”。点击“提交”。确认服务处于运行中状态,复制API接口公网地址备用。1.2 创建委托打开创建委托页面地址:https://console.huaweicloud.com/iam/?region=cn-north-4&locale=zh-cn#/iam/agencies/create输入委托名称、委托类型选择“云服务”、云服务选择“函数工作流FunctionGraph”。配置权限,选择ModelArts FullAccess。1.3 创建函数依赖包进入“函数工作流”界面,依次选择“函数”、“依赖包管理”,点击“创建依赖包”。填写“依赖包名称”,代码包上传方式为“从OBS上传文件”,将OBS链接粘贴到“OBS链接URL”中(OBS URL:cid:link_1 )运行时语言为“Python3.9”。1.4 下载示例代码点击>>Link,找到大赛【赛题详情】页底部的示例代码,下载并将其解压到本地任意目录。2、上传函数代码在函数详情页,依次点击“代码”->“上传自”->“zip文件”->“添加文件”。选择解压后的目录中的step1.zip,然后点击“确定”,等待代码更新成功。3、添加依赖包函数用到了Flask web框架,需要为函数添加所需依赖包。在函数详情页,选择“代码”,然后下滑到最底部,选择“添加依赖包”。参数如下:依赖包源:私有依赖包依赖包名称:选择前期准备中创建的依赖包版本:保持默认1点击“确定”。4、修改函数配置在函数详情页,依次点击“设置”->“常规设置”,修改以下参数:执行超时时间(秒):60内存(MB):256点击保存。在函数详情页,依次点击“设置”->“权限”,函数配置委托选择前期准备中创建的委托,点击保存。在函数详情页,依次点击“设置”->“环境变量”->“编辑环境变量”->“添加环境变量”。环境变量键值分别如下:键:MODEL_ART_API值:前期准备中部署后复制备用的API接口公网地址点击确定。点击“设置”->“高级设置”,打开“请求头传入密钥”开关,点击保存后重试5、创建触发器在函数详情页,点击“创建触发器”,触发器类型选择“API 网关服务 (APIG)”,然后点击“创建分组”跳转到APIG服务页面。点击右上角“创建分组”,分组名称可以保持默认,点击确定即可。回到函数页面,点击分组后的刷新按钮即可选中新创建的分组。其他参数如下:API名称:保持默认发布环境:RELEASE安全认证:None请求协议:HTTPS后端超时(毫秒):60000点击确定6、访问函数制作头像到这里函数和AI应用就已经部署好了,可以复制URL到浏览器打开web页面开始制作动漫头像。可以看到现在网页界面并不美观,我们可以利用函数快速发布的能力,快速修改我们的代码,实现快速迭代,下面我们利用这一能力美化网页界面,步骤如下7、更新代码使用任意文本编辑器打开示例代码code_demo/step2/ templates/index.html,复制文件内容回到函数页面,点击“代码”,打开templates/index.html,用复制的内容覆盖原有内容,然后点击“部署”,等待部署成功8、重新访问触发器URL可以看到,页面发生了变化【环节三】基于CodeArts IDE和FunctionGraph插件本地化开发阶段一和阶段二操作均基于网页进行,这与我们一般的开发流程并不相通,华为云发布的CodeArts IDE结合FunctionGraph开发插件可以为用户提供本地化开发、部署、调测的能力。1、安装FunctionGraph插件点击进入>>开发者空间-云主机,打开CodeArts IDE,点击左侧“扩展”搜索“CodeArts FunctionGraph”点击安装该插件。3、创建函数FunctionGraph插件安装后,打开插件,在插件窗口点击“…”选择“创建函数”,选择Http Function函数。选择Hello World。定义函数名:carton-generation,注意不要与已有函数同名。选择工程路径,选择后插件会在该路径下创建carton-generation工程。将示例代码step2目录中的所有文件复制工程目录的src目录,覆盖已有文件打开工程目录中的template.yml文件,修改以下参数:MemorySize: 256Timeout: 604、部署函数回到插件页面,选择部署函数。选择新建的函数下的yml文件。部署环境选择“华北-北京四”。等待部署成功。点击“选择要展示的Region”,选择“华北-北京四”,可以看到该区域下刚部署好的函数:carton-generation。右键选择函数,点击浏览器打开,跳转到函数详情界面。5、添加依赖包函数用到了Flask web框架,需要为函数添加所需依赖包。在函数详情页,选择“代码”,然后下滑到最底部,选择“添加依赖包”。参数如下:依赖包源:私有依赖包依赖包名称:选择前期准备中创建的依赖包版本:保持默认1点击“确定”6、修改函数配置在函数详情页,依次点击“设置”->“权限”,函数配置委托选择前期准备中创建的委托,点击保存在函数详情页,依次点击“设置”->“环境变量”->“编辑环境变量”->“添加环境变量”环境变量键值分别如下:键:MODEL_ART_API值:前期准备中部署后复制备用的API接口公网地址点击“设置”->“高级设置”,打开“请求头传入密钥”开关,点击保存后重试7、创建触发器在函数详情页,点击“创建触发器”,触发器类型选择“API 网关服务 (APIG)”,然后点击“创建分组”跳转到APIG服务页面点击右上角“创建分组”,分组名称可以保持默认,点击确定即可。回到函数页面,点击分组后的刷新按钮即可选中新创建的分组。其他参数如下:API名称:保持默认发布环境:RELEASE安全认证:None请求协议:HTTPS后端超时(毫秒):60000点击“确定”8、调试函数回到IDE,右键选择函数,点击执行函数,打开调试界面,测试事件模板选择apig-event-template。修改测试事件,将path改为/,并点击测试可以在输出栏看到调试结果,状态码为200,表示执行成功9、访问函数制作头像到这里函数和AI应用就已经部署好了,可以复制URL到浏览器打开web页面开始制作动漫头像。【提交说明】方式一:参赛者按照指导文档完成应用后,分别将环节一、二、三的最终画面截图和对应的函数URN打包成RAR/ZIP压缩包上传至大赛“提交作品”页>>Link,命名方式为“姓名-联系方式”,赛事期间每人每天有2次上传机会。方式二:将环节二或环节三最终生成的应用及动漫头像截图发布到指导文档评论区,评论格式为华为云账号+截图+函数URN,可参考评论区一楼样式。
-
张嘉伟近年来,Serverless服务崛起的趋势是有目共睹的:从Berkeley将Serverless认定为云计算向用户呈现的新默认形态[1],到AWS、Google等头部厂商纷纷推出Serverless产品并成为爆款。这个趋势对于云计算平台是个必然,因为Serverless解放了用户管理和使用复杂云计算资源的双手,犹如第二次工业革命中内燃机汽车的出现解决了马车夫养马的麻烦,也推动高效、稳定的交通工具走进寻常百姓家。如同汽车由内燃机和转向机构等组件构成,Serverless平台可大致分为资源管理和任务编排[2],分别致力于提供高效且灵活的算力以及提供方便的用户程序执行方式。在Serverless如火如荼的同时,Regionless也是不可忽视的一个方向。Regionless实际上是华为云提出的概念,即为屏蔽掉云平台Region的差异,使得云服务的租户能像“用水和用电”一样随时随地使用云服务。Regionless的内涵实际上是丰富的,囊括了多个学术研究方向:可以是geo-distributed cloud,也可以是multi-cloud,还可以是cloud-edge computing、 hybrid cloud等,分别对应不同的能力。恰好,以上都涵盖在华为云分布式云原生服务提供的offerings中。既然Serverless和Regionless都是当前云原生发展的重要方向,也都基于同一个云平台资源底座构建,那么两者的发展必然不会是平行的:Serverless对基础设施进行了标准化,为应用Regionless化减少了管理和适配的成本;反过来,Regionless也是Serverless的重要组成,因其可以避免用户感知Region间的差异。事实上,早在2018年,就有学者关注到Serverless对底层差异的屏蔽以及平台提供商数量的快速增长,用户必然会有将Serverless业务部署至Regionless平台的诉求[3]。在此场景下,用户和平台设计者首当其中考虑到的就是如何充分利用分布在各个区域的计算资源以提升如并发度、时延等性能;同时,使用成本也是用户核心关注点,所以如何充分利用各个厂商的定价差异消减成本,同时也避免与厂商绑定(vendor lock-in)带来潜在的成本问题也需要充分考虑。因此,本文尝试基于分析现有的学术文章,剖析Serverless与Regionless并存时,在性能提升和成本控制两个方向的现状与挑战,以期抛砖引玉。性能提升早在2019年,来自华盛顿大学的研究者[4]已经注意到Serverless工作流中的计算任务会涉及存储在不同区位的数据,并且这些数据在对应区位会存在隐私性等问题,因此需要将任务分布到对应数据所在的云平台Region进行计算。为此,作者设计了跨Region的调度器GlobalFlow,其核心思想是将工作流中的任务根据对Region的依赖关系进行分组,形成子工作流调度到对应Region,并且在子工作流之间设计Connector以便于数据交换。同样考虑到数据分布的问题,即数据可能分布在不同的区域,而且由于数据隐私性、传输开销等问题,并不能方便地集中在一个区域内处理,[5]中的作者设计了FaDO系统用以编排Serverless计算任务和数据。如图1所示,FaDO通过Backend Server记录每个区域存储的数据,这些信息则被提供给Load Balancer用于将用户请求的计算任务匹配并发送到对应的区域。并且在规则允许范围内,Backend Server还会将数据备份在不同的区域间进行复制,以配合计算任务的并发度。图1 FaDO系统执行流程除了数据的分布会促使Serverless必须接受Regionless,[6]的作者还观察到:一个云厂商的每个Region、每个厂商都有不同的并发度限制,并且之间的数据传输时延、存储的数据、每种任务执行的速度等能力均不一致。简单的将应用分发到多云/多Region上并不一定能充分提升并发度和整体完成时间。例如图2左侧所示(每种颜色标记的云上并发度限制为1000,整体应用由f1-f4任务构成,也需要运行1000次),如果f1在蓝色标识的云资源上运行地快,而f4则在橙色上快时,均匀分布则不能利用这个性能差异,而且在橙色云上,f2和f3并不能充分并行(完全并行需要1200并发度),进一步影响整体执行时间。在此情况下,如何合理选择任务所使用的云资源(如图2右侧所示),以有效地提升并发度是[6]所研究的重点。为此,[6]中提出了基于三层数学抽象构建的调度器算法FaaSt。FaaSt能够合理地将各个任务调度和合适的云厂商/Region上,使得整体的任务完成时间最短。经过在AWS和IBM云上4个Region的实验对比,FaaSt调度后的任务完成时间比单云提升2.82倍。图2 Serverless并发度示意图成本控制为了协助用户选择合适的平台以执行Serverless任务,[3]中提出了MPSC框架,其核心思想是通过实时监控Serverless任务在不同平台上执行的性能,进而选择最具性价比的平台。MPSC的架构如图3所示,其中Monitoring Controller为核心组件,用于协调监控指标采集分析和任务调度。Function Executor则负责将任务分发至各个平台执行,并采集对应指标。除此之外,还有三个存储模块分别用于储存用户配置、监控指标、用户定义的调度逻辑。图3 MPSC系统架构在Serverless任务能够合理分发的基础之上,来自CMU和UBC的学者提出了虚拟Serverless提供商(virtual Serverless provider, VSP)[7]的概念。VSP作为第三方的平台,聚合了各个厂商的Offerings,为用户提供统一的使用接口,为用户动态选择最具性价比的Offering。VSP整体架构如图4所示,其中核心组件包括:Scheduler用以根据性能指标和花费计算最合适的云平台;Controller则负责将应用请求映射到Scheduler选择的云平台上;Bridge用于不同云平台之间任务的交互;Monitor用以记录调度到不同平台上任务的执行性能;Pre-Load用于初始化新接入的云平台;而Cache则记录了平台执行情况用于后续分析优化。通过在AWS和Google云平台上的测试,VSP将Serverless任务的吞吐量提升了1.2-4.2倍,同时降低了54%的云资源使用成本。图4 VSP系统架构进一步地,一个面向多云Serverless的开源library在[8]中提出了。此library主要包括两部分内容(如图5所示):1)统一的API和SDK,用于让用户不需要感知底层差异即可将不同人物部署在不同的云平台上,并且为了降低用户的学习门槛,还提供了基于某一家云平台提供商的API和SDK(如AWS)拓展出来的、可以将任务部署在其他云平台的API和SDK;2)分析系统(EAS),用于分析每个任务最适合的云平台,包含用于将任务分发至不同平台的adaptor、各个平台log的收集器Cloud Logging Query、各个云厂商的计费模型Cost Model、接入各个云平台的鉴权组件Authentication、任务执行的记录Local Logging以及性能分析器Analysis。图5 面向多云的Serverless开源library挑战从上述现有工作可以看出,当前学术界对于Regionless和Serverless结合的研究主要面向geo-distributed cloud和multi-cloud这两个场景下的任务编排系统架构和算法。然而这还远远不足以构建高效、易用的Regionless化的Serverless平台。类似于Berkeley将Serverless分成Backend-as-a-Service (BaaS)和Function-as-a-Service (FaaS)两个层级[1],我们也可以将当前所面临的挑战拆分成底层资源供给以及上层应用管理在Regionless场景的Serverless化:• 底层资源上,我们需要考虑:1) 通盘考虑每个区域计算资源池的异构性、资源余量、成本等因素的情况下,提供足够的资源同时又不因为Serverless极强的弹性而造成过多浪费[9];2) 从网络角度,在规避部分地理区位间带宽、时间等限制的同时,提供支持动态创删的低性能损失、免配置的网络;3) 存储上,提供用户无感知的跨Region数据预存取与缓存。• 应用管理层面上看,需要达到如下:%2) 任务编排上,需要对计算、网络、存储联合进行调度以避免其中某项瓶颈对整体应用的影响;%2) 编程框架上,需要在最小甚至没有侵入式修改的前提下,将用户应用构建或迁移至该平台;%2) 从监控运维角度,需要实现非侵入式、高精度地采集Serverless实例的指标,并基于分布在各个区域的监控数据进行智能异常检测、根因分析。以上也将云厂商和学术界共同打造高效且易用的Regionless下Serverless平台,共同面临的挑战。参考文献[1] J. Schleier-Smith, et. al. "What serverless computing is and should become: The next phase of cloud computing," Communications of the ACM, vol. 64, no.5, pp. 76-84, 2021.[2] Li, Zijun, et. al. "The serverless computing survey: A technical primer for design architecture." ACM Computing Surveys (CSUR), vol. 54, no.10s, pp. 1-34, 2022.[3] A. Aske, et. al. "Supporting multi-provider serverless computing on the edge," in Proc. Int. Conf. Parallel Processing Companion, 2018.[4] G. Zheng, et. al. "GlobalFlow: a cross-region orchestration service for serverless computing services," in Proc. IEEE Int. Conf. Cloud Comput. (CLOUD), 2019.[5] C. Smith, et. al. "Fado: Faas functions and data orchestrator for multiple serverless edge-cloud clusters," in Proc. IEEE Int. Conf. Fog and Edge Comput. (ICFEC), 2022.[6] S. Ristov, et. al, "FaaSt: Optimize makespan of serverless workflows in federated commercial FaaS," in Proc. IEEE Int. Conf. Cluster Comput. (CLUSTER), 2022.[7] A. Baarzi, et. al. "On merits and viability of multi-cloud Serverless," in Proc. ACM Symp. Cloud Comput., 2021.[8] H. Zhao, et al. "Supporting Multi-Cloud in Serverless Computing," arXiv preprint arXiv:2209.09367, 2022.[9] A. Mampage, et. al. "A holistic view on resource management in serverless computing environments: Taxonomy and future directions," ACM Computing Surveys (CSUR), vol. 54, no. 11s, pp. 1-36, 2022.添加小助手微信k8s2222,进入云原生交流群
-
是否有一些最佳实践或工具可以在华为Serverless函数工作流中进行安全性和隐私保护,以确保数据的安全性和可靠性。
-
否有一些最佳实践或工具可以在华为Serverless函数工作流中实现代码封装和复用,以减少代码冗余和提高可维护性。
-
是否有一些最佳实践或工具可以在华为Serverless函数工作流中进行事件触发和异步处理,以提高系统的响应速度和效率。
推荐直播
-
HDC深度解读系列 - Serverless与MCP融合创新,构建AI应用全新智能中枢2025/08/20 周三 16:30-18:00
张昆鹏 HCDG北京核心组代表
HDC2025期间,华为云展示了Serverless与MCP融合创新的解决方案,本期访谈直播,由华为云开发者专家(HCDE)兼华为云开发者社区组织HCDG北京核心组代表张鹏先生主持,华为云PaaS服务产品部 Serverless总监Ewen为大家深度解读华为云Serverless与MCP如何融合构建AI应用全新智能中枢
回顾中 -
关于RISC-V生态发展的思考2025/09/02 周二 17:00-18:00
中国科学院计算技术研究所副所长包云岗教授
中科院包云岗老师将在本次直播中,探讨处理器生态的关键要素及其联系,分享过去几年推动RISC-V生态建设实践过程中的经验与教训。
回顾中 -
一键搞定华为云万级资源,3步轻松管理企业成本2025/09/09 周二 15:00-16:00
阿言 华为云交易产品经理
本直播重点介绍如何一键续费万级资源,3步轻松管理成本,帮助提升日常管理效率!
回顾中
热门标签