-
华为云沃土代金券&Token服务,送你2.5亿免费Tokens华为云后台费用中心,躺着闪闪发亮的500元代金券!用该券兑换2.5亿Tokens,如下: 500元代金券获取及兑换的建议流程(注意,券为人工审核,建议一次最多只提交三个申请,严格按照如下申请,以免审核不通过,如审核未通过,请根据给出的原因进行后续操作):加入沃土计划(个人) → 在华为云空间构建一个AI应用 → 申请500元代金券 → 兑换2.5亿Tokens(说明:①构建AI应用可申请1次,构建后,构建其他应用还可再申请2次(每个应用仅可申请一次),每次500元券,共1500元;②非首次申请,需要提交前序代金券的云资源消耗记录及新应用(需非AI应用))的构建结果) 第一步:加入沃土计划(个人)进入沃土云创计划_开发者中心-华为云,注册账号,实名认证后,使能方向选择“个人”跳到“开发者空间”,填写相应的信息,提交后,等审核通过。 第二步:获取Tokens消耗截图,并华为云空间构建一个AI应用购买并体验大模型,获取Tokens消耗截图,构建AI应用获取应用id和应用构建截图1.购买大模型大模型套餐包,并体验大模型,获取Tokens消耗截图(Tokens消耗截图是必须,,申请500元券时放附件中)1.1购买大模型套餐包访问Token服务,购买1个V3套餐包,如下图: 1.2体验大模型,获取截图访问Maas后台,点击”开通服务—>在线体验”(需选择商用服务的模型):提3个问题,体验大模型如下:体验后,到如下图位置,进行Tokens消耗截图(重要!务必截上如下图①②部分)2. 在华为云空间构建一个AI应用(云资源使用证明示例截图是必须的,申请500元券时放附件中)访问开发者空间,如下图蓝框,依次访问“开发平台 - Versatile Agent – 智能体 – 单智能体应用-创建应用”,输入应用名称及描述,基于需要增加MCP等服务,调试应用并发布(重要!),发布应用。在如下图红框位置复制ID然后,通过“应用管理 - 应用构建- 创建应用- 立即申请”产生一条应用记录(用于申请权益)此时需要提交 “应用运行结果、应用页面结果、云资源使用证明、开发语言、开发框架”等应用信息,按实际情况提交。示例如下(部分关键信息的截图示例)#应用运行结果1: 注意:必须至少提供如下三张云资源使用证明示例中的一张作为附件(这个是云资源使用证明示例截图)#云资源使用证明示例1(如果是用AI应用开发平台构建的应用)#云资源使用证明示例2:(如果是用空间云主机构建的应用)#云资源使用证明示例3:(如果是用ECS弹性云服务器部署的)第三步:申请500元代金券 (一定要填申请说明和附件)“开发者空间 - 激励管理 - 计划权益 - 沃土云创计划-个人”中找到“通用权益”,点击 “申请”。申请说明中,需加上已构建应用的应用ID及券的用途(重要!),并增加附件(须含2张截图,截图要点在上文中),示意如下:审核通过后,500 元代金券立即发放到账户中,可以在“费用中心 – 优惠折扣 - 优惠券”页面查看详情第四步: 兑换2.5亿Tokens,如下:地址:cid:link_6请注意审核要求:1、同一个应用构建ID只能申请一次,不能重复申请2、构建的Agent类型应用只申请一次,不能重复申请3、提供的证明材料中(至少两张截图)需要看到有应用ID信息和账户名信息4、附件上要能体现是基于华为云构建的应用,如在华为云主机上运行的结果,服务器IP信息等5、提供的材料中要有账户信息,并和当前申请人的一致6、同一账户最多申请3次,请勿重复申请
-
为积极响应新时代复合型人才培养,2025年11月下旬,南京大学卓越工程师学院携手华为云联合举办HCSD校园沙龙活动。华为云资深工程师团队走进南京大学研究生AI技术素养课堂,为理工医与社会人文领域的同学量身定制AI上机实践课程,带来了理论和实践深度融合的人工智能学习体验。 在为理工医类专业设计的两堂课程中,华为云教师围绕人工智能应用领域展开系统讲解,内容涵盖 AI Agent 技术架构、典型应用场景、发展趋势以及深度学习核心概念等。在实验环节,教师带领学生完成了“基于 AI Agent 实现人机扑克对战智能助手” 项目,并结合学生高度关注的计算机视觉主题,深入解析 YOLOv8 目标检测算法。随后,同学们基于华为云平台开展 “基于 YOLOv8 的 PCB 缺陷检测” 实验,实现了从算法理解到工程落地的完整实践闭环。 针对社会人文方向学生,课程则呈现出另一种面向应用与创新思维的教学模式。课程首先聚焦提示词工程,讲解如何编写与优化提示词,并现场演示提示词微调对大模型输出质量的显著影响。在实践环节,学生完成了 “基于 Prompt 构建个性化聊天机器人” 的在线实验,使用Prompt工程调优技巧实现控制模型的输出。此外,教师还带领学生开展了 “基于 DeepSeek 和 Dify 构建旅游攻略 PPT 助手” 沙箱实验,帮助学生掌握利用华为云资源快速实现 Agent 构建与调用的方法,进一步增强对大模型体系的理解和应用能力。 此次华为云工程师走进课堂的活动,与南京大学研究生 AI 技术素养课形成紧密协同,将真实技术场景、前沿应用案例与工程实践能力培养引入课堂教学,有效突破传统教学的内容边界。学生不仅系统掌握了 AI 工具与技术应用方法,更在跨学科、跨领域的问题解决中形成新的思维模式。通过学科交叉、案例驱动、实践导向的教学创新,构建校企协同育人长效机制,为新时代复合型人才培养注入新动能。 欢迎各位开发者体验实验:基于 Al Agent 实现人机扑克对战(点击立即体验)基于Yolov8实现PCB缺陷检测(点击立即体验)基于Prompt构建个性化聊天机器人(点击立即体验)基于DeepSeek和Dify构建旅游攻略ppt助手(点击立即体验)基于DeepSeek搭建Agent智能助手(点击立即体验)
-
由华为云计算技术有限公司与武汉交通职业学院联合承办的“2025一带一路暨金砖国家技能发展与技术创新大赛-第二届鸿蒙端云智能应用开发赛项”总决赛在湖北武汉落下帷幕。本次大赛自启动以来,吸引了来自全国84所高校的数百支队伍激烈角逐,最终75支优秀团队脱颖而出,分获各类奖项。 总决赛开幕式于12月5日隆重举行。武汉交通职业学院副校长谢计红与华为云云学堂负责人唐国军出席并致辞。 武汉交通职业学院副校长谢计红首先对各位领导和参赛者的到来表示热烈的欢迎,并表示学校致力于培养符合产业需求的高素质创新人才。本次赛题紧跟产业发展新技术与新趋势,鼓励参赛学生以赛促学、以赛促创,将课堂所学与产业需求紧密结合,在鸿蒙生态的广阔赛道上实现自身价值。 华为云云学堂负责人唐国军在致辞中表示鸿蒙生态产业的繁荣离不开广大开发者的支撑,尤其是富有激情与创造力的年轻力量的加入。在备战决赛的征程中,参赛学生已通过华为云学堂进行了扎实的系统学习,也在开发者空间完成了丰富的项目实践。未来,华为云还将持续优化云学堂的课程体系与实践环境,让学习内容更贴合产业实际,让开发工具更高效便捷,助力每一位开发者在这里探索出属于自己的成长之路。 闭幕式暨颁奖典礼上,经专家评委团严格评审,最终75支队伍凭借其项目的创新性、技术完整度、应用潜力及现场表现,成功斩获大赛一等奖、二等奖、三等奖及优秀奖。 颁奖环节结束后,金砖国家工商理事会技能发展与技术创新大赛组委会执委会竞赛处主任程帅对本次大赛的成果进行总结,并对未来发展寄予深切厚望,希望所有参赛学生能将大赛中的所学、所思、所悟转化为持续深耕“鸿蒙端云智能应用开发”领域的动力,始终保持对技术创新的热情与执着,主动了解和学习鸿蒙端云智能技术与各行业融合发展的新趋势,以过硬的专业能力和开放的创新视野,成长为推动鸿蒙端云智能高质量发展的中坚力量。 本次金砖大赛-第二届鸿蒙端云智能应用开发赛项的圆满落幕,离不开承办校的辛勤付出与全力支持,也离不开各个参赛队伍的积极参与。一直以来,华为云致力于与教育界同行,未来也将持续深化与高校的合作,共同构建面向智能时代的人才培养新生态。
-
华为开发者空间升级啦,更有鸿蒙云手机惊喜上线~全新开发平台,融合“云开发环境”“鸿蒙云手机”“Versatile”等功能,一键快速触达,真正开箱即用,欢迎体验开发者空间最新案例,可抽取华为手环9(NFC款)、云宝手办盲盒等好礼~ 【活动时间】2025年12月10日-12月31日 【活动流程】① 开通开发者空间 → ② 完成以下任一空间案例,并在论坛回帖 → ③ 参与抽奖补充说明:论坛帖评论区需要回复案例完成截图(包括案例名称+案例完成截图+实践心得),务必完成实践后再参与抽奖(每人仅可抽1次),小编会查询使用记录,否则回帖无效哦~ 【实践案例】技术案例难度系数基于开发者空间-Versatile Agent构建内容审核工作流智能应用★★★基于华为开发者空间-Versatile Agent构建实时股票分析助手★★★基于华为云开发者空间-Versatile Agent开发平台构建昇腾C算子开发知识库★★★基于开发者空间云开发环境,使用MateChat+MaaS构建智能对话应用★★★华为开发者空间-云开发环境(虚机)CLI工具远程连接操作指导★★★基于华为开发者空间 - 云开发环境(虚机)部署Dify + MaaS构建智能问答助手★★★★基于华为开发者空间-云开发环境(虚机),Vanna+MaaS实现自然语言与数据库对话★★★★★基于华为开发者空间-云开发环境(容器)完成打砖块小游戏部署★★★基于华为开发者空间-云开发环境(容器)+ Versatile Agent,构建AI轻量级智能办公助手★★★★★ 【活动礼品】【活动说明】用户限制说明:1、参加本次社区活动的用户必须为华为云注册用户。同时为保证活动公平性,禁止用户以IAM账号身份参与活动,否则将视为无效。2、领取奖品的用户需为华为云实名用户,未完成实名认证的用户将不发放对应活动奖励。3、本次活动如一个实名认证对应多个账号,只有一个账号可领取奖励。如在同一概率活动中,同一账号重复获奖,只发放首先获奖奖品。4、本次活动一个实名认证账号只能对应一个收件人,如同一账号填写多个不同收件人,不予发放奖励。5、请开发者不要在活动期间随意修改社区昵称和华为云账号,由此产生的统计问题,如过了申诉期,小助手不再处理。(申诉期为活动结果公示3天内。)奖品发放说明:1、本活动结束之后15个工作日内公示获奖信息,活动结束30个工作日内将统一发出实物奖品。华为云遵守《中华人民共和国个人信息保护法》规定,将以上个人信息仅用于礼品发放之目的,不会向任何第三方披露。若由于获奖开发者用户自身原因(包括但不限于联系方式有误、身份不符或超过截止登记日期等)造成奖品无法发送,视为获奖开发者用户放弃领奖。2、为保证活动的公平公正,华为云有权对恶意刷活动资源(“恶意”是指为获取资源而异常注册账号等破坏活动公平性的行为),利用资源从事违法违规行为的开发者用户收回抽奖及奖励资格。3、若发放实物奖品时出现库存不足,则优先发放等价值的其他实物奖品;4、所有参加本活动的开发者用户,均视为认可并同意遵守《华为云开发者用户协议》,包括以援引方式纳入《华为云开发者用户协议》、《可接受的使用政策》、《法律声明》、《隐私政策声明》、相关服务等级协议(SLA),以及华为云服务网站规定的其他协议和政策(统称为“云服务协议”)的约束。
-
校验某区域的项目ID:场景:申请区域:‘华东二’,昇腾资源。访问https://console.huaweicloud.com/iam/?region=cn-north-4&locale=zh-cn#/mine/apiCredential链接,在项目列表中检查‘所属区域’是否有‘华东二’;a. 如果在项目列表中,‘所属区域’有‘华东二’,请跳过该步骤;b. 如果在项目列表中,‘所属区域’没有‘华东二’。请登录华为云官网https://console.huaweicloud.com/modelarts/?locale=zh-cn&agencyId=ecf1b72103564d7ead5f7cfc58477baf®ion=cn-southwest-2#/dashboard,区域切换到‘华东二’,系统会默认添加项目ID。访问https://console.huaweicloud.com/iam/?region=cn-north-4&locale=zh-cn#/mine/apiCredential 链接,在项目列表中检查‘所属区域’是否有‘华东二’;c. 如果有,请请跳过该步骤。提供基本信息:申请白名单比较多,避免去系统查信息,请登录地址https://console.huaweicloud.com/iam/?region=cn-north-4&locale=zh-cn#/mine/apiCredential,查询账号名和账号 ID。把学校名称-项目申请人姓名-账户名和账号 ID,发给我 谢谢。
-
一、扩展查询协议的核心流程(Bind/Describe/Execute/Flush 作用)PostgreSQL/GaussDB 的扩展查询协议将 SQL 执行拆分为 “分步请求”,目的是实现参数化查询、批量操作、减少网络往返,各步骤作用如下:步骤核心作用Parse客户端将 SQL 语句(如 SELECT * FROM t WHERE id = $1)发送给服务端解析,生成 “语句句柄”Describe可选,请求服务端返回语句的元数据(如结果列名、类型)Bind将参数绑定到解析后的语句句柄,生成 “门户句柄”(一个语句句柄可绑定多个参数集)Execute执行绑定后的门户句柄(可指定返回行数,如游标批量返回)Flush强制将客户端的 “请求队列”(多个 Bind/Execute)发送到服务端,并触发服务端返回所有执行结果批量操作的核心逻辑:客户端可将多个 Bind + Execute 放入本地请求队列,最后执行一次 Flush,让服务端批量处理所有请求并返回结果 —— 这能大幅减少 “客户端 - 服务端” 的网络交互次数,提升批量操作性能,GaussDB 完全支持该模式。二、GaussDB 支持该操作的验证示例以下以 GaussDB (for PostgreSQL)/openGauss 为例,通过两种主流驱动验证 “多 Bind/Execute + 最后 Flush”:1:Java JDBC(底层封装了扩展查询协议)JDBC 的 PreparedStatement.addBatch() + executeBatch() 本质就是 “多 Bind + 一次 Flush”,底层对应扩展查询协议的批量操作: import java.sql.Connection; import java.sql.DriverManager; import java.sql.PreparedStatement; public class GaussDBBatchTest { public static void main(String[] args) throws Exception { // 1. 连接 GaussDB(PostgreSQL 兼容版) String url = "jdbc:postgresql://gaussdb-host:5432/testdb?useServerPrepStmts=true"; // 强制使用扩展协议 Connection conn = DriverManager.getConnection(url, "username", "password"); conn.setAutoCommit(false); // 关闭自动提交,确保批量操作原子性 // 2. 预编译 SQL(Parse 步骤) String sql = "INSERT INTO t_user(id, name) VALUES (?, ?)"; PreparedStatement pstmt = conn.prepareStatement(sql); // 3. 批量 Bind + Execute(放入本地队列,未发送到服务端) for (int i = 1; i <= 1000; i++) { pstmt.setInt(1, i); pstmt.setString(2, "user" + i); pstmt.addBatch(); // 绑定参数(Bind),加入批量队列(未执行) } // 4. 统一 Flush + 执行(触发所有批量操作发送到服务端) int[] results = pstmt.executeBatch(); // 底层执行 Flush,批量执行所有 Bind/Execute conn.commit(); // 5. 关闭资源 pstmt.close(); conn.close(); } } 关键参数:useServerPrepStmts=true 强制 JDBC 使用扩展查询协议(而非简单查询协议),确保 Bind/Execute/Flush 语义生效;效果:1000 条插入仅需 1 次网络往返(而非 1000 次),性能提升显著。2:Python psycopg2(显式使用扩展协议)psycopg2 是 PostgreSQL/GaussDB 原生驱动,可显式控制扩展协议的步骤: import psycopg2 from psycopg2 import extensions # 1. 连接 GaussDB conn = psycopg2.connect( host="gaussdb-host", port=5432, dbname="testdb", user="username", password="password" ) cur = conn.cursor() conn.autocommit = False # 2. Parse:解析 SQL 语句,生成语句句柄 stmt = "INSERT INTO t_user(id, name) VALUES (%s, %s)" cur.execute("PREPARE stmt1 AS " + stmt) # 等价于 Parse 步骤 # 3. 批量 Bind + Execute(放入请求队列) for i in range(1, 1001): # Bind:绑定参数到语句句柄;Execute:执行(但未立即发送) cur.execute("EXECUTE stmt1 (%s, %s)", (i, f"user{i}")) # 4. 统一 Flush(psycopg2 中 commit 会触发 Flush) conn.commit() # 强制发送所有队列中的请求,服务端批量处理 cur.close() conn.close() 三、常见 “看似不支持” 的误区及解决如果实操中发现 “多 Bind/Execute + Flush” 无效 / 报错,大概率是以下原因:1. 误用 “简单查询协议” 而非 “扩展查询协议”问题:GaussDB 仅在扩展查询协议下支持 Bind/Describe/Execute;若使用简单查询协议(直接发送完整 SQL 字符串,如 cur.execute("INSERT INTO t VALUES (1)")),则无 Bind/Execute 语义,自然无法批量 Flush。解决:JDBC:添加 useServerPrepStmts=true&cachePrepStmts=true;psycopg2:使用 PREPARE/EXECUTE 语法,或 psycopg2.sql 构建参数化查询;避免直接拼接 SQL 字符串(既不安全,也会触发简单协议)。2. 驱动版本过低问题:早期 GaussDB/openGauss 驱动(如 openGauss 2.0 以下)对扩展协议的批量 Flush 支持不完善,可能出现 “批量操作仅执行最后一条” 的问题。解决:升级驱动到最新版:Java:使用华为官方驱动 com.huawei.gaussdb:gaussdb-jdbc:1.0.5+;Python:pip install psycopg2-binary>=2.9.6;C/C++:使用 libpq 12+(GaussDB 内置 libpq 通常满足)。3. 未正确处理游标 / 返回行数问题:Execute 步骤若未指定返回行数(如 EXECUTE stmt1 LIMIT ALL),或游标未关闭,可能导致 Flush 时结果返回异常。解决:批量写操作(INSERT/UPDATE/DELETE):Execute 无需指定行数,Flush 会批量执行;批量读操作(SELECT):使用游标分批返回,避免结果集过大: -- 游标批量读取 PREPARE stmt2 AS SELECT * FROM t_user WHERE id > $1; DECLARE cur1 CURSOR FOR EXECUTE stmt2 (0); -- 创建游标 FETCH 100 FROM cur1; -- 每次读取100行,多次Fetch后Flush 4. 混淆 GaussDB 兼容版本问题:GaussDB (for MySQL) 基于 MySQL 协议,无 PostgreSQL 的 Bind/Describe/Execute/Flush 语义,若误在该版本尝试该操作,必然失败。解决:确认 GaussDB 版本:支持的版本:GaussDB (for PostgreSQL)、openGauss 所有版本;不支持的版本:GaussDB (for MySQL)(需使用 MySQL 的批量操作语法 INSERT ... VALUES (...), (...))。5. 自动提交导致 Flush 失效问题:若开启自动提交(autoCommit=true),每个 Bind/Execute 会立即发送到服务端,无法累积到最后 Flush。解决:批量操作前关闭自动提交,所有操作完成后统一提交(如示例中的 conn.setAutoCommit(false))。四、GaussDB 使用该特性的注意事项事务一致性:批量 Bind/Execute + Flush 建议在同一个事务中执行,避免部分操作成功、部分失败(可通过 ROLLBACK 回滚);参数上限:GaussDB 单批次 Bind 的参数总数不宜超过 max_prepared_transactions(默认 1000),超量可分批次 Flush;内存占用:客户端批量绑定大量参数时,需注意本地内存占用(如 10 万条参数绑定可能占用数百 MB 内存);监控与排障:可通过 GaussDB 日志查看扩展协议执行情况 -- 开启扩展协议日志 ALTER SYSTEM SET log_min_messages = debug1; ALTER SYSTEM SET log_min_error_statement = debug1; SELECT pg_reload_conf();日志中会显示 Parse/Bind/Execute/Flush 步骤的执行记录,便于定位问题。总结一下下GaussDB(PostgreSQL 兼容版 /openGauss)完全支持 “多 Bind/Describe/Execute + 最后 Flush”,这是其继承 PostgreSQL 扩展查询协议的核心能力,也是批量操作高性能的关键;若出现不支持的情况,99% 是协议使用错误、驱动版本过低或混淆了 MySQL 兼容版。核心建议:优先使用参数化查询(PreparedStatement / 预编译 SQL),强制触发扩展查询协议;批量操作关闭自动提交,统一 Flush / 提交;升级驱动到最新版,避免兼容性问题;GaussDB (for MySQL) 需改用 MySQL 原生批量语法(如 INSERT ... VALUES (...), (...))。
-
KubeEdge 作为 Kubernetes 边缘计算的扩展框架,其高性能特性并非脱离 K8s 重构,而是基于 K8s 核心架构(调度、控制器、CRD、容器运行时等)做边缘场景的深度适配与优化,聚焦解决边缘节点 “资源受限、网络弱 / 不稳定、离线自治、设备海量” 四大痛点,最终实现 “低延迟、高吞吐、高可用、轻量化、高适配” 的高性能表现。一、边缘轻量化调度:基于 K8s 调度框架的 “本地自治调度”K8s 原生调度是云端集中式(kube-scheduler 统一决策),但边缘场景下 “云端→边缘” 网络延迟高、节点资源少,KubeEdge 基于 K8s 调度扩展框架,实现边缘节点的本地轻量化调度,核心优化点:1. 调度逻辑下沉(边缘本地调度器 edged)复用 K8s 调度核心算法(如节点亲和性、污点 / 容忍、资源请求 / 限制),但将调度决策从云端下沉到边缘节点的 edged 组件(KubeEdge 边缘核心);边缘节点无需每次调度都向云端请求,本地即可完成 Pod 调度、绑定、生命周期管理,调度延迟从 K8s 原生的 “秒级” 降至 “毫秒级”。2. 离线调度能力(断点续跑)基于 K8s CRD 缓存机制,边缘节点会本地缓存 Pod、ConfigMap、Secret 等资源配置;当边缘节点与云端断连时,仍能基于本地缓存完成 Pod 调度、重启,恢复连接后仅增量同步调度结果到云端,避免 K8s 原生 “断连即调度失效” 的问题。3. 资源精细化调度(适配边缘资源受限场景)复用 K8s QoS 模型(Guaranteed/Burstable/BestEffort),但扩展了 “边缘特有资源” 调度(如设备算力、传感器资源、本地存储);支持 “资源切片”:将边缘节点的 CPU / 内存拆分为更小粒度(如 0.01 CPU、16MB 内存),适配边缘轻量级应用(如物联网采集程序)的资源需求,提升资源利用率。二、云端 - 边缘低开销通信:基于 K8s 通信协议的极致优化K8s 原生采用 TCP/HTTP 协议进行云端(apiserver)与节点(kubelet)的通信,边缘场景下网络带宽窄、丢包率高,KubeEdge 基于 K8s 通信框架重构了传输层,实现高性能通信:1. 协议升级:QUIC 替代 TCP(弱网高性能)复用 K8s 原生的 HTTP/JSON 数据格式,但将传输层从 TCP 改为 QUIC(基于 UDP 的可靠协议),支持:0-RTT 建连:减少握手延迟,适配边缘网络频繁断连的场景;多路复用:单连接传输多路数据,避免 TCP 队头阻塞;内置加密:无需额外 TLS 握手,降低通信开销。2. 数据传输优化:增量同步 + 压缩基于 K8s 的 watch 机制,优化为 “增量同步”:仅同步资源的变更部分(如 Pod 状态从 Running 变为 Failed),而非全量资源,数据传输量减少 90% 以上;对同步数据做轻量级压缩(如 gzip),进一步降低带宽占用,适配边缘窄带网络。3. 双端缓存 + 异步通信云端(CloudHub)和边缘(EdgeHub)均内置缓存,非实时性指令(如配置更新)异步传输,避免同步等待导致的阻塞;通信优先级分级:管理面数据(如设备配置)优先级高于业务面数据(如传感器采集),确保核心管理指令优先传输,即使业务数据洪峰也不阻塞关键通信。三、边缘本地自治:基于 K8s 控制器模式的 “离线高可用”K8s 原生强依赖云端 apiserver,边缘节点断连后业务易中断,KubeEdge 基于 K8s 控制器模式,实现边缘节点的全场景本地自治,核心高性能体现:1. 边缘控制器本地化将 K8s 核心控制器(如 Deployment、StatefulSet 控制器)下沉到边缘节点,边缘本地即可完成 Pod 扩缩容、滚动更新,无需云端介入;控制器逻辑复用 K8s 原生逻辑,仅做轻量化改造(如减少内存占用),确保行为一致性的同时,响应延迟从 “秒级” 降至 “毫秒级”。2. 故障自愈本地化复用 K8s 的 livenessProbe/readinessProbe 探针机制,但将健康检查和重启决策下沉到边缘;当 Pod 故障时,边缘 edged 组件无需上报云端,直接重启 Pod,自愈时间从 K8s 原生的 30+ 秒缩短至 1-2 秒。3. 配置本地持久化基于 K8s ConfigMap/Secret 的挂载机制,扩展为 “本地持久化”:配置下发到边缘后,持久化到本地存储(如 SQLite),断连后仍可正常挂载使用,避免业务因配置丢失中断。四、轻量化资源管理:基于 K8s 容器运行时的 “极致瘦身”K8s 原生依赖 Docker/containerd + ETCD,边缘节点资源(如 1 核 2G 低配)难以支撑,KubeEdge 基于 K8s 容器运行时接口(CRI)和存储接口(CSI)做轻量化改造,实现高性能运行:1. 轻量级运行时适配兼容 K8s CRI 标准,支持超轻量级运行时(如 containerd、CRI-O,甚至轻量级虚拟机 Kata Containers),相比 Docker 减少 50% 以上的内存占用;支持 “容器镜像本地化”:边缘节点缓存镜像,断连后仍能基于本地镜像启动 Pod,避免依赖云端镜像仓库。2. 边缘存储轻量化替代 K8s 原生 ETCD,边缘节点采用 SQLite / 轻量级 ETCD(单节点)存储资源元数据,内存占用从 ETCD 原生的 200+MB 降至 10+MB;复用 K8s CSI 接口,支持边缘本地存储(如 SD 卡、本地磁盘),数据读写延迟比云端存储低 1-2 个数量级。3. 资源隔离与优先级复用 K8s 的 resources.requests/limits 机制,扩展边缘特有资源(如设备、网络带宽)的隔离;为边缘核心组件(如 edged、EdgeHub)设置最高资源优先级,即使业务 Pod 耗尽资源,核心管理组件仍能正常运行,保障边缘节点可控。五、设备数据高性能交互:基于 K8s CRD 的 “低延迟设备管理”KubeEdge 基于 K8s CRD 抽象出 Device/DeviceModel 资源,结合 DMI 框架,实现边缘设备与业务的高性能交互:1. 设备数据本地化处理基于 K8s CRD 定义的设备模型,边缘本地完成设备数据采集、协议转换(如 Modbus→MQTT),无需上报云端再处理,延迟从 “秒级” 降至 “毫秒级”;支持批量数据上报:将高频设备数据(如传感器每秒 10 次采集)批量打包后传输,减少通信次数,提升吞吐量。2. 管理 / 业务数据通道隔离基于 K8s 网络策略扩展,为设备管理面(配置、状态)和业务面(采集数据、控制指令)分配独立通道,避免业务数据洪峰阻塞管理指令;管理通道复用 K8s 原生的高可靠传输(QoS 1),业务通道支持低延迟传输(QoS 0),兼顾可靠性与实时性。3. 海量设备高效管理基于 K8s CRD 的批量处理能力,支持万级边缘设备的批量配置、状态同步,相比传统边缘网关,管理效率提升 10 倍以上;设备状态采用 “增量上报”,仅同步状态变化(如从在线→离线),减少云端处理压力。六、边缘弹性伸缩:基于 K8s HPA 的 “本地实时伸缩”K8s 原生 HPA(Horizontal Pod Autoscaler)是云端集中式决策,边缘场景下延迟高,KubeEdge 扩展为 EHPA(Edge HPA),实现高性能弹性伸缩:1. 伸缩决策本地化复用 K8s HPA 的核心算法(基于 CPU / 内存指标),但将指标采集和伸缩决策下沉到边缘;边缘本地采集 Pod 资源使用率、设备业务指标(如传感器数据量),实时触发扩缩容,响应延迟从 K8s 原生的 1-2 分钟缩短至 10 秒内。2. 伸缩策略边缘适配扩展 K8s HPA 策略,支持边缘特有伸缩规则(如基于设备在线数、网络带宽);支持 “离线伸缩”:断连时基于本地缓存的指标继续伸缩,恢复后同步结果到云端。核心高性能特性总结(对比 K8s 原生)特性维度K8s 原生表现KubeEdge 优化后表现核心优化逻辑(基于 K8s)调度延迟秒级(云端集中决策)毫秒级(边缘本地决策)调度逻辑下沉,复用 K8s 调度算法断连可用性业务中断离线自治(Pod 正常运行)本地缓存 K8s 资源,控制器本地化通信开销全量传输,TCP 协议增量传输,QUIC 协议复用 K8s watch 机制,传输层升级资源占用高(Docker+ETCD)低(containerd+SQLite)兼容 K8s CRI/CSI,轻量化运行时 / 存储设备管理效率无原生支持万级设备批量管理基于 K8s CRD 抽象设备,批量处理弹性伸缩延迟1-2 分钟(云端决策)10 秒内(边缘决策)扩展 K8s HPA,本地化指标采集 / 决策关键的价值KubeEdge 的高性能并非脱离 K8s 重构,而是在 K8s 核心架构基础上做边缘场景的 “减法(轻量化)+ 下沉(本地化)+ 优化(协议 / 传输)”,既保留了 K8s 原生的标准化、可扩展能力,又解决了边缘场景的性能痛点,最终实现 “云端统一管控、边缘高性能运行” 的核心目标。
-
KubeEdge DMI(Device Management Interface,设备管理接口)框架是 KubeEdge 面向边缘设备管理的核心抽象层,其解耦设备管理面数据(设备注册、配置、生命周期、权限、监控等管理类数据)与设备业务面数据(设备采集的业务数据、业务指令下发、实时交互数据等)的核心思路是:通过 “分层抽象、通道隔离、接口标准化、资源独立” 四大核心设计,明确两类数据的职责边界,实现传输、存储、处理全流程的解耦,确保管理面故障不影响业务面运行,业务面数据洪峰不阻塞管理面交互。一、先明确核心概念边界在 DMI 框架中,两类数据的定义和目标差异是解耦的基础:维度设备管理面数据设备业务面数据核心内容设备元数据(ID / 型号 / 状态)、配置指令(参数 / 权限)、生命周期指令(注册 / 注销 / 重启)、监控指标(在线状态 / 资源占用)设备采集的业务数据(如传感器温湿度、摄像头流数据)、业务指令(如控制电机启停)、实时交互数据(如设备告警事件)核心目标保障设备 “可管、可控、可监控”,追求可靠性和一致性保障业务数据 “实时、高效、低延迟” 传输,追求吞吐量和实时性传输要求低带宽、高可靠(不能丢失)、低频次高带宽、低延迟、高频次(可能突发)DMI 框架的解耦设计完全围绕上述差异展开,核心是 “让管理面专注管理,业务面专注业务”。二、DMI 框架解耦的核心实现机制1. 架构分层:抽象隔离管理 / 业务逻辑(核心基础)DMI 框架通过三层抽象架构,从代码和逻辑层面彻底隔离管理面与业务面,每层职责边界清晰,互不依赖:┌─────────────────────────────────────────────────┐ │ 云端层(K8s 集群) │ │ ├─ 管理面:Device/DeviceModel CRD 控制器 │ │ │ (处理设备注册、配置下发、状态同步) │ │ └─ 业务面:业务应用/数据服务(消费设备业务数据) │ ├─────────────────────────────────────────────────┤ │ 边缘 DMI 抽象层(核心解耦层) │ │ ├─ 管理面接口:Device Management API │ │ │ (标准化管理指令的编解码、传输、回执) │ │ ├─ 业务面接口:Device Data API │ │ │ (标准化业务数据的采集、下发、格式转换) │ │ └─ 驱动适配层:统一对接底层设备驱动 │ ├─────────────────────────────────────────────────┤ │ 设备层 │ │ ├─ 管理面:设备管理代理(处理管理指令) │ │ └─ 业务面:设备数据采集/执行模块(处理业务交互)│ └─────────────────────────────────────────────────┘ 管理面逻辑:聚焦 “设备生命周期管理”,由 DMI 的 Device Management API 承接,对接 KubeEdge 云端的 Device CRD 控制器,仅处理设备注册、配置更新、状态上报等管理指令,不涉及任何业务数据处理;业务面逻辑:聚焦 “设备数据交互”,由 DMI 的 Device Data API 承接,对接边缘业务应用(如工业物联网平台、传感器数据分析服务),仅处理业务数据采集、指令下发,不依赖管理面的 CRD 同步逻辑;驱动适配层:DMI 定义标准化的驱动接口,要求设备驱动同时实现 “管理接口” 和 “业务接口”,但两类接口的实现逻辑完全独立(比如驱动中管理接口处理设备参数配置,业务接口处理传感器数据读取),上层调用互不干扰。2. 数据通道:物理隔离传输链路(关键保障)DMI 框架基于 KubeEdge 现有通信架构,为管理面和业务面数据分配独立的传输通道,避免互相抢占资源:(1)云端 - 边缘通道隔离KubeEdge 核心通信组件(CloudHub/EdgeHub)为 DMI 框架提供两类通道:管理面通道:基于 MQTT/HTTP 协议,使用专属 Topic 前缀(如 $hw/events/device/management),传输管理指令(如设备注册请求、配置更新指令)和管理状态(如设备在线状态、配置执行结果);特性:启用 QoS 1(至少一次送达),保障管理指令不丢失;通道带宽限制(如单条指令≤1KB),避免占用过多资源;业务面通道:基于 MQTT/QUIC/gRPC 协议,使用专属 Topic 前缀(如 $hw/events/device/data),传输业务数据(如传感器批量采集数据、视频流切片)和业务指令(如控制指令);特性:支持 QoS 0/1 可配置(业务数据可容忍少量丢失),支持大报文分片传输(如单条业务数据≤10MB),通道优先级低于管理面(确保管理指令优先传输)。(2)边缘 - 设备通道隔离在边缘节点内部,DMI 框架通过 “本地总线隔离” 实现边缘代理(edged/device-edge-mapper)与设备的通信隔离:管理面:通过边缘本地的 “管理总线”(如 Unix Domain Socket)传输管理指令,仅占用极小的本地资源,即使业务面数据量暴增,也不会阻塞管理指令的下发 / 上报;业务面:通过边缘本地的 “业务总线”(如 MQTT Broker、Modbus TCP、OPC-UA)传输业务数据,支持高并发,且业务总线故障(如拥塞)不会影响管理总线的可用性。3. 接口标准化:解耦上层调用与底层实现DMI 框架定义了完全独立的管理面接口和业务面接口,两类接口的参数、返回值、异常处理逻辑互不依赖,上层应用 / 云端仅需调用标准化接口,无需感知底层设备的协议差异,同时实现 “接口级解耦”:(1)管理面标准化接口(核心为 CRUD + 生命周期) // DMI 管理面接口示例(简化) service DeviceManagement { // 设备注册(管理面核心指令) rpc RegisterDevice(RegisterRequest) returns (RegisterResponse); // 设备配置更新(如修改管理IP、权限) rpc UpdateDeviceConfig(ConfigRequest) returns (ConfigResponse); // 设备状态查询(管理面核心监控) rpc GetDeviceStatus(StatusRequest) returns (StatusResponse); // 设备注销(生命周期管理) rpc UnregisterDevice(UnregisterRequest) returns (UnregisterResponse); } 这类接口仅处理设备元数据和管理指令,参数轻量、逻辑简单,不涉及任何业务数据字段。(2)业务面标准化接口(核心为数据采集 / 指令下发) // DMI 业务面接口示例(简化) service DeviceData { // 业务数据采集(如传感器数据上报) rpc CollectData(CollectRequest) returns (CollectResponse); // 业务指令下发(如控制设备执行动作) rpc SendCommand(CommandRequest) returns (CommandResponse); // 业务数据订阅(边缘应用实时消费) rpc SubscribeData(SubscribeRequest) returns (stream DataResponse); }这类接口聚焦业务数据交互,支持流式传输、批量上报,可适配不同设备的业务数据格式,但不涉及任何设备管理逻辑。4. 资源隔离:边缘节点内的运行时隔离在边缘节点上,DMI 框架将管理面和业务面的处理逻辑部署为独立的进程 / 容器,实现 CPU、内存、网络资源的隔离,避免一方资源耗尽影响另一方:管理面组件:如 device-controller(边缘设备管理控制器)、management-agent(管理代理),运行在低资源占用的独立容器中,设置资源上限(如 0.1 CPU、128MB 内存),优先级高于业务面组件;业务面组件:如 data-collector(数据采集器)、command-executor(指令执行器),运行在独立容器中,资源上限可动态调整(如 1 CPU、1GB 内存),优先级低于管理面;资源调度规则:KubeEdge 边缘调度器(edged)确保管理面组件的资源优先分配,即使业务面组件因数据突发耗尽资源,管理面仍能正常运行(如下发 “重启业务组件” 的管理指令)。5. 存储分离:管理 / 业务数据分库存储DMI 框架要求两类数据的存储完全独立,避免存储层耦合:管理面数据:存储在边缘节点的轻量级数据库(如 SQLite、ETCD 边缘节点),仅保存设备元数据、配置、状态等小体量数据,云端同步到 K8s ETCD;业务面数据:存储在边缘的时序数据库(如 InfluxDB、TDengine)或对象存储(如 MinIO),专门适配高频、大体积的业务数据,支持数据压缩、过期清理,不与管理面数据共用存储;存储故障隔离:业务面存储故障(如磁盘满)不会导致管理面数据丢失,管理面存储仅保存核心元数据,容错性更高。6. 故障隔离:异常处理互不影响DMI 框架设计了独立的异常处理机制,确保一类数据的异常不会扩散到另一类:管理面异常:如管理指令下发失败,仅触发管理面重试逻辑(如间隔 5s 重试,最多 3 次),不影响业务面数据采集 / 下发;业务面异常:如业务数据上报拥塞,DMI 框架会缓存业务数据(边缘本地临时存储),并降低业务面通道的传输速率,但管理面通道仍保持满速传输,确保管理指令优先送达;设备侧异常:如设备业务模块故障,DMI 管理面仍能通过设备管理代理获取 “业务模块故障” 的状态,并下发 “重启设备业务模块” 的管理指令,无需中断设备整体运行。三、解耦流程示例(设备配置更新 + 业务数据采集)以 “修改设备管理 IP(管理面)+ 采集传感器数据(业务面)” 为例,直观展示解耦效果:管理面操作:云端管理员修改 Device CRD 中的设备管理 IP 配置;配置通过 “管理面通道”(CloudHub→EdgeHub→管理总线)下发到边缘管理代理;管理代理更新设备管理 IP,将执行结果通过管理面通道上报云端;全程不涉及任何业务数据,即使配置下发过程中业务面正在采集数据,也无任何干扰。业务面操作:设备传感器采集温湿度数据,通过 “业务面通道”(设备→业务总线→数据采集器)上报到边缘时序数据库;边缘业务应用消费数据并分析,即使数据量暴增(如每秒 1000 条),也不会占用管理面通道的带宽;若业务面通道拥塞,管理面仍能正常下发 “调整业务面通道带宽” 的管理指令。四、解耦的核心价值可靠性提升:管理面不受业务面数据突发影响,即使自动化脚本误配置业务参数,也不会导致设备管理通道中断(如远程登录失败);扩展性增强:新增业务数据类型(如视频流)仅需扩展业务面接口和存储,无需修改管理面逻辑;新增管理功能(如设备权限管控)仅需扩展管理面接口,不影响业务数据传输;运维便捷:管理面故障仅需排查管理组件(如 CRD 同步、管理通道),业务面故障仅需排查数据采集 / 存储,定位范围大幅缩小;资源优化:管理面占用极小资源即可保障设备可控,业务面资源可按需弹性分配,提升边缘节点资源利用率。总结一下下KubeEdge DMI 框架通过 “架构分层抽象、传输通道隔离、接口标准化、运行时资源隔离、存储分离、故障隔离” 六大核心机制,实现了设备管理面与业务面数据的全流程解耦。核心逻辑是 “让管理面专注设备可控性,业务面专注数据实时性”,既保障了设备远程管理的稳定性(即使业务配置出错,管理通道也不中断),又满足了业务数据的高效传输需求,完全适配边缘场景下 “管理不中断、业务不卡顿” 的核心诉求。
-
【活动时间】2025年12月4日—2025年12月17日【报名入口】cid:link_12【活动福利】福利1:微认证上新免费激活,不限次数反复考;:福利2:通过指定任意1门微认证抽奖,抽华为耳机、开发者定制双肩包、云宝盲盒、定制雨伞、定制帆布袋等好礼;活动指定微认证(微认证必须在活动期间内首次通过且生成证书才可以)序号认证名称(含免费激活入口)1运用昇思MindSpore框架成为垃圾分类小能手2DeepSeek+AI辅助编程工具Cline自动化游戏开发3使用DeepSeek实现代码自动生成4基于DeepSeek搭建Agent智能助手5电商数据迁移:MySQL到GaussDB的奇幻之旅6基于FunctionGraph的画图应用部署实践7基于MCP实现知识图谱RAG8秒级创建鲲鹏工程进行原生开发9利用鲲鹏DevKit剖析Java死锁问题的性能分析实践10鲲鹏DevKit完成C与C++源码迁移实战11鲲鹏BoostKit之MongoDB调优实践12基于鲲鹏BoostKit的Web性能优化实战 点击前往活动页,可查看活动详细信息!下载华为云APP,利用碎片化时间随时随地学习各领域热门认证课程,实现技术提升!
-
请查阅参考昇腾社区文档:https://gitee.com/ascend/ACLLite/blob/master/Doc/media.md
-
请查阅参考昇腾社区文档:https://gitee.com/ascend/ACLLite/blob/master/Doc/omexcute.md
-
请查阅参考昇腾社区文档:https://gitee.com/ascend/ACLLite/blob/master/Doc/dvpplite.md
-
请查阅参考昇腾社区文档:https://gitee.com/ascend/ACLLite/blob/master/Doc/common.md
-
请查阅参考昇腾社区文档:https://gitee.com/ascend/MindSpeed-LLM/blob/2.1.0/docs/pytorch/features/deterministic_computation.md
-
请查阅参考昇腾社区文档:https://gitee.com/ascend/MindSpeed-LLM/blob/2.1.0/docs/pytorch/features/profiling.md
推荐直播
-
HDC深度解读系列 - Serverless与MCP融合创新,构建AI应用全新智能中枢2025/08/20 周三 16:30-18:00
张昆鹏 HCDG北京核心组代表
HDC2025期间,华为云展示了Serverless与MCP融合创新的解决方案,本期访谈直播,由华为云开发者专家(HCDE)兼华为云开发者社区组织HCDG北京核心组代表张鹏先生主持,华为云PaaS服务产品部 Serverless总监Ewen为大家深度解读华为云Serverless与MCP如何融合构建AI应用全新智能中枢
回顾中 -
关于RISC-V生态发展的思考2025/09/02 周二 17:00-18:00
中国科学院计算技术研究所副所长包云岗教授
中科院包云岗老师将在本次直播中,探讨处理器生态的关键要素及其联系,分享过去几年推动RISC-V生态建设实践过程中的经验与教训。
回顾中 -
一键搞定华为云万级资源,3步轻松管理企业成本2025/09/09 周二 15:00-16:00
阿言 华为云交易产品经理
本直播重点介绍如何一键续费万级资源,3步轻松管理成本,帮助提升日常管理效率!
回顾中
热门标签