-
我开发了一套面向AI芯片的3DIC快速热分析求解器,专为昇腾这类大算力芯片的早期散热架构设计而生。核心指标(实测)⚡ 计算速度:0.02秒完成16,000节点(40×40×10)芯片级稳态热分析,普通i5笔记本即可实时计算🎯 物理精度:峰值温度误差<0.5K(网格收敛验证,见图4),严格满足各向异性热传导方程💾 内存占用:<50MB,比传统FEM节省300倍以上📈 可扩展性:支持至100万节点(160×160×40)仅需0.5秒,复杂度O(N log N)性能详解(对应附图)图3:多尺度性能基准(i5笔记本实测) 模式网格规模计算时间适用场景Fast模式40×40×10 = 16,000节点0.02秒早期布局快速筛选Standard模式80×80×20 = 128,000节点0.1秒设计验证Accurate模式160×160×40 ≈ 1,024,000节点0.5秒精细热点分析Fine模式320×320×80 ≈ 8,192,000节点12.0秒高精度验证传统有限元法(FEM)求解同等规模芯片级问题,受矩阵求逆瓶颈限制,即使简化模型也需数分钟至数十分钟。本方案通过FFT卷积将复杂度从O(N³)降至O(N log N),实现数量级加速。注:图中加速比基于文献报道传统FEM求解同类问题耗时约30分钟(AAU 2022、IITD 2023等),本方案未实际运行商业软件,仅用于说明算法优势。图4:网格收敛性验证峰值温度收敛于350.65K(77.5℃)。当Nx≥80时,温度变化<0.5K;Nx=40时误差约1.15K,仍满足工程初期筛选需求。证明0.02秒的Fast模式已具备工程可用精度。图1&2:温度场可视化图1 3D云图:芯片本体(5mm×5mm×1mm)满载时温度分布,Z方向因TIM层存在明显梯度,热点集中于中心区域。图2 切面云图:芯片顶层(Z=0.842mm)温度分布,热点(335K)与AI核心布局一致。图5:温度分布直方图310-315K区间集中了大部分网格,>330K的高温区域高度局部化,验证了3DIC热管理的“热点集中”特征。技术方案方法:各向异性格林函数卷积(严格求解∇·(k∇T)=-Q)加速:FFT卷积降维,复杂度从O(N²)降至O(N log N)物理:引入k_xy/k_z=3.75:1各向异性比,准确刻画硅层与TIM层的热阻差异重要说明(学术诚信与适用场景)对比基准:性能对比数据引用自公开文献(AAU 2022、IITD 2023、IEEE Survey等),本方案未实际运行Ansys/COMSOL。本求解器专注于芯片本体(Die Stack)级热分析(5mm×5mm×1mm尺度),专为早期架构阶段的快速迭代而设计。适用场景✅ 推荐:3DIC早期架构热可行性筛选、热点定位、布局实时优化、参数敏感性分析❌ 不适用:系统级封装(含散热器/PCB/对流)的最终签核验证(仍需CFD+实验验证)结论针对3DIC芯片本体的热分析,本方案可在架构设计阶段提供实时反馈,避免后期 costly 的散热整改。代码与测试数据已整理,欢迎技术交流。附图标注说明(供参考) 图号内容模型范围关键标注图13D温度云图芯片本体(5×5×1mm)热点位置,Z方向梯度图2顶层切面温度分布芯片顶层(Z=0.842mm)热点335K,与AI核心对应图3多尺度性能对比—网格规模对应芯片级模型图4网格收敛性芯片本体收敛值350.65K图5温度直方图芯片本体高温区高度局部化
-
如题,没发放的话什么时候发放
-
AI 正在重构医疗服务生态!从基层病理诊断到儿科疑难病会诊,从创新订阅模式到国际技术突破,过去一周的医疗科技圈亮点纷呈,精准医疗的普惠时代加速到来~ 国内重磅:AI 医疗落地进入 “深水区”1. 华为云 + 瑞金医院:病理 AI 一体机让基层也有 “顶级诊断力”发布时间:2 月 1 日核心突破:联合推出 RuiPath 智慧病理一体机(FusionCube A1000/E200),搭载覆盖 90% 高发癌种的病理大模型,单切片诊断仅需数秒,通过云边端协同技术直接下沉至社区医院和县级医院。同时华为云上线智慧医疗专区,计划上半年打造 30 个专业模型、10 个高质量数据集,还与爱康集团推出 “健康管理智能体”,其健康大模型登顶 MedBench 榜单。 2. 国内首个 AI 儿科医生正式 “上岗”发布时间:2 月核心优势:由北京儿童医院研发,基于 “福棠・百川” 儿科大模型,整合 300 余位儿科专家经验与数十年病历数据,采用 “AI + 多学科专家” 双医会诊模式,诊疗方案与专家吻合率达 95%。覆盖常见病、疑难病及罕见病,基层版可辅助社区医生问诊、识别重症并提示转诊,专家版则参与多学科会诊,还计划推出家庭版(定制成动物形态)。 3. 医真云:AI 医疗 “订阅制” 来了!按需付费超灵活发布时间:2 月 5 日模式创新:全球首创 “按需按次按结果付费” AI 订阅服务,支持两种计算模式 ——✅ 即时计算:常规 15 分钟、急诊 8 分钟出结果(付费)✅ 免费延时计算:常规 48 小时、体检 7 天出结果首期覆盖 80% 疾病谱,聚合 NMPA 二 / 三类认证 AI 工具,新用户享 30 天全量免费即时计算,大幅降低基层医院 AI 部署门槛。 4. DeepSeek 大模型:20 余省份近百家医院集体接入发布时间:2 月落地规模:上海四院、云南省肿瘤医院、北大医院、广东省妇幼保健院等 100 家医院已启用,在内科、肿瘤科、儿科等多科室开展临床辅助诊断与科研工作,加速 AI 大模型的医院场景渗透。 国际前沿:技术突破刷新医疗想象1. 谷歌 DeepMind:Gemini 2.0 Pro 超越人类专家发布时间:2 月 6 日里程碑时刻:MMLU 基准测试准确率达 95.1%,首次超越人类专家平均水平!支持文本、代码、图像、音频多模态推理,能深度理解医学链式逻辑,可快速绘制专业医学机制图、解析复杂病历,为医疗复杂决策提供强力支撑。2. 瑞士 mRNA 癌症疫苗:晚期患者肿瘤缩小超一年发布时间:2 月 6 日(《自然》期刊)临床成果:通过脂质纳米颗粒递送编码多肿瘤新抗原的 mRNA,黑色素瘤 I 期临床中,50% 晚期患者肿瘤显著缩小或稳定超 1 年,成功诱导强烈的特异性 T 细胞反应,为癌症免疫治疗开辟新路径。 3. 美敦力 AI 胰岛素泵:1 型糖尿病血糖达标率 80%发布时间:2 月 6 日(FDA 批准)产品亮点:尼尼猫 800G 混合闭环系统,集成连续血糖监测功能,AI 每 5 分钟自动调节胰岛素输注剂量,无需患者手动调整,临床数据显示可将血糖达标时间提升至 80%,大幅减轻患者管理负担。 📈 四大核心趋势,看懂医疗 AI 未来 1. 普惠化下沉:云边端协同 + 轻量化设备,让基层医院低成本获取顶级 AI 诊断能力;2. 商业化创新:按次付费、免费闲时算力等模式,打破 AI 医疗 “高门槛” 壁垒;3. 场景化深化:儿科、病理、慢病管理等细分领域成为 AI 落地重点,多学科协同成主流;4. 国际化共振:多模态大模型、mRNA 技术、AI 闭环治疗系统持续突破,推动全球精准医疗升级。 以上资讯由大模型整理生成,如涉版权问题,侵删。 【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
-
6个1080p30帧的摄像头,要进行环视拼接,因为平台不支持opencl,想问下用什么方案合适?cpu+npu?具体开发流程是怎样的?需不需要pc端的拼接软件等(只需关注拼接方面,采集等已正常)ps:mdc版本是1.1.027,系统Linux AOS 5.10.0-1.h1.AOS3.2.aarch64
-
2025年华为开发者大赛暨开发者年度会议门票正式开启预约!诚邀您莅临开发者盛典,在最美华为研发中心-上海练秋湖(贝壳厅),大赛总决赛角逐、主论坛大咖分享、分论坛技术演讲、开发者创意展区、实操CodeLabs、优秀开发者颁奖!共同感受云上创新的无限可能,见证开发者们如何以代码为桨,驶向更远的远方!门票预约:cid:link_0想了解大会亮点、议程安排的开发者们,点击官网获取最新信息!大会官网:cid:link_1
-
华为开发者大赛优秀项目2024华为开发者大赛·学生赛道 全国总决赛银奖项目一、团队介绍-梅科尔工作室:本团队隶属于郑州轻工业大学梅科尔工作室,成立于2013年,是一支以技术创新为核心驱动力的产学研结合团队,由李一浩老师带领学生开发者共同组建,拥有8名教师与学生华为开发者布道师,涵盖昇腾、昇思、海思、鸿蒙、华为云等多种方向,成立优选级华为ICT学院及中原人工智能ICT协同中心。工作室自成立以来,工作室始终秉持"技术赋能社会"的核心理念,专注于人工智能、大数据、物联网等前沿技术的研发与应用。采用"导师引领+学生主导"的协作模式,构建起高效灵活的研发体系,已累计汇聚2万余名跨学科人才,成员专业背景涵盖机械工程、电气工程、艺术设计、生物科学、化学工程、食品工程、计算机技术及工商管理等多个领域,目前研究方向覆盖医疗器械、软体机器人、五轴数控机床装备研发、3D打印、人工智能、机器人技术、大数据分析、物联网应用及新能源开发等前沿科技领。慧眼柔巡-基于昇腾AI的多场景线缆异常检测系统二、获奖作品简介:团队依托高校的创新创业平台及其丰富的资源,致力于向社会提供一种用于地下线路全自动化巡检一站式解决方案,立足于与一线研发人员强强联合,着眼于技术创新,建立具有独立自主知识产权和具有较强竞争力的产学研体系。目前,团队计划与国家电网、城市管理局等具有市场推广能力和资源的组织机构达成战略合作意识。其中,核心产品折纸式地下线缆巡检软体机器人是由创始团队自主研发的,团队对其有完全自主的知识产权保护。仿生式地下线缆巡检机器人的核心技术已经拥有了一项实用新型专利和两项软件著作权,未来将计划申请更多的专利对产品进行知识产权保护。产品见下图:设备控制箱(图a)、自研星闪遥控器(图b)、软体机器人(图c)(a)(b)(c)三、背景及行业痛点:传统的地下线路巡检工作通常为人工巡检。人工巡检可以大致总结为两类方式:第一种是将线缆直接从窨井盖拖出地面,在地面进行人工检修后,再放回原位,然而这种方式却容易造成线缆的二次损伤;第二种方式是检修工人进入地下管道内部进行线缆巡检工作,然而这种方式对巡检工人的身材有着特殊要求且工作环境极为恶劣。综上所述,传统线路巡检工作具有作业周期长、工作量大、费时费力,效率低,漏检率和错检率高等缺点。由此可见,传统的人工巡检的方式不能满足现有巡检体系的需要。目前,市面上的线路巡检系统的机器人主要为轮式和轨式机器人,均是刚性结构。这类机器人通常体积较大、难以实现轻便的多自由度动作,难以适应复杂的地下空间。四、技术创新:团队结合自身的软体机器人研究领域,基于华为云全栈生态技术能力,针对上述的问题,提出了利用科技针对线路巡检行业痛点的一站式解决方案(实地运行见图d),帮助相关部门减少巡检成本,提高巡检效率。(d)核心技术点:基于昇思MindYOLO快速构建线缆破损检测算法开发实现MindYOLO是一个基于MindSpore框架实现的YOLO系列算法开源项目,不仅提供了对当前最先进的YOLO系列算法的支持,还通过MindSpore的高效计算能力,使得这些算法在各种硬件平台上都能获得卓越的性能表现,为研究人员和开发者提供一个灵活、高效的工具,实现在实时目标检测领域进行创新和研究。1.环境搭建:有“PyPI源安装”和“源码安装”两种方式及,本算法采用PyPI源安装形式,安装mindyolo与mindspore包2.案例代码获取:在完成环境搭建后,从官网获取mindyolo整理好的源码:https://gitcode.com/gh_mirrors/mi/mindyolo/tree/master;然后下载模型预训练文件:cid:link_0。3.案例运行:将预训练模型文件放置于mindyolo主目录下,进入/config文件夹中,选择对应yolo版本的yaml文件,如yolov7-tiny.yaml,可修改测试数据集等的各类配置。运行代码python test.py --config <yaml文件路径> --weight <model路径>即可完成案例体验4.算法开发:在进行项目算法开发时,需要经过数据集调整及网络微调两部分。①数据集调整:mindyolo同时适配了传统的yolo算法的数据集输入,准备数据集时,仅需保证数据集格式为Yolo格式+coco格式的评估集(如图e),在/config目录下的coco.yaml文件中进行修改地址和标签即可(如图f)(e)(f)②网络调整:针对项目算法所需类型,进行网络层调整,如当传统mindyolo算法在部分复杂检测较差时,可以插入注意力机制。当需要修改算法网络时,只需将所需要添加或删除的层在上述对应yolo版本的yaml文件修改即可,其中包括有锚框(anchors)、骨干网络(backbone)、检测头(head)等(如图g)。有关深度学习、昇思及算法网络微调知识也可前往华为云开发者空间进行学习,点击前往:开发者空间-华为云(g)5.模型训练:修改完成全部数据集及网络后,输入代码python train.py –config <yaml文件地址> --weight <预训练权重地址>--epoch 50 --run_eval=False即可开始训练,训练完成后可获取模型ckpt权重文件,按照上述步骤③的流程便可完成测试与部署操作。该模型训练时,也可基于华为云主机进行整体算法操作。本产品算法效果见实时运行情况(图h)及理结果情况(图i)。(h)(i)五、关注我们
-
项目时间是25年11月到26年9月,但昇腾AI算力券申请界面的“额度有效期”一栏无法填写跨年的日期,只能填小于30天的数字。“额度有效期”一栏所申请的日期是否会影响到算力的使用时限?是需要把申请所获得的额度拆分到两年中分别填写申请吗?
-
一、赛题理解与总体思路我们是本次华为“揭榜挂帅”赛道的“全都对队”,我们在本次比赛中取得了擂主奖项。在对赛题进行分析时,我们意识到,面对的是一项覆盖 训练—推理—算子级优化 的全流程性能挑战。赛题要求选手不仅能调优模型效果,更需深入昇腾 NPU 底层,对推理链路进行系统级重构。我们的判断是:只有从训练端减负、推理端提效、算子端深挖三个层面同时发力,才能在 NPU 上发挥出模型的极致性能。二、训推一体:从源头降低计算压力我们先从训练侧着手,目标是在不显著牺牲精度的前提下,减少模型在推理阶段的无效计算。SFT 阶段的输出规范化在 SFT 中,我们将 CoT(Chain-of-Thought)和最终答案严格约束为比赛指定格式,使模型从训练阶段就习惯于“结构化回答”。强化学习阶段加入长度惩罚在 RL 中,我们设计了带 长度惩罚项 的 Reward Function:冗余输出将触发指数级负奖励。这种训练策略促使模型自然收敛为“简洁表达”。实验显示:输出 Token 数量减少约 30%,有效降低了推理端的算力压力,同时保持了接近原精度。三、底层打磨:深度利用 CANN 软件栈在推理侧,我们利用 CANN 软件栈,对算子、图模式、内存等维度进行了深入优化。启用 torch.npu 图模式小 batch 推理时,算子下发的开销会显著影响吞吐。我们将 PyTorch 动态图编译为 NPU 静态计算图:原理: 将执行流固化,使编译器能够进行更激进的融合与调度优化。收益: 消除 Python Launch Overhead,并提升算子融合、内存复用效率。FFN 多算子融合我们基于 CANN 自定义算子,将 FFN 中若干线性变换与激活操作 融合为单一 Kernel,从而显著减少 NPU 显存 ↔ 计算单元之间的往返。四、架构级创新:推理吞吐的倍增策略在推理架构层,我们通过引入新技术与调整策略,突破了吞吐瓶颈。EAGLE 3 投机解码传统自回归逐 Token 解码速度受限。我们采用 EAGLE 3 架构:Draft Model 并行生成候选序列;大模型一次性并行验证。结果: 在不损失精度的前提下,解码速度提升约 1.5 倍。取消 Chunked Prefill(基于赛题场景的反直觉选择)行业内常用 Chunked Prefill 用于降低单次 Prefill 对延迟的影响,但它并不提高硬件利用率。在本次评测“侧重高吞吐、并行请求充足”的条件下,Prefill 拆分反而带来调度开销,降低整体 TPS。因此我们选择完全关闭 Chunked Prefill,吞吐量得到提升。KV Cache 前缀缓存 + 输入截断针对赛题大量重复 System Prompt,我们引入 Prefix Cache:相同前缀自动复用 KV Cache,免去重复计算。严格控制输入长度,避免少量长尾请求拖慢整个 Batch。五、效果验证与最终成绩通过“算法优化 → 架构创新 → 底层算子融合”的三级联动,我们实现了最终性能突破:吞吐性能: B 榜达到 707 tokens/s,排名第一。输出质量: 在严格格式约束下,模型保持精度且无冗余废话。关键经验:性能优化必须坚持 算法—系统—硬件协同设计(Co-Design),任何单一层面的调优都难以实现全局最优。结语技术优化永无止境。本次比赛中,感谢老师的指导、队友的投入,以及华为云成熟的算力基础与 CANN 生态。未来,我们将继续探索 NPU 推理优化的更多可能,为大模型的真实应用场景带来更高效的系统性能。
-
这次参赛是一段“以赛代练、以练促研”的高强度旅程。我们团队在华为昇腾团队与“挑战杯”联合设立的 LLM 推理强化与性能优化赛道中,围绕“轻量化 Qwen 模型的能力提升 + Ascend-SNT9b 端侧高效推理”这一核心目标展开攻关。赛题不仅考察模型在逻辑推理、数学计算、代码生成等任务上的准确性,也对推理吞吐、时延和能效提出了硬指标,要求真正面向端侧可用、可落地的优化方案。一、为何参赛:真实需求牵引的技术命题参赛动机来自两个维度的驱动:其一是赛题的前沿性。 Ascend-SNT9b + CANN + ModelArts 的全栈国产算力环境,让我们有机会在“软硬协同”的真实链路里磨炼大模型推理优化能力。其二是场景的迫切性。 广西等地山地丘陵地形复杂,自然灾害(如山体滑坡、路面塌陷)与交通运行风险高度耦合,边缘侧需要具备“预测更准、推理更快、模型更轻”的行业模型来支撑防灾减灾与交通调度。我们希望把赛题能力迁移到交通防灾预测与预警中,真正让模型走出 benchmark 走进现实。二、如何备赛:从基座、数据到工程环境的系统化准备备赛阶段我们做了三件关键事:基准模型选择在模型规模 ≤3B、必须兼容 Ascend+CANN 推理的约束下,我们评估了多种轻量模型,最终选定 Qwen2.5-3B-Instruct 作为基座。它在数学、代码与通用推理上具备较强先验能力,同时工程适配成本低,是后续优化的坚实起点。高质量指令数据集构建围绕赛题任务分布(数学/代码/选择/通用生成),我们构建了百万级指令微调数据,目标是:覆盖足量推理样本,提升“会推理、推得对”;保持难度梯度与格式一致性,支撑端侧对齐训练;形成可复用的数据生产管线。工程环境与评测闭环我们在 ModelArts 上搭建训练与评测流水线:统一版本、固定随机种子、记录每轮 ablation 与日志,让每一次参数调整都能“可回溯、可解释”。这一点在后期冲刺时尤为关键。三、技术破局:三条主线协同优化赛题中我们沿“对齐能力 → 加速推理 → 压缩部署”三条主线逐层推进,最终形成了相互支撑的组合拳。1)LoRA 任务适配:先把能力“对齐到赛题上”赛题对输出格式与推理精度要求严格。我们采用 LoRA 微调:冻结基座权重,只在 Transformer 注意力层注入低秩可训练矩阵更新,从而以极低的算力成本完成任务对齐。结果上,模型在 mmlu_test 等推理评测上整体精度实现稳定提升,且未显著牺牲通用能力。2)算子级优化:让推理真正“跑得快”端侧推理的瓶颈往往在注意力计算。我们在 Ascend 环境下使用 CANN 提供的 FlashAttention 算子替换原 Attention 实现,显著降低注意力时间开销,推理延迟和吞吐表现得到肉眼可见的改善。这一步让我们深刻体会到:大模型优化不是单纯“改网络”,更是“算子-图编译-硬件”的深度协同。3)4-bit 量化:把模型“压到边缘可用”在性能冲刺的同时,我们面向显存与端侧功耗约束,使用 MindSpore 对模型执行 4bit 权重量化(配合动态激活量化)。量化后的模型体积、显存占用与推理耗时显著下降,为后续交通边缘设备部署提供了现实可能。四、结果之外的收获:能力、方法与心态三重成长能力层面我们从“会训模型”走向“会做推理系统”。LoRA、FlashAttention、4-bit 量化这三类技术分别对应“对齐、加速、压缩”三大端侧挑战,构成了相对完整的轻量化推理优化谱系。方法层面比赛把我们从“经验调参”推向“实验科学”:用 ablation 说话;用日志追因;用端到端链路验证改动是否真的有效。这套方法论可迁移到我们今后的交通行业模型与端云协同研究中。心态层面冲刺阶段我们也经历过指标卡住、方向摇摆的时刻。最终靠的是团队互相信任、快速复盘、以及把“问题拆小、逐个击穿”的工程心态。赛后回看,这段抗压与协作的过程同样珍贵。五、面向落地:从赛题能力到交通防灾预警我们在路演中展示了赛题能力向交通防灾的迁移设想:将模型强化后的数学/逻辑推理能力用于 山体滑坡预测、道路车流预测;融合地质、气象水文与工程结构等多源知识,实现面向广西灾害的主动式预测预警。与传统仿真或静态行业模型相比,大模型的优势在于“理解+推理+生成”一体化,从而支撑更实时、更智能的应急响应。六、致谢与展望感谢指导老师的路线把关与关键建议,也感谢队友在数据构建、工程适配与优化实验中的高密度协作;同时感谢华为昇腾与 ModelArts 平台提供的算力与训练支持、专家直播和答疑资源,让我们能在真实国产算力链路上完成一次“从训练到推理再到部署”的全流程实践。未来我们会继续沿着两条路线推进:技术上:进一步做软硬协同优化与端云协同调度,让轻量模型在边缘端长期稳定运行;应用上:把本次优化后的模型融入广西公路交通防灾系统,形成可解释、可部署、可迭代的行业大模型能力底座。这场比赛结束了,但它带来的技术视野、工程方法和落地信念,会继续成为我们下一个研究与项目的起点。
-
✨活动背景与宗旨祝贺各位选手圆满完赛!赛场上的奇思妙想与卓越技术,共同呈现了一场精彩纷呈的技术盛宴。赛事虽已落幕,思考与成长永不止步。每一行代码都蕴含着独特思路,每一次调试都沉淀为宝贵经验。为延续这份技术热情,共建共享共进的开发者社区,我们正式启动赛后征文活动。我们相信,个人的经验是火花,众人的分享可汇成照亮前路的星光。诚邀您留下技术干货、备赛心得与真诚建议,为未来的开发者点亮引路明灯,共同滋养我们的开发者技术生态。✨活动主题我们诚挚地邀请您,围绕但不限于以下方向,分享您的故事:技术干货深挖掘:分享您在比赛中解决某个棘手技术难题的思路、算法优化技巧、架构设计心得或使用的炫酷工具/框架。备赛心路全记录:回顾您的备赛历程,如何平衡学业与备赛?有哪些高效的学习方法和资源推荐?心态上是如何调整的?赛事体验与建言:谈谈您对本次赛事组织、赛题设置、平台体验的感受,并提出您宝贵的改进建议,帮助我们做得更好。致未来选手的话:作为一名“过来人”,您最想对下一届的学弟学妹们说些什么?有哪些“避坑”指南或“必胜”秘诀?✨参与对象揭榜挂帅华为赛道获奖团队✨活动时间征文期:即日起至2025年12月7日评审与公示期:征文结束后10个工作日内。✨参与方式在 [挑战杯揭榜挂帅华为赛道-大赛官方论坛-热门活动分享] 以发帖形式参与。帖子标题格式:【赛后分享】+ 自定义标题 (例如:【赛后分享】我是如何用XX算法实现性能突破的】)。论坛链接:cid:link_0🎁奖励机制(重磅激励!)奖项数量奖品“技术之光”头奖8名机械背光键盘“经验之谈”优秀奖10名华为云键盘“积极参与”奖 (若干)若干所有按要求完成投稿的选手,都将获得官方定制的赛事礼品一份(如数据收纳包/折叠双肩包/公牛插座等,仓库随机发送其一) ✨评选标准内容质量 (50%):技术深度、逻辑清晰度、实用性;分享价值 (30%):对后来者的指导与启发意义;互动热度 (20%):帖子在社区内的回复与讨论情况。✨作品要求作品必须为原创首发,不得抄袭;内容需积极向上,与技术、赛事或开发者生态相关;字数建议不少于800字,图文并茂更佳(也可参考链接以下附件征文模版参考)。 🚀🚀你们不仅是比赛的参与者,更是这个技术社区的建设者。您的每一次分享,都可能成为他人前行路上的关键一步。让我们携手,将短暂的比赛,延伸为长久的影响力。期待在论坛中,读到您独一无二的精彩故事!
-
【直播干货】第二期:核心算子如何优化?专家带你深度解析 课程链接第一期:使用华为开发者空间Versatile一键快速构建 AI Agent 课程链接 【技术文档及学习课程支持】为助力参赛选手高效备赛,大赛官网全面提供与赛题紧密关联的技术学习资源与体系化课程,帮助参赛选手快速构建知识体系、提升实战能力。以下为昇腾计算技术相关核心学习内容:CANN社区地址(开源代码仓,内部有readme):cid:link_13昇腾文档地址(查询AscendC API的用法):cid:link_12基础与前置学习Ascend C算子编程和C++基础:课程链接算子开发课程Ascend C算子开发(入门):课程链接Ascend C算子开发(进阶):课程链接Ascend C算子开发(高级):课程链接算子调试及优化Ascend C算子编程常见调试调优方法:课程链接赛题参考样例代码matmul算子高阶实现:代码链接matmul算子低阶实现:代码链接matmul+leakyrelu融合算子:代码链接reduce算子实现:代码链接broadcast算子实现:代码链接
-
【获奖名单】序号项目编号学校团队名称作品名称奖项1480719上海交通大学全都对队基于昇腾NPU的训推一体加速优化方案擂主(特等奖第一名)2514025暨南大学想去研究大模型智模昇算——基于全自主技术栈软硬协同的大模型系统调优方案特等奖3474858杭州电子科技大学CEATRG推理大模型的训练调优与性能加速特等奖4512717哈尔滨工业大学纳算力克大工坊面向昇腾平台的大语言模型推理调优与性能加速实践一等奖5515501北京邮电大学BUPT-ParCIS推理大模型的训练调优与性能加速的协同优化一等奖6473176华中科技大学二进制萝卜培育中心大模型参数高效微调与推理引擎加速一等奖7518313淮阴工学院智在必得基于Ascend的端到端推理优化大模型方案一等奖8480007哈尔滨医科大学璃月医科大学孤云阁校区基于PPO+华为昇腾的推理模型加速系统二等奖9475128华南师范大学试试推理大模型的训练调优与性能加速创新方案二等奖10474329华东师范大学ECNU_ELRM基于国产化推理大模型高效训推技术二等奖11512943西安交通大学西北智联推理大模型的训练调优与性能加速助力全栈自主 AI二等奖12511717湖北工业大学TEMP基于全栈自主AI的大模型训练调优与应用二等奖13471760华中科技大学拳头花可火基于GRPO强化学习,知识蒸馏和多算子融合的推理大模型综合调优与加速技术二等奖14519134复旦大学CodeWisdomAdaMind三等奖15479466中国计量大学智枢拓界量衡昇算:赋能极致推理的大模型加速引擎三等奖16513186天津理工大学重生之我在昇腾摸鱼基于AscendC加速大模型推理三等奖17472861中国科学技术大学点子王面向自主大模型推理增强的训练调优与性能加速方案三等奖18526004桂林电子科技大学Create推理大模型的训练调优与性能加速助力全栈自主 AI三等奖19517087西北工业大学NPU-IIL-AscendMindAscendMind:基于昇腾AI平台的轻量化推理优化模型三等奖20473984台州科技职业学院永宁永胜基于知识蒸馏的大模型训练调优和性能加速三等奖21470775北京邮电大学bupt735基于Qwen的电子电路实验虚拟助教三等奖22508583桂林电子科技大学ken推理大模型的训练调优与性能加速助力全栈自主AI优胜奖23508208同济大学三角矩阵基于华为全栈AI技术生态的推理大模型性能优化研究优胜奖24529681桂林电子科技大学好想要MatebookFold队基于华为AI技术的推理大模型的训练调优与性能加速优胜奖25521477武汉船舶职业技术学院破晓者推理大模型的训练调优与性能加速助力全栈自主AI优胜奖26506591南昌大学马桶蹲累了基于昇腾CANN的轻量级大模型推理增强与性能加速研究优胜奖27503585福州外语外贸学院昇腾芯链昇腾芯链:轻量级推理模型的蒸馏优化与端侧加速优胜奖28473846广东机电职业技术学院昇腾智推大模型昇腾智推大模型优胜奖29471801广东石油化工学院[object Object]推理大模型的训练调优与性能加速助力全 栈自主 AI 方案优胜奖30524083华东理工大学华东理工大学AIMC实验室面向全栈自主AI的大规模预训练模型训练调优与推理加速方法研究优胜奖31518595桂林电子科技大学这对吗推理大模型的训练调优与性能加速助力全栈自主AI优胜奖32526548桂林理工大学RookieRush基于昇腾 AI 的轻量级推理大模型训练调优与性能加速方案优胜奖33518067华东师范大学lab308推理大模型的训练调优与性能加速助力全栈自主AI优胜奖34524572中国矿业大学徐海学院远帆“推理大模型的训练调优与性能加速助力全栈自主 AI”优胜奖备注:2025年10月20日至2025年11月20日为拟授奖作品公示期。
-
直播回放链接:cid:link_0
推荐直播
-
华为云码道-玩转OpenClaw,在线养虾2026/03/11 周三 19:00-21:00
刘昱,华为云高级工程师/谈心,华为云技术专家/李海仑,上海圭卓智能科技有限公司CEO
OpenClaw 火爆开发者圈,华为云码道最新推出 Skill ——开发者只需输入一句口令,即可部署一个功能完整的「小龙虾」智能体。直播带你玩转华为云码道,玩转OpenClaw
回顾中 -
华为云码道-AI时代应用开发利器2026/03/18 周三 19:00-20:00
童得力,华为云开发者生态运营总监/姚圣伟,华为云HCDE开发者专家
本次直播由华为专家带你实战应用开发,看华为云码道(CodeArts)代码智能体如何在AI时代让你的创意应用快速落地。更有华为云HCDE开发者专家带你用码道玩转JiuwenClaw,让小艺成为你的AI助理。
回顾中 -
Skill 构建 × 智能创作:基于华为云码道的 AI 内容生产提效方案2026/03/25 周三 19:00-20:00
余伟,华为云软件研发工程师/万邵业(万少),华为云HCDE开发者专家
本次直播带来两大实战:华为云码道 Skill-Creator 手把手搭建专属知识库 Skill;如何用码道提效 OpenClaw 小说文本,打造从大纲到成稿的 AI 原创小说全链路。技术干货 + OPC创作思路,一次讲透!
回顾中
热门标签