- 场景描述:[图片] 案例链接:案例详情 建议方案:一、优化指导文档,统一领取与使用认知新增 “优惠券核心规则对照表”,明确标注适用产品(如具体 MaaS 模型类型)、计费模式(按需 / 包年包月)、使用区域等关键限制。在领取步骤后直接关联使用场景说明,比如注明 “该优惠券仅适用于新购商用模型套餐包,不支持续订或变更订单”。补充常见冲突场景预判,比如提前提示 “代金券不可与商务折扣、折扣券叠加使用”,避免用户领取后因规则冲突无法使用。二、强化领取与购买页面的规则可视化领取优惠券时,在弹窗中用醒目字体标注核心限制,而非仅依赖跳转链接查看详情。购买 MaaS 服务页面增加 “可用优惠券筛选” 功能,自动匹配当前订单可使用的优惠券,隐藏不符合条件的券种。若优惠券与订单冲突,系统需明确提示冲突原因(如 “当前订单采用包年计费,该优惠券仅支持按需计费”),而非笼统提示 “不可用”。三、新增操作引导与校验机制设计 “优惠券使用预检工具”,用户选择模型和计费模式后,可提前校验已领优惠券是否适用。在指导文档中添加 “领取 - 购买” 完整流程示例,包含每一步的截图和注意事项,比如 “购买时需选择与优惠券匹配的模型规格(如 64K 上下文版本)”。针对按需计费的优惠券,补充自动抵扣说明,明确 “无需手动选择,消费后系统准实时抵扣”,避免用户因操作不当错过优惠。四、完善冲突问题的排查与反馈渠道整理 “优惠券使用冲突排查手册”,按 “产品不匹配”“计费模式冲突”“折扣互斥” 等分类提供解决方案。在费用中心和 MaaS 控制台增设 “优惠券使用反馈” 入口,用户可快速提交冲突问题,附带订单信息和券码,方便技术人员跟进。建立冲突问题快速响应机制,承诺在指定时限内反馈解决方案,同时定期更新文档,补充高频冲突场景的处理说明。 场景描述:[图片] 案例链接:案例详情 建议方案:一、优化指导文档,统一领取与使用认知新增 “优惠券核心规则对照表”,明确标注适用产品(如具体 MaaS 模型类型)、计费模式(按需 / 包年包月)、使用区域等关键限制。在领取步骤后直接关联使用场景说明,比如注明 “该优惠券仅适用于新购商用模型套餐包,不支持续订或变更订单”。补充常见冲突场景预判,比如提前提示 “代金券不可与商务折扣、折扣券叠加使用”,避免用户领取后因规则冲突无法使用。二、强化领取与购买页面的规则可视化领取优惠券时,在弹窗中用醒目字体标注核心限制,而非仅依赖跳转链接查看详情。购买 MaaS 服务页面增加 “可用优惠券筛选” 功能,自动匹配当前订单可使用的优惠券,隐藏不符合条件的券种。若优惠券与订单冲突,系统需明确提示冲突原因(如 “当前订单采用包年计费,该优惠券仅支持按需计费”),而非笼统提示 “不可用”。三、新增操作引导与校验机制设计 “优惠券使用预检工具”,用户选择模型和计费模式后,可提前校验已领优惠券是否适用。在指导文档中添加 “领取 - 购买” 完整流程示例,包含每一步的截图和注意事项,比如 “购买时需选择与优惠券匹配的模型规格(如 64K 上下文版本)”。针对按需计费的优惠券,补充自动抵扣说明,明确 “无需手动选择,消费后系统准实时抵扣”,避免用户因操作不当错过优惠。四、完善冲突问题的排查与反馈渠道整理 “优惠券使用冲突排查手册”,按 “产品不匹配”“计费模式冲突”“折扣互斥” 等分类提供解决方案。在费用中心和 MaaS 控制台增设 “优惠券使用反馈” 入口,用户可快速提交冲突问题,附带订单信息和券码,方便技术人员跟进。建立冲突问题快速响应机制,承诺在指定时限内反馈解决方案,同时定期更新文档,补充高频冲突场景的处理说明。
- 场景描述:想给 盘古大模型 提个建议,找不到入口,就来这里了,麻烦转交一下哈,谢谢!场景主要针对大模型训练方面,从魔擎社区的产品架构能看出华为有完整的工具链,既然可以 用 UCM 做到 “以存代算” ,那么为什么不尝试用大模型的新范式 来做做 “以存代训” 呢,我觉得是值得一试的。 算是大胆假设,小心求证的一种方式吧! 建议方案: 我在想如果把大模型的训练范式改成 元能力+少量必备的通用和编程知识,然后外挂常用编程库用法等技能知识库的方式使用, 能否在保证 处理任务能力的同时,大幅减少 大模型的参数? 因为各个旗舰模型中,我查询后发现有大量训练的知识和内容,但个人使用者常常只会用到一小部分,所以就想了这么一个 核心元能力内置+专项技能外挂”的新范式 ,而现在的工作流框架也能支持这样的工作流程,比如最近兴起的 agentic rag,也可以理解成通过 专项技能外挂让大模型在具体任务中 可以根据最新的情况做出更合理的判断和执行,那么既然大模型永远不可能存储最新的知识, 索性把 精力放到 核心元能力内置 上,然后通过 专项技能外挂 进行赋能, 这样能大幅降低 大模型的训练成本和迭代周期,大幅降低部署成本。 不知道 可否考虑用7B 小模型测试论证 ? 我觉得从 工作流的使用角度,可以反推 对 大模型的核心功能的要求,然后训练大模型。如果能行得通, 应该可以全面节省大量成本的。 我的逻辑是把模型处理任务或工作流的过程 抽象成 元能力+外挂技能知识库 的组合,大模型负责前者,agentic rag 负责后者。 我觉得可以类比大模型推理技术的发展轨迹,从统一架构演变为 预填充 和 解码 这两个阶段, 而最初各家都是不认可这种方式的,后来发现,真香!! 希望 华为 能引领 世界开源技术,不断打击美国科技股的核心叙事逻辑,让世界上越来越多的人使用国产开源模型, 打击闭源模型的现金流,打压美股扯淡的左脚踩右脚的金融收割游戏! 场景描述:想给 盘古大模型 提个建议,找不到入口,就来这里了,麻烦转交一下哈,谢谢!场景主要针对大模型训练方面,从魔擎社区的产品架构能看出华为有完整的工具链,既然可以 用 UCM 做到 “以存代算” ,那么为什么不尝试用大模型的新范式 来做做 “以存代训” 呢,我觉得是值得一试的。 算是大胆假设,小心求证的一种方式吧! 建议方案: 我在想如果把大模型的训练范式改成 元能力+少量必备的通用和编程知识,然后外挂常用编程库用法等技能知识库的方式使用, 能否在保证 处理任务能力的同时,大幅减少 大模型的参数? 因为各个旗舰模型中,我查询后发现有大量训练的知识和内容,但个人使用者常常只会用到一小部分,所以就想了这么一个 核心元能力内置+专项技能外挂”的新范式 ,而现在的工作流框架也能支持这样的工作流程,比如最近兴起的 agentic rag,也可以理解成通过 专项技能外挂让大模型在具体任务中 可以根据最新的情况做出更合理的判断和执行,那么既然大模型永远不可能存储最新的知识, 索性把 精力放到 核心元能力内置 上,然后通过 专项技能外挂 进行赋能, 这样能大幅降低 大模型的训练成本和迭代周期,大幅降低部署成本。 不知道 可否考虑用7B 小模型测试论证 ? 我觉得从 工作流的使用角度,可以反推 对 大模型的核心功能的要求,然后训练大模型。如果能行得通, 应该可以全面节省大量成本的。 我的逻辑是把模型处理任务或工作流的过程 抽象成 元能力+外挂技能知识库 的组合,大模型负责前者,agentic rag 负责后者。 我觉得可以类比大模型推理技术的发展轨迹,从统一架构演变为 预填充 和 解码 这两个阶段, 而最初各家都是不认可这种方式的,后来发现,真香!! 希望 华为 能引领 世界开源技术,不断打击美国科技股的核心叙事逻辑,让世界上越来越多的人使用国产开源模型, 打击闭源模型的现金流,打压美股扯淡的左脚踩右脚的金融收割游戏!
-
【功能建议】文本对话无历史记录 预审不通过场景描述:找不到历史聊天对话记录 建议方案:增加历史聊天记录 场景描述:找不到历史聊天对话记录 建议方案:增加历史聊天记录
-
【产品缺陷】不能强制停止输出,死循环了 预审不通过场景描述:提问一个盘古模型思考很久也未找到答案的问题,就会陷入死循环,不会停止也不能停止!!!! 建议方案:能够设置主题颜色、字体属性等。 场景描述:提问一个盘古模型思考很久也未找到答案的问题,就会陷入死循环,不会停止也不能停止!!!! 建议方案:能够设置主题颜色、字体属性等。
-
【用户体验】盘古大模型 预审不通过场景描述:你好建议你们大模型可以3个月一次.还有一个就是什么时候可以商用 建议方案: 场景描述:你好建议你们大模型可以3个月一次.还有一个就是什么时候可以商用 建议方案:
-
【用户体验】预测模型部署慢 预审不通过场景描述:将训练好的预测模型部署到云端,速度极慢 建议方案:优化部署流程 场景描述:将训练好的预测模型部署到云端,速度极慢 建议方案:优化部署流程
- 场景描述:ModelArts Studio-管理加工算子-过滤类别:实际不存在数据抽样、数据去重类别,建议要删除,否则用户选了发现是空的 建议方案:ModelArts Studio-管理加工算子-过滤类别:实际不存在数据抽样、数据去重类别,建议要删除,否则用户选了发现是空的 场景描述:ModelArts Studio-管理加工算子-过滤类别:实际不存在数据抽样、数据去重类别,建议要删除,否则用户选了发现是空的 建议方案:ModelArts Studio-管理加工算子-过滤类别:实际不存在数据抽样、数据去重类别,建议要删除,否则用户选了发现是空的
- 场景描述:页面: 大模型开发平台->体验中心->文本对话前提: 已有 盘古大模型-ModelArts Studio-推理服务-边缘推理服务当体验Pangu-NLP-N4-MoE-Reasoner-32K时, 输出内容过多导致时间长, 显示错误流式返回超时, 推理暂停. 建议方案:取消超时强制切断推理服务的流式传输不设默认超时阈值(或允许关闭超时检测) 场景描述:页面: 大模型开发平台->体验中心->文本对话前提: 已有 盘古大模型-ModelArts Studio-推理服务-边缘推理服务当体验Pangu-NLP-N4-MoE-Reasoner-32K时, 输出内容过多导致时间长, 显示错误流式返回超时, 推理暂停. 建议方案:取消超时强制切断推理服务的流式传输不设默认超时阈值(或允许关闭超时检测)
-
【产品缺陷】文本错误 未采纳场景描述:https://console.huaweicloud.com/modelartsstudio/#/home/buy?from=intro[图片] 建议方案: 场景描述:https://console.huaweicloud.com/modelartsstudio/#/home/buy?from=intro[图片] 建议方案:
-
【用户体验】文案描述存在错别字 已实现场景描述:在盘古大模型开发平台,点击订购,下面cv大模型的描述是否是错别字。[图片] 建议方案: 文案描述是否存在错别字,建议排查。 场景描述:在盘古大模型开发平台,点击订购,下面cv大模型的描述是否是错别字。[图片] 建议方案: 文案描述是否存在错别字,建议排查。
-
【用户体验】产品介绍写错了 预审不通过场景描述:[图片] 建议方案:围绕写成围烧了 场景描述:[图片] 建议方案:围绕写成围烧了
- 场景描述: 建议方案: 场景描述: 建议方案:
- 场景描述:盘古大模型点控制台和立即体验,直接404建议方案:如果是暂时未开放啥的,应该弹窗说明,或者在新页面说明,而非返回404[图片][图片] 场景描述:盘古大模型点控制台和立即体验,直接404建议方案:如果是暂时未开放啥的,应该弹窗说明,或者在新页面说明,而非返回404[图片][图片]
- 场景描述: DeepSeek推荐的temperature为0.6,而我们模型体验的默认值是1,给体验的客户感觉不专业 建议方案: 把temperature的默认值设置为0.6 场景描述: DeepSeek推荐的temperature为0.6,而我们模型体验的默认值是1,给体验的客户感觉不专业 建议方案: 把temperature的默认值设置为0.6
- 场景描述: [图片] 建议方案: 场景描述: [图片] 建议方案:
上滑加载中
推荐直播
-
HDC深度解读系列 - Serverless与MCP融合创新,构建AI应用全新智能中枢2025/08/20 周三 16:30-18:00
张昆鹏 HCDG北京核心组代表
HDC2025期间,华为云展示了Serverless与MCP融合创新的解决方案,本期访谈直播,由华为云开发者专家(HCDE)兼华为云开发者社区组织HCDG北京核心组代表张鹏先生主持,华为云PaaS服务产品部 Serverless总监Ewen为大家深度解读华为云Serverless与MCP如何融合构建AI应用全新智能中枢
回顾中 -
关于RISC-V生态发展的思考2025/09/02 周二 17:00-18:00
中国科学院计算技术研究所副所长包云岗教授
中科院包云岗老师将在本次直播中,探讨处理器生态的关键要素及其联系,分享过去几年推动RISC-V生态建设实践过程中的经验与教训。
回顾中 -
一键搞定华为云万级资源,3步轻松管理企业成本2025/09/09 周二 15:00-16:00
阿言 华为云交易产品经理
本直播重点介绍如何一键续费万级资源,3步轻松管理成本,帮助提升日常管理效率!
回顾中
热门标签