-
各位亲爱的版主们,大家好!经过大家一个月的努力角逐,3月外部版主激励评比结果已出炉,数据公示如下,请查看!(在新标签页打开图片可查看清晰大图/见附件)·外部版主激励规则:点击了解更多转正礼/基础任务/额外任务(在线时长15小时+,主题帖15+,回帖30+,技术长文5+/原创技术干货1+,合集1+,有效回复问题求助帖10+,话题互动1+,完成这4项指标可获对应价值的代金券/实物礼品)请完成任务获得激励的版主,点击填写激励发放意愿统计问卷反馈截止时间:2025年4月10日,以便小编进行相应的激励发放。注:在线时长数据达标后,才会再去考察达标版主的三项任务完成情况;主题数+回帖数达标后,才会再去考察达标版主的技术长文数量情况。
-
在IT技术日新月异的当下,今日chatgpt大火,明天deepseek出道。程序员作为推动科技进步的关键力量,承担着巨大的工作压力。长时间的代码编写、频繁的项目迭代,让不少程序员过着 “996” 甚至 “007” 的生活,身体和精神不堪重负 。生活中,陪伴家人的时间越来越少,个人爱好被搁置一旁,就连简单的锻炼和充足的睡眠都成了奢望。如何平衡好生活和工作的关系,成了摆在广大程序员面前的重要难题。拿我自己举例子。我的工作是数据库运维+一个重要系统的维护。白天要工作,晚上遇到紧急系统和数据库故障也要起来处理,出去玩也要背着电脑,会导致没有兴趣玩那么,程序员究竟该如何找到两者之间的平衡点,既推动事业持续发展,又能享受生活的美好呢?
-
在科技飞速发展的当下,大模型技术掀起的 AI 浪潮,正全方位冲击着人类的学习与生活。相信大家对 AI 并不陌生,它既可以在短短几秒内生成一篇结构完整的论文,也能为复杂的数学难题提供解题思路。于是,一个极具争议性的问题摆在我们面前:有了大模型之后,我们还需继续学习吗?AI 又将如何影响我们的学习和发展?今天这场辩论,就旨在深入剖析这一议题,探寻 AI 时代的学习真谛。正方观点认为,即便有了大模型,学习不仅是必需的,而且更具价值。在 AI 的辅助下,学习方式会发生变革,从而让人们实现更高效、更具创造性的学习。而反方则提出,大模型能提供海量信息与解决方案,足以满足人们的知识需求,传统学习方式正逐渐失去必要性。领略这场围绕 AI 与学习的思辨盛宴,如何从不同角度剖析这一前沿话题 ?
-
【直播回放】直播回放地址【活动总结】 华为开发者布道师技术沙龙·直播间精彩回顾【第1期】联接高校人才培养与前沿产业技术,成就学生未来 / 李一浩老师【第2期】逐梦之旅:学生开发者到华为开发者布道师的蜕变 / 杨阳同学【第3期】昇思MindSpore:AI 领域的创新力量与跨平台之路 / 陈新杰同学【第4期】基于OpenHarmony计算机学科人才培养经验分享 / 周睿老师【第5期】计算机核心课程贯通式实践教学体系介绍 / 赵欢老师、李博经理、杨科华老师【第6期】OpenHarmony应用开发之网络数据请求与数据解析 / 倪红军老师【第7期】华为开发者空间玩转DeepSeek / 马欣老师【第8期】基于能力图谱的openGauss项目闯关/ 马瑞新老师 官网直播间观众问题回答摘要:序号问题答复12457+多表查询时,怎样避免性能瓶颈?建议使用索引方式,以避免多表数据过多导致检索慢26251+全量迁移和增量迁移的主要差异是什么,如何选择适合的迁移方式?增量操作只处理变化的数据,有效提高操作效率,节省资源。数据更新频率高时,增量可以减轻系统负担,确保数据处理及时。全量操作适用于数据一致性和完整性要求高的场景,比如定期备份与恢复、数据迁移等。通过全量操作,可以确保所有数据的完整性和一致性,尤其在数据分析和审计等需要全量数据的情况下尤为重要。36188+openGauss是如何支撑核心系统的高并发与稳定性?查看白皮书46188+在银行业务中,这数据库如何保障银行敏感数据安全?真实银行系统会层层设置秘钥,建有秘钥管理库52457+openGauss支持哪些高级查询优化技巧,?查看白皮书62009+CHAR与VARCHAR的区别是什么后者支持动态数据长度76251+在openEuler上安装openGauss之前需要做哪些准备工作?可以查看白皮书86188+openGauss如何支持银行实时风控?不同的银行策略不一样96188+openGauss做两地三中心容灾方案应该怎么实现呢?视具体场景103835+openGauss数据库的优势和具体更适配的使用场景具体可以介绍一下吗查看白皮书116251+Data Studio支持哪些类型的数据库对象可视化管理?查看白皮书122009+如何在openGauss中更新表的schema查看白皮书132457+如何验证openGauss数据库是否安装成功?查看白皮书142009+录入数据时如何确定是否插入成功?查看白皮书156251+openGauss如何应对银行业务高峰期的数据库负载?查看白皮书162009+插入数据报错时如何快速定位出错的位置?查看白皮书172457+对于敏感信息比如客户个人数据,在数据库层面建议实施哪些加密措施?查看白皮书182009+有没有什么不以明文方式存储密码的方法?查看白皮书192009+两个客户端同时修改一个储户的密码会发生冲突吗?查看白皮书204501+物理备份(PITR)和逻辑备份(pg_dump)的恢复效率差异有多大?如何制定混合备份策略?查看白皮书216251+银行业务场景下,如何设计有效的权限控制机制?查看白皮书226188+在AI与大模型的时代,openGauss如何赋能银行智能化?支持向量数据库吗?查看白皮书232009+有没有通过除了卡号以外的其他方式查找储户信息查看白皮书242092+openGauss 在处理高并发事务时有哪些优化机制?查看白皮书252092+在 openGauss 中,如何高效存储和查询 JSON 数据?请查看白皮书266251+如何减少锁争用,提高事务处理能力?尽量减少锁,会极大损耗性能272457+如何设计支持实时数据分析的数据库架构?openGauss由实时数据分析功能286251+可以使用Python接口与openGauss数据库进行交互吗?可以交互的,有开发接口296188+从mysql迁移至openGauss有哪些步骤?查看白皮书306188+在现在分布式服务中,大型项目中还会有存储过程和触发器吗?如何解决存储过程和触发器问题排查问题?大型项目也会使用的312975+openGauss 的 AI 运维工具(如 AI4DB)如何实现慢 SQL 自动诊断?是否需要额外训练模型?需要额外训练的326251+怎么选择合适的数据库设计模式?没有标准答案啊332457+模糊查询在openGauss中是如何实现的,性能影响因素有哪些?和标准sql是一样的342457+使用存储过程封装业务操作有什么好处?保证数据库的安全性354501+在 ARM 架构服务器上部署 openGauss 时,遇到 checkpointer 进程高 CPU 占用,可能的原因有哪些?具体情况不好说啊362457+如何配置openGauss支持分布式事务?自带的376188+openGauss与mysql相比,其优势在哪?云端存储386188+openGauss如何是如何支撑核心系统的高并发与稳定性?可以查询openGauss的白皮书396251+怎么知道数据库设计是否符合最新的金融行业标准?这个要根据具体情况而定406188+从mysql迁移至openGauss会哪些兼容性问题?数据格式和分区等,这些需要注意41openGauss如何进行批量数据录入查看白皮书422582+openGauss如何进行批量数据录入可以使用SQL语句436188+对于超大规模集群中的实践,如何对openGauss进行性能调优呢?这块视频中有介绍,但是对于大规模并发的还是需要根据具体需要443835+openGauss数据库的优势和适配的使用场景可以具体介绍一下吗主要优势我觉得对于大规模并发的数据openGauss要更好452009+openGauss支持云上动态横向拓展吗支持462009+openGauss的DB for AI支持类似pgvector的功能吗功能在逐渐扩展472009+openGauss支持插件拓展吗支持482009+openGauss相比postgres的优势有哪些?完全支持云端492009+openGauss支持存储地理信息吗支持的502009+想问问老师在使用openGauss有遇到什么问题吗,是怎么解决的呢多查看openGauss的社区和白皮书
-
案例介绍本案例指导开发者通过开发者空间提供的云主机,使用开源Kotaemon的RAG UI框架,调用ModelArts Studio 大模型平台的DeepSeek-V3-32K模型,构建私人知识库。案例内容1 概述1.1 背景介绍ModelArts Studio作为一款先进的大模型即服务平台,集成了高效便捷的模型开发工具链,支持企业对大模型进行深度定制开发,实现模型应用与业务系统的深度融合,从而显著降低企业AI技术的落地成本与实施难度,助力企业快速实现智能化转型。如今,知识库已成为企业和个人提升工作效率、积累知识资产的重要工具。传统知识库存在构建成本高、维护困难、检索效率低等问题。本案例利用Kotaemon框架和ModelArts Studio提供的DeepSeek-V3-32K模型,构建一个高效、便捷、可定制的本地/私人知识库,方便开发者检索各种场景的文档,提高工作效率。有下列应用场景:开发者文档检索: 开发者可以快速检索 API 文档、代码示例、技术博客等,提高开发效率;企业内部知识管理: 企业可以构建内部知识库,方便员工共享和检索知识,提升团队协作效率;个人知识积累: 个人可以利用知识库管理学习笔记、项目资料等,构建个人知识体系。1.2 适用对象企业个人开发者高校学生1.3 案例时间本案例总时长预计60分钟。1.4 案例流程说明:① 用户使用登录开发者空间并配置云主机;② 用户提供Firefox浏览器在ModelArts Studio平台中领取DeepSeek-V3-32K模型;③ 使用docker部署Kotaemon框架④ Kotaemon调用ModelArts Studio平台中的DeepSeek-V3-32K API模型;⑤ 用户在Firefox浏览器中构建AI知识库并对其进行聊天。1.5 资源总览本案例预计花费总计0元。资源名称规格单价(元)时长(分钟)开发者空间2vCPUs | 4GB X86 |Ubuntu 22.04 Server定制版0602 资源与开发环境准备2.1 配置云主机首先登录开发者空间,登录后页面如下:点击配置云主机,按如下规格进行云主机配置。云主机名称:我的云主机/自定义CPU架构:X86规格:2 vCPUs 4 GB操作系统:Ubuntu系统镜像:公共镜像 Ubuntu 22.04 Server定制版确认以上配置正确,点击安装,进行云主机操作系统安装。安装完毕之后,点击进入桌面。环境准备中,大约需要3-5分钟,请您耐心等待…进入桌面后的默认效果如下:2.2 领取DeepSeek-V3-32K模型在云主机桌面底部菜单栏,点击打开火狐浏览器:用Firefox浏览器访问ModelArts Studio首页, 点击ModelArts Studio控制台,跳转到登录界面,按照提示登录,即可进入ModelArts Studio控制台:签署免责声明:进入ModelArts Studio控制台首页,在左侧菜单栏,选择模型推理中的在线推理,在免费服务中选择DeepSeek-V3-32K(NEW)模型,点击领取,领取200万免费token。3 安装并配置Kotaemon3.1 Kotaemon安装Kotaemon 是一个开源的、简洁且高度可定制的 RAG(Retrieval-Augmented Generation,检索增强生成)用户界面,专门设计用于与您的文档进行对话。无论是普通用户还是开发者,Kotaemon 都旨在提供一种直观、灵活且高效的方式来管理和交互您的文档内容。它不仅仅是一个简单的聊天工具,更是一个集成了先进 AI 技术的智能文档助手,能够帮助用户快速检索、理解和生成与文档相关的信息。项目地址:cid:link_4本次通过docker安装Kotaemon。首先先安装docker:参考文档:cid:link_1登录开发者空间云主机,更新软件包列表。sudo apt-get update安装Docker所需依赖包。sudo apt-get -y install ca-certificates curl创建/etc/apt/keyrings目录,并下载Docker的官方GPG密钥到该目录。sudo install -m 0755 -d /etc/apt/keyringssudo curl -fsSL https://mirrors.huaweicloud.com/docker-ce/linux/ubuntu/gpg -o /etc/apt/keyrings/docker.ascsudo chmod a+r /etc/apt/keyrings/docker.asc将Docker仓库添加到系统的软件源列表。echo \ "deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.asc] https://mirrors.huaweicloud.com/docker-ce/linux/ubuntu \ $(. /etc/os-release && echo "$VERSION_CODENAME") stable" | \ sudo tee /etc/apt/sources.list.d/docker.list > /dev/null更新软件包列表。sudo apt-get update安装并运行Docker。sudo apt-get install -y docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-pluginsudo systemctl start docker设置以非 root 用户身份管理 Docker#由于云主机默认的用户是developer非root用户,需要设置以非 root 用户身份管理 Docker#创建组dockersudo groupadd docker#将您的用户添加到组dockersudo usermod -aG docker $USER重启云主机回到工作台,点击重启按钮,云主机会自动重启或者您还可以运行以下命令来激活对组的更改:newgrp docker下面的命令是设置 Docker 在系统启动时自动启动。sudo systemctl enable docker查看docker版本信息。docker -v回显如下类似信息,表示Docker安装成功。Docker到此已经安装完毕。接下来通过Docker安装Kotaemon,命令如下:docker run \-e GRADIO_SERVER_NAME=0.0.0.0 \-e GRADIO_SERVER_PORT=7860 \-v ./ktem_app_data:/app/ktem_app_data \-p 7860:7860 -it \ghcr.nju.edu.cn/cinnamon/kotaemon:main-ollama正在安装Kotaemon中:稍等几分钟,下面是安装依赖的日志:继续等待依赖安装完成,下面是安装成功且运行的截图:3.2 登录Kotaemon首页我们在浏览器输入链接:http://localhost:7860发现加载出了首页:默认的Username和Password均为 admin我们输入上述Username和Password,点击登录:登录成功:3.3 在华为云Maas上获取DeepSeek-V3-32K(NEW)模型api接口首先我们要先配置DeepSeek-V3-32K(NEW)模型api接口:我们打开ModelArts Studio中API Key管理的链接:https://console.huaweicloud.com/modelarts/?locale=zh-cn®ion=cn-southwest-2#/model-studio/authmanage点击创建API Key:在标签中填入:Kotaemon描述中填入:开发者空间的Kotaemon当然上述标签和描述的内容可以自定义:创建成功:我们在页面上也可以看到创建成功:注意:API Key仅会在新建后显示一次,请及时复制并妥善保存,若API Key丢失,请新建API Key。我们接着查看在线推理中DeepSeek-V3-32K(NEW)模型api接口信息:查看调用信息,要点击OpenAI SDK按钮:我们成功得到了DeepSeek-V3-32K(NEW)模型接口信息。3.4 配置Kotaemon我们回到开发者空间云主机的火狐浏览器,在Kotaemon登录成功的页面中,首先点击Resources 按钮:点击LLMs按钮:我们在LLMs中先配置DeepSeek-V3-32K(NEW)模型接口,点击Add按钮添加模型供应商:出现下面界面:缩小页面,可以看到全部配置信息:LLM name选项就是需要显示的模型供应商的模型(自定义),本案例设置为华为云下面继续设置LLM vendors,我们这里必须选择ChatOpenAI最后的选项Specification用于配置模型的接口信息这里默认只给出了api_key和model,因为这里默认是OpenAI来提供模型,所以我们需要手动添加base_url指定模型的接口地址,注意:这里添加base_url,不能直接在api_key:null行最后通过换行,来添加一行,需要按住shift+enter 才能添加新的一行。我们将之前得到的Api key、API地址、模型名称填入选项中:我们已经填好信息,把下面的Set default 设置为默认模型勾选一下(1),点击添加模型(2):浏览器的右上角会出现添加成功的消息:我们点击View视图查看添加的模型:发现已经成功添加华为云为默认的LLMs:我们点击华为云,测试DeepSeek-V3模型是否连接正常:在Test connection中点击Test:测试发现,- Connection success. Got response: Hello! How can I assist you today? 以及右上角会显示infoLLM 华为云 connect successfully说明连接华为云成功注意:如果出现- Connection failed. Got error: Error code: 400 - {'error_code': 'ModelArts.4905', 'error_msg': 'Failed to check the authorization request header. '}说明api_key配置错误.请检查api_key是否填写正确。如果出现- Connection failed. Got error: Error code: 404 - {'detail': 'Not Found'}说明API地址 base_url 配置错误,需要配置正确的地址如果出现- Connection failed. Got error: Error code: 404 - {'object': 'error', 'message': 'The model `deepseek-V3` does not exist.', 'type': 'NotFoundError', 'param': None, 'code': 404}说明模型名称model配置错误,需要将名称配置为:DeepSeek-V3最后我们要保存配置:浏览器右上角会显示保存成功:接下来我们配置Embeddings 嵌入式模型:我们这里docker镜像采用了Ollama 捆绑包,所以使用容器内ollama提供嵌入式模型:nomic-embed-text我们勾选使用ollama为默认的嵌入式模型,然后测试其模型:点击Test:出现连接成功的提示:最后,要保存配置:右上角显示保存成功:最后检查LLMs和Embeddings是否配置正确:下面设置其他选项:首先点击Settings按钮,然后点击Retrieval settings:我们修改1个选项,将LLM for relevant scoring修改为默认:然后点击保存设置: 4 使用Kotaemon搭建本地AI知识库然后我们点击Chat回到首页:我们可以上传我们的个人笔记、知识文档,点击Files按钮,上传pdf文件:上传完成后,正在为文件创建索引:这里创建索引的时间是根据文件的大小和嵌入式模型的响应速度决定的,文件过大,创建索引时间可能过长。下面是文件创建索引成功:点击这个文件:上述文件已经加入我们的知识库了点击Chat按钮,返回首页我们先选中文件,点击Search In File(s):选择文件:首页我们要设置AI回答的语言为中文,点击下方红色方框的小按钮:点击Language下方的按钮:选择中文Chinese:选择完成后:我们可以对这个文件进行提问了:第一个问题:总结这个文件回答的不错这里由于开发者空间自带的firefox的版本太低,无法显示思维导图因此使用chrome浏览器。首先安装下载Google Chrome 的安装包:wget https://dl.google.com/linux/direct/google-chrome-stable_current_amd64.deb然后安装Google Chromesudo dpkg -i google-chrome-stable_current_amd64.deb查看是否安装成功:dpkg -l | grep google-chrome然后点击首页的左下角的所有应用程序按钮:然后点击运行程序:点击向下的箭头:选择chrome浏览器,启动即可:输入链接:http://localhost:7860/填入默认的Username和Password (均为admin)选择刚才的发现思维导图成功显示:点击Export按钮,可以在新窗口查看思维导图:打开了新窗口:点击Preview按钮,可以预览源文件可以浏览源文件:我们的AI知识库的搭建就完成了!5 总结与展望本次使用的Kotaemon的开源框架中关于RAG的一小部分应用,还有许多其他功能,开发者可以参考下面开源地址链接进行指导:Kotaemon项目地址:cid:link_4华为云Maas提供的DeepSeek-V3-32K模型响应速度挺快,虽然仅仅是体验,后续马上也要开通商用按量服务,应该速度更快! 我正在参加【案例共创】第3期 基于华为开发者空间+DeepSeek完成AI应用构建开发最佳实践https://bbs.huaweicloud.com/forum/thread-0218176004967264062-1-1.html
-
各位选手好,近期关注到有些选手开小号来提交作品评测,出于比赛公平性考虑,算法精英实战营赛事禁止选手开小号,注册多个账号提交作品参赛的行为。注意:一名参赛选手只允许使用一个账号进行参赛并提交作品,禁止有注册小号提交作品的行为,如有注册小号提交代码将在代码查重阶段判为作弊。即日起如有注册小号的行为请选手们自行删除小号,即日起如仍有注册小号提交作品的行为将视为作弊,取消相关赛事资格。 以下是比赛相关规则:1.赛事统计榜单只展示选手得分最高的作品分数。由于只开放部分测试集,此榜单不代表最终排名,比赛结束后会对选手最后一次提交作品进行最终验证后公示获奖名单。(建议选手在比赛截止前提交一次自己认为最优的作品)2.华为算法精英实战营是开放的比赛,对于开源代码,可以借鉴参考,但必须有相应的原创、创新。比赛结束后将进行代码查验和复测,如发现代码重复、搬运、抄袭、重复率过高的作品,经查实后我们将取消获奖资格。3.每天每位选手的作品提交的次数不能超过XX次。4.一名参赛选手只允许使用一个账号进行参赛并提交作品,禁止有注册小号提交作品的行为,如有注册小号提交代码将在代码查重阶段判为作弊
-
约束条件里明确表示变量PktSize_{ij}的取值范围64Byte~9600Byte,那么Example中的16000是否存在错误,16000是否是以Byte为单位?我也想借此确认一下自己是否理解对了题目
-
【直播回放】直播回放地址【活动总结】 华为开发者布道师技术沙龙·直播间精彩回顾 【第1期】联接高校人才培养与前沿产业技术,成就学生未来 / 李一浩老师【第2期】逐梦之旅:学生开发者到华为开发者布道师的蜕变 / 杨阳同学【第3期】昇思MindSpore:AI 领域的创新力量与跨平台之路 / 陈新杰同学【第4期】基于OpenHarmony计算机学科人才培养经验分享 / 周睿老师【第5期】计算机核心课程贯通式实践教学体系介绍 / 赵欢老师、李博经理、杨科华老师【第6期】OpenHarmony应用开发之网络数据请求与数据解析 / 倪红军老师【第7期】华为开发者空间玩转DeepSeek / 马欣老师 官网直播间观众问题回答摘要:序号问题答复12457+如果要在多台云主机上部署 Ollama,实现集群化运行,需要进行哪些额外的配置和操作?首先是集群编排方面,需要创建专用命名空间(如ollama),通过Deployment配置多副本Pod,确保服务高可用。其次,存储方面,使用NFS、GlusterFS或云平台提供的分布式存储(如AWS EBS)挂载到所有节点,统一存储模型文件。网络安全需考虑启用HTTPS加密及HTTP基本认证;开放云主机防火墙端口(如11434、8080)并配置反向代理。26251+在华为开发者空间中利用 DeepSeek 打造编程知识库时,如何引入开源社区的资源和知识,丰富知识库内容?在利用DeepSeek构建编程知识库时,可通过以下方式整合开源资源:一是可以提取开源项目中的示例代码、API文档及开发者注释,结合社区维护的Wiki和FAQ形成结果;二是可以结合MaxKB等开源知识库系统,利用其RAG技术将Stack Overflow、GitHub Trending等开源平台的问答数据与DeepSeek的推理能力融合,实现动态知识更新。三是进行分层知识管理:基于DeepSeek的开源策略,将基础编程语法、算法等通用知识开放共享,同时通过社区反馈迭代领域专属内容(如框架源码解析37336+在部署DeepSeek模型时,如果遇到性能瓶颈问题,可以怎么优化?在部署DeepSeek模型遇到性能瓶颈时,可通过以下策略优化:1. 模型架构优化:采用MoE架构动态激活专家网络,结合FP8混合精度量化减少显存占用;利用结构化稀疏和动态路由降低计算冗余2. 系统层并行设计:实施CPU与GPU进程分离,通过ZStack AIOS平台实现多机多卡并行,避免Python GIL锁竞争并提升吞吐量(单卡推理时吞吐提升达2.7倍)3. 显存与计算优化:使用Paged Attention管理显存碎片,结合Radix Attention缓存重复计算数据,减少KV-Cache读取开销4. 解码加速技术:启用推测性解码(Speculative Decoding),用小模型预生成候选结果再由DeepSeek验证,可提升解码效率1.8倍。5. 硬件协同:部署多卡分布式推理(如昇腾NPU集群),通过自适应运算精度切换平衡算力与带宽限制40420 + 针对企业在使用DeepSeek,华为云提供了哪些服务?为云为部署DeepSeek模型的企业提供五大核心服务:1. 高性能推理加速:基于昇腾云服务与自研引擎,实现DeepSeek R1/V3模型推理性能对标高端GPU(如H100),单卡吞吐提升2.7倍,支持政务、金融等高并发场景2. 一站式开发平台(ModelArtsStudio):提供数据预处理、训练到部署的全流程支持,支持本地化部署及模型蒸馏优化,帮助今日人才等企业快速构建70个“AI数智员工”3. 开发者生态:昇腾社区提供DeepSeek系列模型一键获取及免费Token测试,原生鸿蒙系统的小艺助手App已集成DeepSeek-R14. 行业定制方案:针对政务、能源等领域深度优化,如深圳福田政务系统已实现240个场景智能化应用5. 本地部署混合云:华为云除了支持盘古大模型外,也内生集成了多个业界主流的基础模型,实现开箱即用。凭借其强大的基础设施、灵活的部署方式、一站式的开发工具和完善的安全体系,帮助企业快速本地化部署DeepSeek专属大模型。50420 + 在 DeepSeek 和华为云的合作中,面临的最大技术挑战是什么?华为云是如何解决的?在DeepSeek与华为云的合作中,主要面临以下技术挑战及解决方案:昇腾芯片适配难题:昇腾芯片原生不支持CUDA代码,需重构底层算子。华为通过HCCL通信库和CANN架构优化模型计算流程,结合MLA多头潜在注意力架构降低KV缓存开销,使推理性能提升30%。算力效率与成本平衡:国产芯片训练效率低于CUDA生态。采用FP8混合精度量化和Paged Attention显存管理,将DeepSeek-R1推理成本压缩至OpenAI的3%,并通过动态路由优化降低计算冗余。开源生态商业化闭环:开源模式缺乏商业工具链。华为推出ModelEngine开发平台,集成模型蒸馏与微调工具,支持企业快速部署行业定制方案(如华运智远矿山AI健康管家系统12小时完成部署)。多模态能力短板:图像/视频生成弱于闭源竞品。基于昇腾Janus Pro架构和华为云数据湖技术,实现跨模态特征融合,工业质检场景准确率达98%。66251+编程知识库中的知识存在争议或错误时,如何建立有效的反馈和修正机制?在大模型知识库中建立有效的反馈和修正机制,首先需要提供便捷的反馈渠道,例如页面按钮、表单或API接口,方便用户提交争议或错误信息。设立专业审核团队或利用社区专家对反馈进行验证,确保修正的准确性,同时使用版本管理系统记录每次修改,便于追溯和回滚,确保知识库的稳定性。公开反馈处理进度和结果,及时通知用户修正情况,增强信任感,并通过积分、荣誉或物质奖励,鼓励用户积极参与反馈和修正。通过这些措施,确保知识库的准确性、可靠性和持续改进,从而提升整体质量和用户满意度。70420 + 华为云结合DeepSeek后,将会有哪些新的应用?有哪些新的应用场景?华为云结合 DeepSeek 后,将催生多种新应用和场景。在 “ 智能客服 “ 领域,可提供更精准的语义理解和对话交互,提升用户体验。在 “金融风控 “中,通过深度学习和数据分析,实现更高效的风险预测和欺诈检测。在 “医疗健康 “ 方面,结合 DeepSeek 的 NLP 能力,可加速病历分析、辅助诊断和个性化治疗推荐。在 “智能制造 “ 中,优化生产流程,实现设备故障预测和智能维护。此外,还能应用于 “教育 “领域的个性化学习推荐,以及 “零售 “ 行业的智能推荐系统和库存管理优化,推动各行业智能化升级。82457+云主机资源有限时,如何优化 Ollama 的配置减少资源占用,同时保证基本功能正常运行?在云主机资源有限时,优化Ollama配置可通过以下核心策略:1. 量化与显存优化,使用INT4/INT8量化技术,将模型显存占用压缩至原体积的1/4,,2. 环境变量调优,通过OLLAMA_NUM_PARALLEL=2(按GPU数量×1.5比例调整)控制并发量,3. 存储与网络优化,通过OLLAMA_HOST=0.0.0.0:11434实现多设备负载均衡,配合代理提升内网访问效率。4. 计算资源调度,启用混合精度计算,CPU模式下设置OLLAMA_NUM_THREAD=8匹配核心数,分块处理长文本并缓存历史结果减少重复推理。96188+如何利用华为云Mass的高可用性或扩展性来增强Dify应用?利用华为云 Mass 的高可用性和扩展性,可以显著增强 Dify 应用的稳定性和性能。华为云Mass 业界SOTA大模型覆盖度99%,预置最优超参配置,基于昇腾算子、显存优化,大模型训练与推理性能大幅提升;并围绕大模型性能与精度评价体系构建标准化自动流水线。此外,提供模型调优、压缩、部署、评测等全栈工具,功能覆盖大模型全生命周期,支持用户即开即用,低门槛使用各类大模型,确保数据的高可靠性和一致性,从而为 Dify 提供稳定、高效的基础设施支持。100420 + 在华为云平台上部署DeepSeek时,有哪些关键的技术挑战需要克服?华为云提供了哪些解决方案来应对这些挑战?以DeepSeek为典型的大模型,带动了算力需求的持续增长,算力结构已从“预训练为主”走向“预训练+后训练/二次训练”。部署大模型的挑战在于,一方面,国内大模型的你追我赶,带来模型选择的不确定性;另一方面,应用场景的快速变化,对于企业的能力构建和调整也增加了很多困难。华为云可提供澎湃可靠算力,支持DeepSeek、Llama、Qwen等主流大模型,加速企业智慧转型。华为云同时直接提供Moldearts Lite的昇腾云服务器模式,并且提供了专业服务,协助企业快速用上用好DeepSeek。针对大模型行业方案的安全能力构建,华为云针对大模型的训练数据准备阶段、模型训练和调优阶段、模型部署和推理阶段分别提供安全云服务和方案,保障云上大模型的安全。110420 +对于DeepSeek目前有哪些模型,分别适用于哪些行业?DeepSeek推出的通用大语言模型包括DeepSeek-V3\ DeepSeek-R1主要用于文本生成、文本理解、对话交互等任务。多模态模型包括DeepSeek-VL,能够处理文本、图像等不同模态的数据,实现跨模态的理解与生成。此外,DeepSeek还推出了DeepSeek-R1-Zero和DeepSeek-R1-Distill等模型。其中,DeepSeek-R1-Zero是一个通过大规模强化学习(RL)训练的模型,展现出了卓越的推理能力。而DeepSeek-R1-Distill模型则是基于知识蒸馏法,将大型模型的推理模式蒸馏到小型模型中,使其推理能力得到优化。不同的行业可根据具体的需求 选择不同的模型。126188+如何通过Dify+DeepSeek调用华为云语音识别(ASR)和语音合成(TTS)服务,构建一个语音交互应用?首先需要注册并登录华为云,开通ASR和TTS服务,其次安装并配置好Dify平台和DeekSeek。编写代码将语音文件发送到华为云ASR API,获取识别结果。将ASR识别结果作为输入,传递给Dify应用进行处理。将Dify应用的输出文本传递给TTS API,生成语音反馈。这是构建语音应用的基本步骤,可以对应用进行不断的优化和持续更新136188+如果用Dify+DeepSeek处理用户敏感信息时,如何实现端到端加密?主要需要这么几步:首先是,客户端生成密钥*存储于本地(如浏览器安全存储),服务端不接触密钥;然后语音/文本在客户端加密为密文(含 nonce 和认证标签),仅传输密文至服务端; 接着Dify/DeepSeek 直接传递或调用第三方服务(如华为云 ASR/TTS)处理密文,全程不解密; 之后,客户端解密结果,服务端返回的加密响应由客户端解密后展示;其他还要注意的有,全程 HTTPS 传输,结合代理服务隔离敏感操作,密钥通过用户密码或硬件安全模块管理,日志脱敏,并满足 GDPR 等合规要求,确保数据仅在终端明文暴露。146188+对于异步的任务,dify应该如何处理?有其他华为云服务可以嵌入吗?Dify 使用 Celery 来处理分布式任务和异步任务,尤其是在高并发场景下,需要高效地调度和执行任务。Dify 在启动应用时加载 Celery 配置,并确保在高并发的任务处理中使用 Gevent 作为并发模型,优化任务执行性能。Celery 作为分布式任务队列框架,能够高效调度任务,确保任务的并发执行,同时避免阻塞主线程。同时,Dify 使用多个队列来分类任务,这使得不同类型的任务可以被分别调度并执行,从而提升系统的可扩展性和灵活性。最后,通过 Gevent 作为 Celery 的并发模型,Dify 实现了高效的任务执行,尤其在处理大量 I/O 密集型任务时,能够显著提升性能和降低资源消耗。 可嵌入的服务有CCE和华为云API网关。通过华为云容器引擎(CCE)实现Dify的微服务化改造,提升任务调度的灵活性与资源利用率。还可以使用异步通信优化,通过华为云API网关统一管理Dify的外部接口,结合消息队列服务(DMS)实现任务请求的异步化处理,缓解高并发压力156188+若Dify需持久化数据到华为云关系型数据库(RDS),应该如何做呢?为将Dify数据持久化至华为云RDS,需依次完成以下步骤:创建RDS实例(选型匹配、网络配置于同一VPC,设置主备高可用);安全加固(IP白名单、最小权限账号、SSL加密);代码适配(通过环境变量注入连接参数,优化数据库连接池,验证字符集及数据模型兼容性);部署高可用方案(自动备份+跨区域容灾,读写分离与代理负载均衡);集成监控工具(跟踪性能指标、优化慢查询);实施灰度发布与回滚机制确保平稳迁移。结合弹性扩缩容与成本优化策略,实现安全、高性能、高可用的数据持久化架构。160420 +对于小微企业来说使用DeepSeek能带来哪些帮助和利益产出,更多的使用还是基于各种应用场景带来的便利?DeepSeek对小微企业的核心价值在于场景适配性——其功能设计贴合企业日常痛点(如人力不足、资金有限、合规复杂),通过自动化、数据智能与低门槛服务,帮助企业在以下方面实现“小投入、高回报”:效率提升:减少重复劳动,聚焦核心业务;风险控制:规避经营盲区,保障合规安全;创新加速:低成本获取技术能力,增强市场竞争力。实际应用中,小微企业可根据需求选择功能模块(如财务、客服、政策分析),逐步实现数字化转型176251+如何对模型供应商提供的模型进行版本管理?有两个基本方法,唯一标识符绑定和元数据管理。使用供应商提供的模型名称+版本号(如 OpenAI 的 gpt-4-0613)作为唯一标识符,直接锁定具体版本,避免自动更新导致的不兼容问题。元数据管理指的是参考数据模型管理中的编码规则,通过码段(如日期码、流水码)和字段属性配置,为模型版本附加元数据,便于分类与检索。180420 +开发者如何在华为云上快速搭建基于DeepSeek的开发环境,有哪些推荐的工具和流程?具体步骤如下:首先,登录华为云,搜索ModelArts Studio服务;其次,进入ModelArts Studio控制台首页,签署免责声明及服务授权,添加授权页面中,选择新增委托-普通用户-全选服务列表,点击创建;最后,进入ModelArts Studio控制台首页,选择模型部署-预置服务,领取免费token,并完成体验操作,可立即开启模型对话体验。同时,在MaaS平台,用户通过三种方式进行大模型使用:一是通过平台内体验。在模型部署页面选择预置服务中任意模型,并领域免费额度后点击体验;二是接口调用。在模型部署界面,选择预置服务,并找到调用选项,获取调用示例代码;三是MaaS DeepSeek模型-部署为独占实例。进入模型广场选择对应的模型,选择资源池进行部署。192457+在华为开发者空间中添加新模型,需要经过哪些技术流程和验证步骤?华为开发者空间如果本地部署,可以使用Ollama和Dify这样的大模型工具,用于添加新模型,先通过Ollama部署本地模型,再通过Didy大模型开发平台调用本地模型,并开放接口。随后可以在CodeArts中通过Continue插件集成新模型。验证步骤可以通过命令行中运行ollama命令、Dify接口验证 以及CodeArts中验证。200288+请问老师是所有的项目都需要建立知识图谱么,或者说什么时候外挂知识库,什么时候要用到知识图谱,比如在法律咨询智能体这种,需要外挂知识库还是知识图谱。在大模型项目中,是否使用知识图谱或外挂知识库需根据场景需求判断: 外挂知识库适用场景是,当任务侧重快速检索或事实性问答 (如法律条文查询、简单政策解答)时,直接外挂结构化知识库即可。知识库以文档或数据库形式存储,成本低且维护简单,适合需要高频调用但无需复杂推理的场景。若涉及复杂推理、多实体关联或跨领域知识融合 (如法律案例的相似性分析、合同纠纷中的风险链路推演),知识图谱通过实体-关系的语义网络能提供深度支持。例如法律咨询智能体中,知识图谱可将法条、判例、司法解释关联,辅助生成逻辑严谨的解决方案。此外,知识图谱还能提升模型的可解释性,减少“幻觉”风险。法律领域对准确性和严谨性要求极高,需结合两者:知识库存储基础法条(如《合同法》条款),而知识图谱用于案例关联、风险预测和动态法律逻辑推演216251+如何实时监测模型供应商模型的运行状态和性能指标? 如果模型部署在自己的服务器上,可以使用监控工具(如Prometheus、Grafana),收集和可视化模型的关键性能指标(KPI),如响应时间和准确度。其次,建立可靠的日志系统,详细记录模型的输入、输出及异常信息,方便后期分析。此外,设置条件监测和告警机制,对模型性能变化进行实时检测,并在偏离预设阈值时发送通知。定期评审模型表现也是重要一环,通过将实际结果与预期结果进行对比,识别潜在问题。最后,建立用户反馈机制,鼓励用户报告模型运行中的不良体验,以便快速响应并优化调整。通过这些措施,企业能确保模型始终高效运行,及时解决潜在问题。222457+仓颉程序中的内存管理机制是怎样的,如何避免内存泄漏和溢出?仓颉,作为一款现代编程语言,将安全性置于核心地位。它采用先进的静态类型系统,确保在编译阶段即能捕获类型不匹配的错误,从而显著减少运行时类型错误的风险。同时,仓颉还通过自动内存管理机制,如垃圾回收,来避免内存泄漏和悬挂指针等问题,保证内存安全,并内置了对 null 安全的支持。除了编译时的类型检查,仓颉还提供了丰富的运行时检查功能,如数组越界检查、类型转换验证、数值溢出检测和字符串编码合规性检查等,这些都能确保程序在运行时能够及时发现并报告错误,从而防止程序崩溃或产生不正确的结果。232457+若用户线程 t 在进行 I/O 操作时资源不可用,系统如何处理该线程的状态变化?当用户线程 t 在进行 I/O 操作但资源不可用时,操作系统将该线程的状态更改为“阻塞”。在阻塞状态下,线程暂停执行并释放所占用的 CPU 资源,允许其他线程继续处理任务,这样提高了系统的整体效率。线程 t 的阻塞将持续,直到 I/O 操作完成或资源变得可用。一旦所需资源可用,系统会通过事件通知机制(如信号量或条件变量)唤醒线程 t,使其重新进入就绪状态。然后,操作系统的调度程序决定线程执行的顺序,确保公平性和效率。这种处理方式有效避免了因资源不可用而导致的 CPU 空转,提高了多线程应用的响应速度。244392 +对于希望使用DeepSeek进行AI驱动的应用开发的企业来说,他们应该从哪里开始?华为云提供了哪些资源和支持?想要使用 DeepSeek 进行 AI 驱动的应用开发的企业,可以从了解 DeepSeek 的基本功能和应用场景开始。企业应该研究华为云提供的 API 文档和使用案例,掌握如何有效利用该平台。参加华为云的专业培训课程和技术研讨会,可以帮助团队迅速提升相关技能。另外,建议企业选择一个小型的试点项目进行试验,逐步积累经验以便于扩展应用至更复杂的情境。此外,华为云的支持社区也非常重要,企业可以在这个社区中找到所需的技术支持,获取最佳实践指南。借助这些资源,企业能更顺利地进行 AI 开发。254392 +请问对于,DeepSeek的模型部署后,我还想自己喂一些资料,加深对于某个行业的深度理解,对于这方面,有什么好的建议? 有这么几点建议供参考。一是做好数据适配与预处理:收集行业相关数据(如内部文档、客户记录等),清洗去除冗余信息并按模型要求格式化。例如,将非结构化文本转为带标注的标准化数据集; 二是针对性微调模型:在已部署的模型基础上,使用行业数据进行微调。调整学习率、迭代次数等参数,重点关注业务核心指标(如准确率、召回率),可结合工具如MindSpore、昇腾硬件进行加速训练。若技术能力有限,建议寻求专业团队支持。三是进行场景化验证与迭代:将微调后的模型嵌入具体业务场景(如客户服务、行业知识库),通过A/B测试评估效果,并持续补充新数据优化模型。参考DeepSeek在医疗、制造业的案例经验,建立反馈闭环机制
-
引言关于华为云编辑器,准确的来说,除了吐槽外,还是右很多建议的平时用markdown格式较多,建议主要针对markdown格式提意见1.markdown格式编辑建议1.1草稿箱位置优化比如草稿箱只能保存10份文件,当保存第11封内容时,会议室草稿箱慢,但是我在页面都很难发现草稿箱的入口1.2.外链图片转存上传优化目前编辑器不支持外链图片直接转存,只能一张一张上传,非常麻烦。建议增加外链直接转存功能1.3 增加markdown语法高亮格式目前编辑器仅有基本的markdown语法格式,建议增加高亮,emoji表情markdown格式1.4 增加文件导入导出导出功能在华为云markdown编辑器上编辑好markdown格式文件后,建议增加导入导出功能
-
引言随着人工智能技术的不断发展,越来越多的企业和个人开始探索如何利用深度学习模型来提升业务效率和用户体验。下面我就详细的就“基于华为云ModelArts Studio调用DeepSeek-R1-32K模型”一.基于华为云ModelArts Studio调用DeepSeek-R1-32K模型:1.方案概览:本方案以 DeepSeek-R1-32K为例进行演示,通过华为云ModelArts Studio服务进行 DeepSeek 开源模型调用,可以根据实际需求选择其他参数规模的 DeepSeek 模型。华为云ModelArts Studio平台的 API 提供标准化接口,无需自行搭建模型服务基础设施,且具备负载均衡和自动扩缩容机制,保障 API 调用稳定性。搭配 Chatbox 可视化界面客户端,进一步简化了调用流程,无需在命令行中操作,通过图形化界面即可轻松配置和使用 DeepSeek 模型。2.方案架构:按照本方案提供的配置完成后,会在本地搭建一个如下图所示的运行环境。3.获取API-KEY:在部署本方案开始时,首先要登录华为云ModelArts Studio服务平台获取API-KEY(这里获取方法我就不赘述了,看下面截图):4.下载并使用使用Chatbox:Chatbox 客户端配置华为云ModelArts Studio平台的 API 进行对话:4.1.访问 Chatbox: (下载地址:https://chatboxai.app/zh) 下载并安装客户端,本方案以 windows 为例。4.2.下载: 点击下载按钮,选择下载目录后进行下载:4.3.安装Chatbox: 双击“Chatbox-1.9.8-Setup.exe”进行安装,注意安装路径。4.4.运行Chatbox: 安装好后直接运行Chatbox,这里我们选择**“使用自己的APl Key 或本地模型”。**4.5.进行参数配置:参数内容的来源就在华为云ModelArts Studio平台的【模型工具】模块内,这里提供了 2,000,000tokens免费额度,可以参考我下面的截图内容:4.6.测试: 完成配置后,我们就可以在输入框进行测试了,如下图:我们可看到,在Chatbox内就成功的调用了DeepSeek-R1-32K,回复的内容内也有思考的部分。4.7.拓展配置:4.7.1 我们回到Chatbox的设置配置,可以在配置内修改(增加)【模型名称】,即可调动模型的其他版本,在使用Chatbox时候仅需切换类型即可(调用的API相同,仅需增加模型名称即可),如下所示:4.7.2 我们切换回Chatbox到聊天窗口,在右下角即可进行切换模型:至此,我们整个个实验就都已经完成了操作和体验。二. 推荐理由推荐方式:基于华为云ModelArts Studio调用DeepSeek-R1-32K模型推荐理由:简单快捷:无需复杂的配置和环境搭建,几分钟内即可完成集成。高可用性:华为云提供的 API 服务具有高可靠性和低延迟,确保模型响应速度。灵活扩展:可以根据实际需求动态调整 API 请求量,适应不同规模的应用场景。个人体验:在实际项目中,我选择基于华为云ModelArts Studio调用DeepSeek-R1-32K模型的方式进行集成。这种方式不仅大大缩短了开发周期,还显著提升了系统的稳定性和性能。尤其是在处理大量并发请求时,API 服务的表现令人满意。当然,我会选择继续采用基于华为云ModelArts Studio调用DeepSeek-R1-32K模型的方式来使用 DeepSeek 模型,因为它在满足需求的同时,最大限度地降低了开发和维护成本。然而,对于一些特定的高性能需求场景,我也会考虑基于 GPU 云服务器的部署方式。我正在参加【案例共创】第2期 构建开发场景最佳实践/体验评测,创作案例文章https://bbs.huaweicloud.com/forum/thread-0225174879180881007-1-1.html”
-
约束条件五指明:在实际的调度算法决策过程中,无法预测未来报文的到达顺序,只能使用已到达报文的信息,即对于当前报文不知道之后是否还会有报文到达。约束条件二:对于每个切片第一个报文到达时间为ts,最后一个报文离开时间te,即暗示已知当前报文是否为最后一个报文。也就是说我们虽然无法预测未来,但可以确定当前报文是否为最后一个?
-
原题:在实际的调度算法决策过程中,无法预测未来报文的到达顺序。为了保证算法的效果,每次调度决策只能使用已到达报文的信息。我的理解是在算法设计上,每个时间节点te选择调度对象上,是只能使用ts <= te的已到达报文进行计算,不能使用ts > te的未到达报文的信息去计算,对么?如果这样的话,在每个时间节点te调度算法决策上,已到达报文的单位是切片级别的还是报文级别的?即切片级别的话,如果每个切片的第一个报文ts0<=te即认为该切片所有报文信息都获取可用来调度算法决策了,还是报文级别的每个报文信息分别的ts<=te时才认为获取了?感觉按照原文档的逻辑应该是报文级别的,但是这样的话怎么能每个切片在第一个报文即获取报文数目mn,切片带宽SliceBWn, 切片最大容忍时延UBDn信息呢?此外,在提交程序打分时,平台会自动检测这条约束么?
-
建议反馈活动2025年第4期来啦~错过3月活动时间的同学可不要错过4月活动哦,3-4月期间累计最高可兑换华为WATCH FIT手表,还有华为 FreeLace Pro 无线耳机,有一丝丝心动吗?快抓紧时间,来云声提优化建议吧~【活动时间】4月1日-4月30日 【参与方式】在云声平台提交对华为云产品的优化建议 【奖项设置】3~4月可选择累积兑换,兑换福利如下:礼包总金额不少于1000,可选择兑换华为WATCH FIT3 手表礼包总金额不少于600,可优先选择兑换华为 FreeLace Pro 无线耳机礼包总金额不少于400,可优先选择兑换华为12000mh移动电源其中提交华为开发者空间相关建议,额外获得惊喜好礼PS:请谨慎客观提交云产品体验类建议,若发现有恶意刷量水帖嫌疑,此建议不纳入活动评选,严重者直接取消活动参与资格 【活动规则】1.有效建议积分云声关联产品/功能分为云产品建议、解决方案建议、平台建议,三种类型的建议对应的分值不相同,云产品建议(1分)、解决方案建议(0.5分)、平台建议(0.2分),按照当月有效建议类型对应不同分值以及邀请加分项来进行计算总排名,关联产品/功能可在云声提建议页面查看,示例如下;说明:云声关联产品/功能分别对应以上3种类型,取决于建议内容实际对应的产品/解决方案/功能,选择关联的标签仅供初审作为参考。2.高价值优质建议奖1)经内部产品研发团队评估为高价值优质建议奖的用户,额外奖励100-200元开发者盲盒礼包/人说明:高价值优质建议要求建议对云产品功能及优化改进有重要作用,优先从已被采纳的建议的选择;建议内容需要表述清晰,有明确的建议方案,最好有操作截图或链接等能进一步详细描述;高价值建议数量不限,且与有效建议积分奖可叠加,每位用户每月最多可获得一次。3.注意事项1)若出现积分相同且排名一致的情况,结合已实现和已采纳建议情况,会由内部技术专家选出价值更高的建议用户给予奖励。2)同一用户在同一页面(文档)提出的同一类体验问题(包括但不限于错别字、语句不通顺、视觉体验等),在通过审核后仅算作一条有效建议数3)若发现代他人提交优化建议,此建议分值只取原分值30%;若发现2次及以上重复提交他人建议,或2次及以上重复提交体验类相关建议进行恶意刷量(包括但不限于错别字、语句不通顺、视觉体验等),有争议建议部分不参与活动评选,情况严重者取消活动参与资格;4)以上激励价值为实物礼品价值,兑换礼品以仓库现有实物礼品为准,不可以指定,如遇商品缺货,将随机换成其他等价值礼品发放5)活动结束后,7-10个工作日内会公示获奖结果,30个工作日内完成礼品邮寄
-
各位亲爱的版主们,大家好!经过大家一个月的努力角逐,2月外部版主激励评比结果已出炉,数据公示如下,请查看!(在新标签页打开图片可查看清晰大图/见附件)·外部版主激励规则:点击了解更多转正礼/基础任务/额外任务(在线时长15小时+,主题帖15+,回帖30+,技术长文5+/原创技术干货1+,合集1+,有效回复问题求助帖10+,话题互动1+,完成这4项指标可获对应价值的代金券/实物礼品)请完成任务获得激励的版主,点击填写激励发放意愿统计问卷反馈截止时间:2025年3月11日,以便小编进行相应的激励发放。注:在线时长数据达标后,才会再去考察达标版主的三项任务完成情况;主题数+回帖数达标后,才会再去考察达标版主的技术长文数量情况。
-
建议反馈活动2025年第3期来啦~本月有累计兑换活动,3-4月累计最高可兑换华为WATCH FIT手表更有华为FreeLace Pro 无线耳机,小伙伴们心动了吗?快来云声提优化建议吧~【活动时间】3月1日-3月31日 【参与方式】在云声平台提交对华为云产品的优化建议 【奖项设置】3~4月可选择累积兑换,兑换福利如下:礼包总金额不少于1000,可选择兑换华为WATCH FIT3 手表礼包总金额不少于600,可优先选择兑换华为 FreeLace Pro 无线耳机礼包总金额不少于400,可优先选择兑换华为12000mh移动电源其中提交华为开发者空间相关建议,额外获得惊喜好礼PS:请谨慎客观提交云产品体验类建议,若发现有恶意刷量水帖嫌疑,此建议不纳入活动评选,严重者直接取消活动参与资格 【活动规则】1.有效建议积分云声关联产品/功能分为云产品建议、解决方案建议、平台建议,三种类型的建议对应的分值不相同,云产品建议(1分)、解决方案建议(0.5分)、平台建议(0.2分),按照当月有效建议类型对应不同分值以及邀请加分项来进行计算总排名,关联产品/功能可在云声提建议页面查看,示例如下;说明:云声关联产品/功能分别对应以上3种类型,取决于建议内容实际对应的产品/解决方案/功能,选择关联的标签仅供初审作为参考。2.高价值优质建议奖1)经内部产品研发团队评估为高价值优质建议奖的用户,额外奖励100-200元开发者盲盒礼包/人说明:高价值优质建议要求建议对云产品功能及优化改进有重要作用,优先从已被采纳的建议的选择;建议内容需要表述清晰,有明确的建议方案,最好有操作截图或链接等能进一步详细描述;高价值建议数量不限,且与有效建议积分奖可叠加,每位用户每月最多可获得一次。3.注意事项1)若出现积分相同且排名一致的情况,结合已实现和已采纳建议情况,会由内部技术专家选出价值更高的建议用户给予奖励。2)同一用户在同一页面(文档)提出的同一类体验问题(包括但不限于错别字、语句不通顺、视觉体验等),在通过审核后仅算作一条有效建议数3)若发现代他人提交优化建议,此建议分值只取原分值30%;若发现2次及以上重复提交他人建议,或2次及以上重复提交体验类相关建议进行恶意刷量(包括但不限于错别字、语句不通顺、视觉体验等),有争议建议部分不参与活动评选,情况严重者取消活动参与资格;4)以上激励价值为实物礼品价值,兑换礼品以仓库现有实物礼品为准,不可以指定,如遇商品缺货,将随机换成其他等价值礼品发放5)活动结束后,7-10个工作日内会公示获奖结果,30个工作日内完成礼品邮寄
上滑加载中