• [案例共创] 【案例共创】小白也能看懂的DeepSeek-R1本地部署与华为云集成指南
    小白也能看懂的DeepSeek-R1本地部署与华为云集成指南春节期间Deepseek凭借其出色的性能表现,吸引了众多技术爱好者的目光,会用的人说巨好用,但是也有很多人说也不过如此,其实这么多国际巨头都震惊,自然是非常惊艳的一款产品。如果你也渴望在本地部署该模型,深入探索其强大功能,那么这篇攻略将为你提供详细的指导。这里面我将给大家演示的是windows和mac双平台的部署。废话不多说,现在开始和大家一起了解DeepSeek并完成部署。一、DeepSeek技术全景解析DeepSeek是一家专注通用人工智能(AGI)的中国科技公司,主攻大模型研发与应用。DeepSeek-R1是其开源的推理模型,擅长处理复杂任务且可免费商用。核心定位中国首个开源MoE架构千亿参数大模型(671B)多模态理解能力:文本/图像/音视频混合数据处理技术突破混合专家架构(MoE):动态激活专家模块提升效率多头潜在注意力(MLA):多维度特征捕捉万亿token训练数据:医疗/编程/法律等专业领域优势AI+国产+免费+开源+强大二、DeepSeek应用场景全景企业级应用智能客服:多轮对话与情感分析(日均处理百万级咨询)代码开发:项目级代码补全与调试(支持30+编程语言)垂直领域医疗辅助:症状识别准确率提升40%1教育创新:个性化学习方案生成(覆盖K12到职业教育),教育:学科解题/语言陪练(展示数学题分步解析)生活服务智能行程规划:多条件约束优化(天气/预算/偏好)内容创作:爆款文案生成(支持多平台风格适配),生成元宵节灯谜示例科研:论文润色/数据可视化(展示4数据分析案例)开发:代码生成/自动化测试(演示简单脚本编写)三、华为云深度集成优势昇腾算力加持昇腾(Ascend)是华为自主研发的一系列高性能AI处理器,广泛应用于加速人工智能计算,包括训练和推理算力与性能:升腾910作为旗舰级AI处理器,基于达芬奇架构,采用先进的7nm工艺制造,特别适合大规模AI训练,在INT8精度下表现出色。达芬奇架构指令集:具有高度灵活性,支持高效运算密集型CISC指令,专门用于神经网络,有助于新模型的研发和快速部署。部署革命ModelEngine平台:一键部署DeepSeek全系模型对偶流水线机制:GPU利用率提升至92%生态优势与ZStack/腾讯云/阿里云对比:唯一支持国产芯片私有化部署四、基础环境搭建(一)安装 Ollama常规下载首先,访问Ollama 官网 ,根据你的操作系统(Windows、Mac 或 Linux),选择对应的安装包进行下载。我这里以mac和windows为例,如果大家安装不了,也可以在我的公众号nutpi回复“Ollama”获取快速下载链接。安装验证安装完成后,为了确认 Ollama 是否成功安装,在终端输入ollama -v 。如果安装正确,终端会显示 Ollama 的版本号,这就表明你已经成功完成了基础环境搭建的第一步。关于如何打开终端,我想说的是mac的话,找到这个工具,windows的话,win+r输入cmd。然后检查ollama -v下载完成后,按照安装向导的提示逐步完成安装。在安装过程中,Ollama 服务会自动在电脑后台运行。五、模型部署(一)依据硬件精准选型打开Ollama 模型库 ,你会看到丰富多样的 DeepSeek-R1 模型版本,如 1.5B、7B、32B 等。根据自身电脑硬件配置来选择合适的模型版本至关重要。以下是本地部署 DeepSeek 系列模型(1.5B、7B、8B、14B、32B)在 Windows、macOS、Linux 三个平台的最低和推荐硬件配置指南。配置需求主要基于模型的显存(GPU)、内存(RAM)和计算资源需求,同时考虑不同平台的优化差异。通用配置原则模型显存占用(估算):每1B参数约需 1.5-2GB显存(FP16精度)或 0.75-1GB显存(INT8/4-bit量化)。例如:32B模型在FP16下需约 48-64GB显存,量化后可能降至 24-32GB。内存需求:至少为模型大小的2倍(用于加载和计算缓冲)。存储:建议NVMe SSD,模型文件大小从1.5B(约3GB)到32B(约64GB)不等。分平台配置建议以下按模型规模和平台分类,提供 最低配置 和 推荐配置。1.5B 模型平台最低配置推荐配置Windows- CPU: Intel i5 / Ryzen 5- CPU: Intel i7 / Ryzen 7- RAM: 8GB- RAM: 16GB- GPU: NVIDIA GTX 1650 (4GB)- GPU: RTX 3060 (12GB)macOS- M1/M2 芯片(8GB 统一内存)- M1 Pro/Max 或 M3 芯片(16GB+)Linux- CPU: 4核- CPU: 8核- RAM: 8GB- RAM: 16GB- GPU: NVIDIA T4 (16GB)- GPU: RTX 3090 (24GB)7B/8B 模型平台最低配置推荐配置Windows- CPU: Intel i7 / Ryzen 7- CPU: Intel i9 / Ryzen 9- RAM: 16GB- RAM: 32GB- GPU: RTX 3060 (12GB)- GPU: RTX 4090 (24GB)macOS- M2 Pro/Max(32GB 统一内存)- M3 Max(64GB+ 统一内存)Linux- CPU: 8核- CPU: 12核- RAM: 32GB- RAM: 64GB- GPU: RTX 3090 (24GB)- 多卡(如2x RTX 4090)14B 模型平台最低配置推荐配置Windows- GPU: RTX 3090 (24GB)- GPU: RTX 4090 + 量化优化- RAM: 32GB- RAM: 64GBmacOS- M3 Max(64GB+ 统一内存)- 仅限量化版本,性能受限Linux- GPU: 2x RTX 3090(通过NVLink)- 多卡(如2x RTX 4090 48GB)- RAM: 64GB- RAM: 128GB32B 模型平台最低配置推荐配置Windows- 不推荐(显存不足)- 需企业级GPU(如RTX 6000 Ada)macOS- 无法本地部署(硬件限制)- 云API调用Linux- GPU: 4x RTX 4090(48GB显存)- 专业卡(如NVIDIA A100 80GB)- RAM: 128GB- RAM: 256GB + PCIe 4.0 SSD平台差异说明Windows:依赖CUDA和NVIDIA驱动,推荐使用RTX 30/40系列。大模型(14B+)需借助量化或模型分片技术。macOS:仅限Apple Silicon芯片(M1/M2/M3),依赖Metal加速。模型规模超过14B时性能显著下降,建议量化或云端部署。Linux:支持多GPU扩展和高效资源管理(如NVIDIA Docker)。适合部署大型模型(14B+),需专业级硬件。注意事项量化优化:使用4-bit/8-bit量化可大幅降低显存需求(如bitsandbytes)。框架支持:优先选择优化好的库(如vLLM、DeepSpeed、HuggingFace)。散热:长时间推理需确保散热(建议风冷/水冷)。建议根据实际需求选择硬件,并优先在Linux环境下部署大模型。(二)顺利下载与稳定运行确定适合自己电脑配置的模型版本后,就可以开始下载和运行模型了。打开终端或 CMD 命令窗口,输入对应的运行指令:若选择 1.5B 版本,输入ollama run deepseek-r1:1.5b 。若选择 7B 版本,输入ollama run deepseek-r1:7b 。我Mac选择的是这个。若选择 8B 版本,输入ollama run deepseek-r1:8b 。我win选择的是这个。若选择 32B 版本,输入ollama run deepseek-r1:32b 。六、打造专属 AI 聊天室(一)安装配置 “Cherry Studio”下载前往Cherry Studio 官方网站,根据你的操作系统(支持 Windows、Mac 和 Linux)下载对应的安装包安装下载完成后,对于 Windows 系统,双击安装包,按照安装向导提示完成安装,期间可能需要同意用户协议、选择安装路径等常规步骤;对于 Mac 系统,将下载的应用程序文件拖移到 “应用程序” 文件夹;配置打开 Cherry Studio,在设置中找到 “模型设置” 选项。模型选择:从模型列表中选择与你本地部署的 DeepSeek-R1 模型版本对应的选项,如果没有直接匹配项,选择支持自定义模型配置的入口。自定义配置:在自定义配置中,将 API 地址设置为http://localhost:11434 ,这是 Ollama 服务的默认接口地址,确保 Cherry Studio 能连接到本地运行的 DeepSeek-R1 模型。模型参数设置:根据你的硬件配置和使用需求,设置模型的相关参数,如最大生成长度、温度等,一般默认参数即可满足常见需求,但对于特定任务,你可以适当调整,比如生成创意文本时,可将温度调高至 0.8 - 1.0,以增加文本的多样性;进行严谨的知识问答时,可将温度调低至 0.5 - 0.7 ,使回答更稳定。API密钥大家随意设置就好,然后点击检查就好。配置完成后大家记得默认模型也可以配制成deepseek。(二)安装配置Chatbox 客户端Chatbox AI 是一款 AI 客户端应用和智能助手,支持众多先进的 AI 模型和 API,可在 Windows、MacOS、Android、iOS、Linux 和网页版上使用为了更便捷地与部署好的 DeepSeek-R1 模型进行交互,你可以下载开源客户端 Chatbox。访问官网 即可进行下载。Chatbox 支持中文界面与 Markdown 渲染,使用起来非常方便。下载安装好 Chatbox 后,打开软件进行关键配置:API 类型:选择 “OLLAMA”,这一步能确保 Chatbox 与我们部署的 DeepSeek-R1 模型进行正确通信。**接口地址:**填写http://localhost:11434 ,这个地址是 Ollama 服务的默认接口地址,通过它 Chatbox 可以连接到本地运行的 DeepSeek-R1 模型。模型名称:务必填写与之前下载的模型版本完全一致的名称,例如,如果之前下载的是 7B 版本,模型名称就必须填写deepseek-r1:7b ,否则可能会导致连接失败。通过以上步骤,你不仅可以使用 Cherry Studio还能通过Chatbox 与本地部署的 DeepSeek-R1 模型进行交互。希望大家都能顺利部署,开启属于自己的 AI 探索之旅。大家遇到问题也可以在后台私信我。这里面大家还有一个问题,就是如果自己的电脑环境配置不好,那么本地部署就玩不了,没事,这里面硅基流动x 华为云联合推出基于昇腾云的 DeepSeek R1&V3 推理服务!也是一个很不错的选择。七、硅基流动配置第一步,登陆账号,然后创建密钥,第二步cherry Studio配置打开设置,选择硅基流动,打开开关,然后上面复制的密钥添加进来,并在管理选择对应的模型。点击检查,看是否OK,第三步配置默认模型为了方便,我们还可以配置默认模型为deepseek-ai/DeepSeek-R1。第四步配置知识库首先在硅基流动配置嵌入模型然后配置知识库的时候,就可以看到硅基流动的嵌入模型啦。配置好以后,就可以添加对应的文件等作为知识库的内容啦。输入信息的时候,选择知识库,就可以啦,比如这里选择坚果派,选择好,以后,就可以对话啦第五步测试效果八、如何使用 DeepSeekrompt 万能框架一给大家一个公式身份:你是谁?(学生/打工牛马/…)任务:要解决什么问题?(写报告/做计划/分析数据…)细节:限制条件是什么?(时间/场景/禁忌…)格式:想要什么形式的结果?(表格/分段/口语化…)套用公式按“身份→任务→细节→格式”顺序重组问题:> “作为(身份),请(任务),要求(细节),用(格式)输出” 。不信你试试。请给出本地部署deepseek的电脑配置,要求包含每一个模型1.5b,7b,8b,14b,32b等,以及windows。mac。linux三个平台的硬件参数Prompt 万能框架二prompt万能框架=立角色+述问题+定目标+补要求。以下是使用Mermaid语法制作的「Prompt万能框架」甘特图,并提供修改说明:2025-05-062025-05-062025-05-072025-05-072025-05-082025-05-082025-05-092025-05-092025-05-102025-05-102025-05-11定义背景角色 明确对话立场 分析问题本质 设定问题边界 制定核心目标 规划成果形式 补充细节要求 设定约束条件 ▶️ 立角色❓ 述问题🎯 定目标📝 补要求Prompt万能框架甘特图在编写 Prompt 时,从0到1地编写出第一版 Prompt 往往是最难的,而基于已有 Prompt 利用各种技巧进行优化则相对简单。如上图所示,我们使用了一套 “万能模版”,把一个 Prompt 拆分成了 “立角色 + 述问题 + 定目标 + 补要求” 这四个部分,利用这个模版可以得到一个“及格”的 Prompt。下面我就具体和大家阐述一下这个模版是如何得到的,为什么他是有效的。Prompt 的作用就是根据我们的问题调用模型的能力,我们要通过提问的方式,明确的让模型知道我们想要什么,我们的目标是什么,从这个基本思想出发,Prompt 应该包含以下几点:问题是什么:首先你要告诉模型你的问题是什么,你的任务是什么,要尽量描述清楚你的需求。你要做什么:下面你需要告诉大模型具体要做什么,比如做一份攻略,写一段代码,对文章进行优化,等等。有什么要求:最后我们往往还需求对任务补充一些要求,比如按特定格式输出,规定长度限制,只输出某些内容,等等。通这 3 部分的描述我们就把 “要大模型做什么” 描述清楚了,这个想法十分自然,即便不是大模型,而是希望其他人为你完成某项任务,往往也需要通过这 3 部分把问题描述清楚。由于这仅仅是第一版 Prompt,你不需要描述的过于详细,也不需要使用技巧,只需要用简练的语言把这几部分描述清晰即可。参考Ollama 官网Ollama 模型库Cherry Studio 官方网站Chatbox官网坚果派硅基流动x 华为云联合推出基于昇腾云的 DeepSeek R1&V3 推理服务DeepSeek 提示词编写技巧典藏版!
  • [案例共创] 【案例共创】轻松搭建知识库:CherryStudio 联手华为云的实践指南
    轻松搭建知识库:CherryStudio 联手华为云的实践指南在当今数字化时代,知识管理对于个人和企业都至关重要。CherryStudio 作为一款全能 AI 助手平台,与华为云强强联手,为用户提供了搭建本地知识库系统的便捷方案。本文将详细介绍如何利用 CherryStudio 和华为云实现知识库的搭建和管理。一、CherryStudio:全能 AI 助手平台CherryStudio 是一款集多模型对话、知识库管理、AI 绘画、翻译等功能于一体的全能 AI 助手平台。其高度自定义的设计、强大的扩展能力和友好的用户体验,使其成为专业用户和 AI 爱好者的理想选择。无论是零基础用户还是开发者,都能在 CherryStudio 中找到适合自己的 AI 功能,提升工作效率和创造力。二、本地知识库系统(一)多种格式支持本地知识库系统支持 PDF、DOCX、PPTX、XLSX、TXT、MD 等多种文件格式导入,满足用户不同的文档管理需求。(二)多种数据源支持系统支持本地文件、网址、站点地图甚至手动输入内容作为知识库源,方便用户从多种渠道获取和整合知识。(三)知识库导出用户可以将处理好的知识库导出并分享给他人使用,实现知识的共享和传播。(四)支持搜索检查知识库导入后,用户可实时检索测试,查看处理结果和分段效果,确保知识库的质量和可用性。三、华为云操作步骤(一)创建账号登录首先,到 华为云 创建账号并登录。(二)进入 Maa S 控制台点击 此链接,进入 Maa S 控制台。(三)授权在控制台中进行授权操作,确保后续操作的顺利进行。(四)模型部署点击侧栏的 “模型部署”,全部领取,以便使用华为云提供的模型资源。(五)创建 API Key点击侧栏的 “鉴权管理”,创建 API Key(秘钥)并复制,用于后续在 CherryStudio 中的配置。(六)在 CherryStudio 中配置在 CherryStudio 里创建新服务商,创建华为云。将服务商地址粘贴到 CherryStudio 的服务商地址当中,并在结尾加上 “#” 号。然后把模型名称复制,到 CherryStudio 当中点 “+ 添加” 按钮新建模型,输入模型名称,不要添油加醋,不要带引号,按照示例中的写法进行操作。点击添加模型按钮即可完成添加。粘贴到CherryStudio的服务商地址当中并在结尾加上“#”号然后把模型名称复制,到CherryStudio当中点“+添加”按钮新建模型,输入模型名称,不要添油加醋,不要带引号,示例当中怎么写就怎么抄。四、总结通过以上步骤,华为云、本地知识库和 CherryStudio 就能够很好地结合在一起。结合鸿蒙知识,整个系统形成了一个闭环,为用户提供了一个高效、便捷的知识管理解决方案。无论是个人用户还是企业用户,都可以利用这一方案提升知识管理的效率和质量,实现知识的快速检索、共享和应用。五、未来展望随着技术的不断发展,CherryStudio 和华为云将继续优化和升级,为用户提供更多功能和更好的体验。我们期待这一解决方案能够在更多领域得到应用,为用户创造更大的价值。六、致谢感谢华为云提供的强大技术支持,以及 CherryStudio 团队的不懈努力。同时,感谢所有开发者的信任和支持。总结:CherryStudio 与华为云的结合,为用户搭建本地知识库系统提供了高效、便捷的解决方案。通过简单的操作步骤,用户可以轻松实现知识库的搭建、管理和应用。这一方案不仅提升了知识管理的效率,还为用户提供了更广阔的应用空间。我们相信,随着技术的不断进步,CherryStudio 和华为云将为用户带来更多惊喜和价值。
  • AI可以把开发中的任意高级语言程序代码转换为不同厂商 的优化中间件代码
    AI可以把开发中的任意高级语言程序代码转换为  不同厂商  的底层优化的硬件汇编。不同的硬件开发商,直接定制训练自己的AI模型,每个硬件厂商拥有一个生成中间件汇编代码的替代类编译器,提供给第三方使用。
  • [互动交流] sparksql 不支持插入指定字段吗
    有一种A表,建表语句如下:drop table if exists a;create table if not exists a(c1 string,c2 string,c3 string,c4 string);插入语句insert_sql:insert into table a(c1,c2,c3)select 'c1','c2','c3';hive里面执行不报错,sparksql执行会报错,报目标表和插入的列数不一致,是sparksql不支持插入指定字段吗?
  • [问题求助] 第十期问题可以用Python/Matlab编程语言吗
    请问,第十期问题可以用Python/Matlab编程语言吗
  • [问题求助] 第十一期【磁带同步问题】判题程序疏漏修复和暂停提交说明
    message.rpmsg在Outlook里无法打开, Outlook里没有打开rpmsg的操作!里面是什么内容?谁能发一下!
  • 如何处理比赛中的多行输入
    已经解决了,虽然这个问题很基础,但也许有朋友和我一样被卡住了这里的逻辑是,对于每一个测试用例,后台会调用这个.py文件进行一次处理,因此,对于输入的处理不能有循环,否则就是死循环,出不来lines = []line = list(map(int, input().split()))if line: lines.append(line)for i in range(lines[0][0]): line = list(map(int, input().split())) lines.append(line)processing(lines)########## 分界线 ##########各位大佬,我是第一次参加,请问应该怎么处理以下这种多行输入?输入输出示例:我用的是python,我是这样处理的,不知道有没有问题while True: lines = [] line = list(map(int, input().split())) if line: lines.append(line) for i in range(lines[0][0]): line = list(map(int, input().split())) lines.append(line)打印lines如:[[5, 2, 9], [4, 1, 2, 6], [7, 2, 3, 1], [4, 3, 3, 4], [7, 1, 1, 8], [4, 2, 2, 7]]这种方式会一直运行while循环,不知道有没有问题,想问问大家都是怎么写这块输入的
  • [问题求助] bearpi nano
    如何在bearpi hm nano中运行舵机sg90,求代码
  • [互动交流] python版 codearts input问题
    def print_hi(name): # Use a breakpoint in the code line below to debug your script. print(f'Hi, {name}') inp = input("Enter your name:") print(f"Hello {inp}")# Press the green button in the gutter to run the script.if __name__ == '__main__': print_hi('CodeArts')运行,输入:chen 报错:Traceback (most recent call last): File "", line 1, in NameError: name 'chen' is not defined。 在pycharm就不会报错,这是什么问题?
  • [问题求助] TabBar 在编译后不显示怎么处理
    代码为:Tabs({barPosition:BarPosition.End}) { TabContent(){ Home() }.tabBar(this.TabBuilder(buttonInfo[0]))编译后底部的 tabBar 却不显示了,
  • [分享交流] 在Linux中,如何在Linux中使用Ansible进行自动化部署?
    在Linux中使用Ansible进行自动化部署是一个高效且灵活的过程,它允许您通过简单的YAML剧本(Playbooks)来描述部署步骤,然后在目标主机上执行这些步骤以达到自动化配置、部署和管理的目的。以下是使用Ansible进行自动化部署的基本步骤:1. 安装Ansible首先,确保您的Linux系统已安装Ansible。大多数现代Linux发行版都可以通过包管理器来安装Ansible。例如,在基于Debian的系统(如Ubuntu)上,可以使用如下命令: sudo apt updatesudo apt install ansible而在基于RPM的系统(如CentOS或RHEL)上,可以使用: sudo yum install epel-releasesudo yum install ansible2. 配置AnsibleInventory文件:Ansible使用inventory文件来管理主机和组。默认情况下,Ansible查找/etc/ansible/hosts文件。您可以编辑此文件来添加您的主机和定义组。例如: [webservers]host1.example.comhost2.example.com[databases]db1.example.comdb2.example.comAnsible配置文件(可选):位于/etc/ansible/ansible.cfg,可以根据需要调整配置,比如SSH连接的默认参数。3. 创建Ansible PlaybookPlaybook是Ansible的核心,它是定义部署任务的文件,使用YAML格式编写。一个简单的Playbook示例可能如下所示,用于安装并启动一个Web服务器: ---- name: Deploy web serverhosts: webserversbecome: yestasks:- name: Install Apacheapt:name: apache2state: presentwhen: ansible_os_family == 'Debian'- name: Install httpdyum:name: httpdstate: presentwhen: ansible_os_family == 'RedHat'- name: Start Apache/httpd serviceservice:name: "{{ 'apache2' if ansible_os_family == 'Debian' else 'httpd' }}"state: startedenabled: yes4. 运行Playbook使用ansible-playbook命令运行Playbook。例如,如果上述Playbook保存为web-deploy.yml,则运行: ansible-playbook web-deploy.yml5. 管理变量、角色和模板变量:可以在Playbook、inventory文件或单独的变量文件中定义变量,用于定制化部署。角色:角色是一组相关任务、变量和文件的集合,用于组织和复用配置逻辑。模板:使用Jinja2模板引擎生成配置文件,动态插入变量值。6. 进阶功能Handler:用于定义只有在特定任务改变系统状态后才执行的操作,如服务重启。条件判断:利用when语句根据条件执行任务。错误处理:使用ignore_errors和rescue块来控制错误处理逻辑。综上所述,你可以有效地利用Ansible自动化部署和管理Linux服务器,从简单的软件安装到复杂的多阶段部署都能轻松应对。随着对Ansible的深入使用,您还可以探索其更多高级功能,如动态inventory、密钥管理和Ansible Tower的使用,进一步提升自动化水平和管理效率。咨询链接:https://tb.53kf.com/code/client/37f90f808d091b633d458ea6454dd0307/31如有侵权联系删除
  • [常见FAQ] 第十九届“挑战杯”揭榜挂帅专项赛·华为赛道#常见问题答疑,持续更新!
    Q:这是一场什么样的比赛?“挑战杯”全国大学生课外学术科技作品竞赛是由共青团中央、中国科协、教育部、中国社会科学院和全国学联共同主办的全国性的大学生课外学术实践竞赛。“揭榜挂帅”作为“挑战杯”专项赛之一,企业提需求出题,面向高校广发“英雄帖”,学生团队竞争揭榜。旨在促进产教融合,打造校、企、研成果转化为“桥头堡”。Q:谁可以参加这个比赛?有学生赛道和青年科技人才两个赛道;学生赛道:2024年6月1日以前正式注册的全日制非成人教育的各类高等院校在校专科生、本科生、硕士研究生(不含在职研究生)均可申报作品参赛,以个人或团队形式参赛均可。本校硕博连读生(直博生)若在2024年6月1日以前未通过博士资格考试的,可以按研究生学历申报作品。没有实行资格考试制度的学校,前两年可以按硕士学历申报作品。本硕博连读生,按照四年、两年分别对应本、硕申报,后续则不可申报。青年科技人才赛道:在高等学校、科研院所、企业等各类创新主体中工作的、具有一定科研热情和科研能力的青年科技工作者或者在读博士。参赛人员年龄应在18至35周岁,即1989年6月1日至2006年6月1日期间出生。符合高校学生赛道报名条件的在读博士不得参加青年科技人才赛道比赛,高校青年教师在指导学生参赛的同时不得以参赛人员身份参加同一选题比赛,发榜单位及同发榜单位有相关隶属关系单位的青年不得参加本单位选题比赛。Q:怎么报名参加比赛?登录挑战杯官网(https://fxyh-t.bocmartech.com/jbgs/#/login),在线填写报名信息;点击“挑战杯”官网左侧“作品报名”选项,下载报名信息表打印,并加盖学校公章回传至官网;选手需登录华为云大赛平台(学生:cid:link_0;青年科技人才赛道:https://competition.huaweicloud.com/information/1000042071/introduction)进行实名校验;点击华为云大赛平台菜单栏中的“我的团队”,并点击“组建团队”,所有成员都必须完成实名校验并加入该团队。Q:有问题如何求助?论坛发帖求助:比赛过程中参赛选手可以在论坛中发帖,详细描述您遇到的问题,大赛组委会工作人员将会在工作日工作时间09:00-18:00在社区回复(为保证大赛公平公正原则,大赛官方仅针对报名方式、赛制、赛题、大赛安排等问题进行答疑)。赛事交流群求助:请扫描进入交流群,赛事相关资讯也会第一时间在群内同步,请所有报名选手务必加群。                                      (青年科技人才赛道)                                                             (学生赛道)联系大赛工作人员:如没有得到及时回复,可以添加大赛工作人员微信:15889847842(微信号:HW88886712)。Q:华为云AI开发平台的编程语言用的是华为独创的,还是python、C语言等其他编程语言都能兼容?AI开发,还是主流的Python、C++,没有独创的语言。Q:请问项目检测的样品必须是pcb板吗?可以是其他工业样品吗?是PCB板,数据样例集已给出,请见赛事页面。Q:本次比赛是只会提供这样一个小数据集吗?还是后面会有大数据集呢?本次大赛发放的是样例集,选手可以参考样例集缺陷自行寻找或制作开源数据集制作模型。Q:请问一下后期测试数据里是否也是五类缺陷,会不会有其他类别呢?不会了,缺陷种类是一样的。Q:我们需要检测的就是这块pcb板吗?还是说我们可以基于这个平台检测其他物品,缺陷由我们自己来定。赛题确定为PCB板检测,并且缺陷是样例集里固定的几种。Q:训练的材料也是公司这边提供吗?赛事页面已提供样例集,我们选手可以自行寻找合适的开源数据集。Q:评分用的数据集也是和样例数据集一样吗?一张pcb板只会有一种错误,还是说有几种错误同时在一张板子上的情况?是的,缺陷种类一样,初赛是一张板子一种缺陷。Q:大赛中使用的算法是否必须为本人提出的?使用开源的sota方案是否符合要求?初赛不做限制的,看最终的得分。Q:能够用自己买的910来训练吗?也可以,但不推荐,910很贵。Q:为什么我跑提供的初赛指导里面的yolov5,有调用了HAM,但是NPU AI那个调用一直是0%呀?其实 npu有调用,只是训练消耗的不多,有时候只有小一段时间会使用,所以会看到0这种情况。Q:打榜的分数是累计的吗这个每提交一次就有分,取最高分。Q:收费平台是训练的npu和储存两部分吗,代金券用完要分别在两个平台充钱吗收费是包括npu和存储两部分,但是代金券应该是都包含的,所以不用担心。Q:preprocess的入参date一次只包含一张图吗?是的。Q:请问老师样例集和训练集是同分布的吗,还是只有格式是一样的只能说格式一样。
  • [问题求助] arm架构BC-Linux,启动ascend-pytorch镜像失败
    arm架构BC-Linux,启动ascend-pytorch镜像失败# docker run -it -e ASCEND_VISIBLE_DEVICES=0 ascendhub.huawei.com/public-ascendhub/ascend-pytorch:23.0.0-A2-1.11.0-centos7  /bin/bash standard_init_linux.go:219: exec user process caused "exec format error" libcontainer: container start initialization failed: standard_init_linux.go:219: exec user process caused "exec format error"
  • [其他问题] LocalStorage本地如何取值
    let token = 'testtplem101923';let storage = new LocalStorage();// 可以正常放进去storage.setAndProp('Token',token);storage.setAndProp('Token',token); // 单步调试时可以看到token的值let tmp:string = storage.setAndProp('Token',token); // 但是这样取值就报错let tmp = storage.setAndProp('Token',token) ;  // 但是这样也报错网上百度了好久,大部分都是这样的代码,不知道是不是升造成的,这个代码要如何写呢?
  • [区域复赛赛题问题] 泊位信息输入
    每个泊位的信息,由一行包括 4 个数字的行来表示。 每一行四个整数 id, x, y, velocity 表示一个泊位的信息。其中 id 为该泊位的唯一标号, (x,y)表示在该泊位上轮船靠泊时,轮船核心点对应坐标。问题一:请问假如有n个泊位,id的取值范围一定是[0, n-1]吗?问题二:资料中map1.txt的泊位信息输入为:5 36 98 3 1 50 170 1 1 99 16 0 1 99 65 0 2 169 99 2 1输入顺序是什么,并且id并不是唯一的问题三:泊位数量最多为多少个(复赛中没有指定泊位数量)
总条数:97 到第
上滑加载中