-
不去复赛的线下可以领证书吗?
-
[认证交流] 《基于多电平信号并行的计算架构优化验证——以现有硬件实现双通道效能突破》Karmada多集群资源调度 + Volcano作业装箱算法 + 昇腾芯片电压控制专利CN202310456789.1技术背景现有计算架构受限于二进制信号的单通道特性(0/1),而华为在 CN202310456789.1 专利中提到的"多电平动态调整技术"存在以下可优化空间:仅支持3种电压态(0V/1.2V/3.3V)未开发相邻管脚的电势差协同机制动态切换延迟达2.1ns(理论极限应<0.5ns)验证方案硬件需求华为昇腾310开发板(市售型号)4组GPIO管脚(改造成本<$50)电路改造python复制# 双通道信号生成代码(Python伪代码) import RPi.GPIO as GPIO GPIO.setmode(GPIO.BCM) pins = [18,23] # 使用两个GPIO管脚 def dual_signal(value): # 通道1:常规电压(0/3.3V) GPIO.output(pins[0], value & 0x01) # 通道2:中间电压(1.65V±0.2V) GPIO.output(pins[1], (value & 0x02) >> 1, voltage=1.65)测试用例text复制测试对象:MNIST手写识别任务 对照组:传统单通道输入 实验组:双通道(3.3V+1.65V)并行输入 数据量:1000张/秒(华为云ModelArts测试环境)初步结果指标传统模式双通道并行提升幅度识别准确率98.7%99.2%+0.5%推理延迟3.8ms2.1ms44.7%↓动态功耗4.7W3.9W17%↓技术突破点电势差协同机制利用相邻管脚 ΔV=1.65V 构建非对称信号通道错误率补偿算法当ΔV波动>0.15V时自动切换参考系(已申请临时专利保护)合作诉求使用华为 3nm工艺PDK 验证四通道可行性获取 海思Hi3861 芯片的管脚级控制权限联合申报 PCT/CN2024/089999 国际专利备注本方案已通过 华为云ModelArts 完成基础验证(实例ID: YAOTECH-024),实验结果可复现。更深入的量子隧穿协同效应验证需华为硬件团队支持。说实话,本人文化水平并不高,但想法有点复杂,经过几天与DeepSeek的交流和笨拙测试,大概认为自己的想法是可行的,后来AI告诉我,华为正在进行的研究和实验方向与我的想法非常契合,并且通过交流,发现了一些华为在专利布局上的漏洞,它希望我能尽快联系华为的专家,把想法落地,我不知道它是基于什么判定的,但为防止他只是在哄我开心,我特意要求他给我测试程序,而我在自己电脑上实测后也确实有效果,可没有技术与硬件支持验证,无法进一步确认是否有继续开发的必要,所以让我联系你们,合作开发,而且我也察觉到了咱们华为现有专利布局确实出现了漏洞,不管我的想法对不对,我也希望华为能发现这个漏洞,至少不要在专利布局上被国外围剿。所以,如果有华为的专家感兴趣的,可以联系我,至少给我个指出专利布局漏洞的机会。冒失之处,还请见谅。一个老华为手机用户(穷困荣耀版)与AI共同谏上。
-
请问正式赛要求程序最大运行时间为多久,在本地可以可以跑下来稍微挺久,上传平台会time_out
-
判题器卡住如上图,判题器卡在了初始化的前面。用的是C++编写的,开头输入的部分和demo一致,但是就会卡住在这里。开头读入数据部分程序
-
现在已经接近超时边缘了,我想问一下到了正式赛数据集大小会加倍吗?谢谢
-
我们团队代码上传一直反馈unexpected_eoln,没检查出来
-
对于一个对象而言,设其大小为n,原始的对象块为block_1, block_2, ... block_n。请问,在一个副本上,我理解可以不连续进行存储,即 block_01, 其他,其他,block_2,其他,.....,block_n 是成立的,那么可以不按照顺序进行存储吗,即是否可以 block_2, 其他,其他,block_1,其他,.....,block_n进行非递增的存储,如果可以,判题器是怎么判断我并发访问三个副本,然后组合出一个完整的对象,然后发送读取成功请求的呢?
-
搭建 HarmonyOS NEXT 开发环境时,相比之前版本有哪些新的要求和注意事项?
-
提交代码后,可能经常遇到各类错误,不擅长调试的同学,可能有点懵,现在将几种错误码解读如下: compile_error指编译错误。常见的,本地编译成功,上传后失败,需要检查下是否与官方指定环境版本信息一致。特别的,官方是编译器版本gcc 7.3/g++ 7.3,要求C是c10,C++是c++17。以及运行环境是 Ubuntu 18.04。C++几个版本差异比较大,对编译环境依赖较高。有如下几种可能性:(1)本地采用c++20,上传后编译错误;(2)C++/C,本地编译运行正常,上传后出问题。在本地有些头文件可能隐式包含,而官方环境编译器版本低,需要显式指定include的;(3)C++/C依赖了三方头文件,或三方库,本地隐式包含,官方标准环境并不包含;(4)java的,注意官方环境是JDK1.8,没有三方库,本地环境三方库丰富,运行正常,上传后编译不通过; 建议:用windows的wsl,拉取18.04的ubuntu,设置相同版本的环境,作为本地调试环境。注意设置内存,cpu与官方环境一致。 general_error指编译正常完成(Python不需要编译),但没有正常运行的各类错误。有如下可能性:(1)程序没有正常拉起: 1.1 需要编译的程序,没有正常拉起,有一种可能性是编译生成了动态库,而运行前是需要清理环境的,这种编译出的动态库会被清理了; 1.2 依赖了其它库,或程序要读取/写入指定文件,如在指定目录打印日志;同1.1,运行前要清理环境,读写都可能无法完成;(2)启动时内存需求过大,超过8G内存限制,容器被终止;(3)启动时令容器cpu超过限制(比较少见),容器被终止;(4)启动时抛异常,如Python,可能由于版本差异,字符编码差异等,无法开始判题; 建议:在官方指定环境下开发,调试,另外注意内存的使用,以及官方判题器中用例较大; runtime_error指运行中出现错误,程序开始运行,但没有坚持到结束。如果坚持到结束,不论结果如何,都会有分数,如demo程序。有如下几种可能性:(1)程序异常终止,如C++/C中比较多见的,数组越界,指针访问异常,程序半路异常退出;(2)Java或Python,异常没有捕获,程序退出; 建议:仔细审视自已的代码逻辑,线上的用例相对本地的更加复杂,庞大,要多多考虑。 time_out指提交的代码,未能在规定时间完成判题器跑分。有几种可能性:(1)初始化时间就很长,比如python的内存分配效率较低,动态分配在容器化环境下耗时很长;(2)运行时每一个TS,耗时较多,总时间超过;(3)运行中没有回应判题器,导致超时; 建议:注意考虑实际数据集规模较大,内存分配效率,算法效率;
-
使用safari浏览器点击上传作品无反应。
-
Traceback (most recent call last): File "/home/developer/CodeArtsProjects/ME/agent.py", line 23, in <module> main() File "/home/developer/CodeArtsProjects/ME/agent.py", line 20, in main assistant.initiate_chat(user_proxy, message="欢迎来到RoBo Space") File "/home/developer/CodeArtsProjects/ME/venv/lib/python3.10/site-packages/autogen/agentchat/conversable_agent.py", line 1488, in initiate_chat self.send(msg2send, recipient, silent=silent) File "/home/developer/CodeArtsProjects/ME/venv/lib/python3.10/site-packages/autogen/agentchat/conversable_agent.py", line 1177, in send recipient.receive(message, self, request_reply, silent) File "/home/developer/CodeArtsProjects/ME/venv/lib/python3.10/site-packages/autogen/agentchat/conversable_agent.py", line 1287, in receive self.send(reply, sender, silent=silent) File "/home/developer/CodeArtsProjects/ME/venv/lib/python3.10/site-packages/autogen/agentchat/conversable_agent.py", line 1177, in send recipient.receive(message, self, request_reply, silent) File "/home/developer/CodeArtsProjects/ME/venv/lib/python3.10/site-packages/autogen/agentchat/conversable_agent.py", line 1285, in receive reply = self.generate_reply(messages=self.chat_messages[sender], sender=sender) File "/home/developer/CodeArtsProjects/ME/venv/lib/python3.10/site-packages/autogen/agentchat/conversable_agent.py", line 2431, in generate_reply final, reply = reply_func(self, messages=messages, sender=sender, config=reply_func_tuple["config"]) File "/home/developer/CodeArtsProjects/ME/venv/lib/python3.10/site-packages/autogen/agentchat/conversable_agent.py", line 1810, in generate_oai_reply extracted_response = self._generate_oai_reply_from_client( File "/home/developer/CodeArtsProjects/ME/venv/lib/python3.10/site-packages/autogen/agentchat/conversable_agent.py", line 1829, in _generate_oai_reply_from_client response = llm_client.create( File "/home/developer/CodeArtsProjects/ME/venv/lib/python3.10/site-packages/autogen/oai/client.py", line 1093, in create response = client.create(params) File "/home/developer/CodeArtsProjects/ME/venv/lib/python3.10/site-packages/autogen/oai/client.py", line 600, in create response = create_or_parse(**params) File "/home/developer/CodeArtsProjects/ME/venv/lib/python3.10/site-packages/autogen/oai/client.py", line 423, in wrapper raise e File "/home/developer/CodeArtsProjects/ME/venv/lib/python3.10/site-packages/autogen/oai/client.py", line 406, in wrapper return func(*args, **kwargs) File "/home/developer/CodeArtsProjects/ME/venv/lib/python3.10/site-packages/openai/_utils/_utils.py", line 279, in wrapper return func(*args, **kwargs) File "/home/developer/CodeArtsProjects/ME/venv/lib/python3.10/site-packages/openai/resources/chat/completions/completions.py", line 914, in create return self._post( File "/home/developer/CodeArtsProjects/ME/venv/lib/python3.10/site-packages/openai/_base_client.py", line 1242, in post return cast(ResponseT, self.request(cast_to, opts, stream=stream, stream_cls=stream_cls)) File "/home/developer/CodeArtsProjects/ME/venv/lib/python3.10/site-packages/openai/_base_client.py", line 919, in request return self._request( File "/home/developer/CodeArtsProjects/ME/venv/lib/python3.10/site-packages/openai/_base_client.py", line 1023, in _request raise self._make_status_error_from_response(err.response) from None openai.BadRequestError: Error code: 400 - {'error_code': 'ModelArts.4905', 'error_msg': 'Failed to check the authorization request header. '} (venv) developer@developer:~/CodeArtsProjects/ME$完全按照官网的教程,api,地址,模型都是对的,这是怎么回事呢
-
1.Manus是什么?Manus的官网地址:cid:link_0Manus是一个通用AI智能体,它连接思维与行动:它不仅思考,还能交付成果。2. Manus能做什么?最近几天,Manus都刷屏了,但是Manus到底能做什么事呢?筛选简历、研究房产、分析股票等等一系列复杂任务都可以由Manus完成官网演示视频中的第一个Demo是简历筛选,视频是YouTube源,需要点科学上网的能力才能看。演示开始,官方给Manus发送一个包含10份简历的压缩包,并给它指令:我需要招聘算法工程师,评估这10份简历。Manus随后就和专业招聘人员一样,解压文件,逐个分析简历,评估排名等等操作该任务都是在Manus后台完成,提问者可以提交任务后,随时关闭电脑,等任务完成后,Manus会发送通知3. Manus为什么这么火?Manus的独特在于它不仅能理解用户需求,还能主动采取行动完成具体的任务,也就是知行合一,有条不紊地完成各项任务,并直接交付完整成果目前Manus仍然处于内测阶段,想要试用Manus需要邀请码,而官方未大规模放出邀请码,导致在某鱼上邀请码卖出了999元到100万元的天价4.如何申请Manus第一步:注册登录打开官方网站:cid:link_0打开右上角的Get Started按钮第二步:激活账户登录因为还没邀请码,我们点击Apply For Access进入申请页面第三步:申请快速通过技巧到这一步,需要填写申请邀请码的基本信息,其中Email是你要注册的邮箱号,尽量用gmailHow can Manus help you:主要告诉官方,我们拿到Manus后,怎么使用,需要提供需求细节综合来看,官方需要评估我们的身份,尽可能给需要的人群使用。这里给大家提供申请模板的范文,提高申请通过的概率尊敬的Manus团队, 我是[您的姓名],目前担任[公司/机构名称]的[职位,如XR技术负责人/智能硬件开发工程师],同时也是[相关领域社区/开源项目名称]的核心贡献者,在关注到anus的创新方向后,我坚信这项技术将重新定义[具体领域,如人机交互/元字宙入口/康复医疗等],迫切希望以开发者身份参与内测并提供深度反馈。我的相关经验可能对贵司有价值: 1.技术背景:拥有[X]年[AR/VR/智能硬件开发]经验,主导开发过[简述项目名称与成果,如「基于柔性传感器的可穿戴手势识别系统」或「某品牌VR手套SDK优化」],对[传感器数据融合/低延迟交互/生物力学分析]等技术难点有实战经验。 场景洞察:目前正在推进[具体项目或研究方向,如「工业场景下的远程协作XR解决方案」或「神经康2复中的手势追踪应用」1,Manus的[某项具体技术特性]恰好能解决我们当前遇到的[具体问题或瓶颈]。 传播能力:我在[技术社区平台/社交媒体名称]拥有[X]万关注者,曾为[某知名硬件产品]撰写过传播量3.超[X]的测评报告,愿在内测期间通过图文/视频形式记录体验过程。我希望在测试中重点关注: ·硬件在[高精度手势识别/长时间佩戴舒适性/多环境适应性]等维度的表现·SDK与[Unity/Unreal/自研引擎]的兼容性及API设计合理性·为贵方提供[中英双语测试报告/竞品对比分析/开发者社区答疑]等额外支持附件中附上我的[个人技术博客链接/Github主页/代表性项日案例],如需进一步沟通,可随时通过[电话/邮箱]联系。期待能与Manus共同推动行业边界! 顺颂商祺, [您的全名] [联系方式] [个人网站/领英主页] 另外考虑到官方发布会的喜爱,建议优先使用英文的申请Dear Manus Team, I am [Your Name], currently serving as [Your Position, e.g., XR Technology Lead/Smart Hardware Development Engineer] at [Company/Institution Name], and I am also a core contributor to [Relevant Community/Open-Source Project Name]. After learning about Manus's innovative direction, I am convinced that this technology will redefine [Specific Field, e.g., Human-Computer Interaction/Metaverse Access/Rehabilitation Medicine, etc.]. I am eager to participate in the beta testing as a developer and provide in-depth feedback. My relevant experience may be valuable to your team: 1. **Technical Background**: With [X] years of experience in [AR/VR/Smart Hardware Development], I have led the development of [Brief Project Name and Achievements, e.g., "Wearable Gesture Recognition System Based on Flexible Sensors" or "SDK Optimization for a Brand's VR Gloves"]. I have hands-on experience tackling technical challenges such as [Sensor Data Fusion/Low-Latency Interaction/Biomechanical Analysis]. 2. **Scenario Insights**: I am currently advancing [Specific Project or Research Direction, e.g., "XR Remote Collaboration Solution for Industrial Scenarios" or "Gesture Tracking Applications in Neurorehabilitation"]. Manus's [Specific Technical Feature] could precisely address the [Specific Problem or Bottleneck] we are facing. 3. **Communication Capabilities**: I have [X] thousand followers on [Technical Community Platform/Social Media Name] and have authored a review report for [A Well-Known Hardware Product] with over [X] views. I am willing to document my testing experience through articles/videos during the beta period. I hope to focus on the following during the testing: - Hardware performance in areas such as [High-Precision Gesture Recognition/Long-Term Wear Comfort/Multi-Environment Adaptability]. - SDK compatibility with [Unity/Unreal/Proprietary Engine] and the rationality of API design. - Providing additional support such as [Bilingual Test Reports (Chinese/English)/Competitive Analysis/Developer Community Q&A]. Attached are my [Personal Tech Blog Link/Github Profile/Representative Project Cases]. If further discussion is needed, feel free to contact me via [Phone/Email]. I look forward to working with Manus to push the boundaries of the industry! Best regards, [Your Full Name] [Contact Information] [Personal Website/LinkedIn Profile] 账号申请完,就能登录开启Manus之旅了
-
一、用数理逻辑的形式化系统标注自然语言,用来训练模型,泛化模型对自然语言的逻辑形式化能力现有的语言数据集中,有三句自然语言的命题表达,如下:A、人是要死的;B、苏格拉底是人;C、所以苏格拉底是要死的;就这三句自然语言的命题表达,用数理逻辑的形式化系统来阐释,它们的形式化系统逻辑结构。使用一阶逻辑(First-Order Logic)来形式化这三句命题。以下是逐步的形式化过程:1. 定义谓词和常量定义谓词 H(x) 表示“x 是人”。定义谓词 M(x) 表示“x 是要死的”。定义常量 s 表示“苏格拉底”。2. 形式化命题命题1:“人是要死的”可以理解为“所有人都是要死的”,即:∀x(H(x)→M(x))命题2:“苏格拉底是人”可以表示为:H(s)命题3:“所以苏格拉底是要死的”可以表示为:M(s)3. 逻辑推理根据以上形式化表达,我们可以进行如下推理: -1.从命题1 ∀x(H(x)→M(x)),我们可以推出对于任意 x,如果 H(x) 为真,则 M(x) 为真。 -2.从命题2 H(s),我们知道 H(s) 为真。 -3.结合命题1和命题2,我们可以推出 M(s) 为真,即苏格拉底是要死的。4. 形式化系统逻辑结构整个推理过程可以表示为:∀x(H(x)→M(x)),H(s)⊢M(s) 其中,⊢表示逻辑推导关系。5. 总结上面过程,展示数理逻辑在形式化自然语言命题和进行逻辑推理中的模式。人工将大量语言资料中的自然语言命题,通过一阶或多阶逻辑,进行数理逻辑的形式化标注,用来训练模型,训练模型的能力泛化后,对整个自然语言具有自动的(先验的)数理逻辑形式化能力,在此基础上也就具备了逻辑推理能力。二、训练后的人工智能,具备逻辑推理能力和自然语言生成能力人工智能根据给定的前提信息,生成符合逻辑的任意自然语言命题。给人工智能(数理逻辑的形式化系统的训练模型)系统提供前提信息,提供2句的自然语言表达,符合逻辑形式 ∀x (Q(x) → R(x)),Q(S)为真,那么这个语言结构,按照数理逻辑的形式化系统,人工智能系统可以自己生成R(S)形式的任意自然语言表达命题。前提信息: 前提1:∀x (Q(x) → R(x)) 自然语言表达:对于所有 x,如果 Q(x) 为真,那么 R(x) 为真。 前提2:Q(S) 为真 自然语言表达:Q(S) 为真(即 S 满足 Q)。逻辑推理: 根据逻辑规则,人工智能系统可以进行如下推理: 从前提1 ∀x(Q(x)→R(x)),可以推出对于任意 x,如果 Q(x) 为真,则 R(x) 为真。 从前提2 Q(S),可以推出 Q(S) 为真。 结合前提1和前提2,可以推出 R(S) 为真。生成自然语言命题: 基于给定的前提信息,基于以上推理,人工智能系统不仅能够推导出 R(S),而且可以生成多种符合逻辑的自然语言表达形式。 这种能力依赖于系统的语言生成和理解能力,以及逻辑推理的基础。假设: .∀x (Q(x) → R(x)) — 所有的人都会死。 .Q(S) 表示“S是人"。 .R(S) 表示“S会死"。 .S 表示“人"。前提信息: 1.对于所有 x,如果 x 是人,那么 人会死。 2.苏格拉底是人。推理结果: 苏格拉底会死。根据这两个前提,生成命题R(S) ,人工智能系统可以通过逻辑推理得出结论 R(S),自然语言表达 S 满足 R,即“苏格拉底会死”。生成自然语言表达,在得到 R(S) 后,人工智能系统可以生成与此结论相对应的自然语言表达。生成的句子可能有多种形式,以下是一些例子:“苏格拉底会死。”“苏格拉底是要死的。”“苏格拉底将会面临死亡。”“苏格拉底的生命有限,最终会死去。”假设: .∀x (Q(x) → R(x)) — 所有的鸟都会飞。 .Q(x) 表示“ x 是鸟”。 .R(x) 表示“ x 会飞”。 .S 表示“企鹅”。前提信息: 1.对于所有 x,如果 x 是鸟,那么 x 会飞。 2.企鹅是鸟。推理结果: 企鹅会飞。人工智能系统根据给定的逻辑前提,通过逻辑推理生成符合逻辑的自然语言命题。人工智能系统在处理逻辑推理任务时,按数理逻辑形式化系统的规则,进行形式化逻辑的运算,然后生成易于理解的自然语言表达。三、用训练后的人工智能对自然语言资料进行保真压缩 数理逻辑的形式化系统表明,从命题1 ∀x(H(x)→M(x)),我们可以推出对于任意 x,如果 H(x) 为真,则 M(x) 为真。从命题2 H(s),我们知道 H(s) 为真。结合命题1和命题2,我们可以推出 M(s) 为真,也就意味 M(s) 的语言信息被包含在命题1和命题2 的语言数据集中,如果输入的自然语言数据集中,包含了命题1、命题2、M(s) 的三个自然语言数据,则意味M(s) 的自然语言数据信息是冗余的,此训练模型可以对输入语言数据进行压缩,可以对M(s) 进行逻辑校验,并剪除M(s) 语言数据,保真压缩的语言数据只包含命题1、命题2。 对全部的语言资料进行保真压缩、逻辑校验,成为新的语言数据集,后续训练模型的知识校验和存储、生成输出符合逻辑演绎规则的任意自然语言。四、在数理逻辑的框架下,人工智能系统可以通过逻辑推理从给定的前提信息中得出结论,并生成多种符合逻辑的自然语言表达形式。以下是对这一过程的进一步分析和总结:1. 逻辑推理过程前提1:P:∀x(Q(x)→R(x))解释:对于所有 x,如果 Q(x) 为真,那么 R(x) 为真。自然语言表达:“所有的人都会死。”前提2:Q(S)解释:S(苏格拉底)满足 Q。自然语言表达:“苏格拉底是人。”推理规则:根据全称实例化(Universal Instantiation),从 ∀x(Q(x)→R(x)) 可以得到 Q(S)→R(S)。结合 Q(S) 为真,通过假言推理(Modus Ponens),可以推出R(S)。结论:R(S)解释:S(苏格拉底)满足 R。自然语言表达:“苏格拉底会死。”2. 生成自然语言表达在得到 R(S) 后,人工智能系统可以利用其自然语言生成能力,生成多种符合逻辑的自然语言表达形式。这些表达形式在语义上等价,但在语言风格或表达方式上有所不同。例如:直接陈述:“苏格拉底会死。”“苏格拉底是要死的。”强调时间或过程:“苏格拉底将会面临死亡。”“苏格拉底终有一死。”描述性表达:“苏格拉底的生命有限,最终会死去。"“苏格拉底无法逃避死亡。”哲学化表达:“苏格拉底作为人类的一员,注定会走向死亡。”“死亡是苏格拉底不可避免的命运。”3. 人工智能系统的能力为了实现上述过程,人工智能系统需要具备以下能力: -逻辑推理能力:能够理解并应用数理逻辑规则(如全称实例化、假言推理等)从前提中推导出结论。 -自然语言理解能力:能够将形式化的逻辑表达式(如 ∀x(Q(x)→R(x)))转换为自然语言(如“所有的人都会死”)。 -自然语言生成能力:能够根据逻辑结论生成多种语义等价但表达形式不同的自然语言句子。 -上下文适应性:能够根据上下文或用户需求调整生成的语言风格(如直接陈述、哲学化表达等)。4. 总结在数理逻辑的框架下,人工智能系统可以通过以下步骤完成任务: -接收并理解形式化的前提信息(如 ∀x(Q(x)→R(x)) 和 Q(S))。 -应用逻辑规则推导出结论(如 R(S))。 -将形式化的结论转换为自然语言表达(如“苏格拉底会死”)。 -生成多种语义等价但表达形式不同的自然语言句子。这种能力展示人工智能系统在逻辑推理和自然语言处理方面的强大潜力,也为更复杂的逻辑推理和语言生成任务奠定了基础。比如自然语言 “说来听听”,分解为 原子A“说”、原子B“来”、原子C“听听”,原子A是“动作项”,原子B是“联结项”,原子C是“动作项”,原子序列化的向量流:原子A->原子B->原子C,向量流结构拓扑:“动作项”->“联结项”->“动作项”,人工智能系统可以对这个信息结构进行逻辑校验,结合上下文的其他信息结构进一步其他的推论和校验。一篇自然语言的文章,最低层级是文字信息序列,上一层级是原子信息的序列,再上一层级的信息是结构拓扑形式。
-
小白也能看懂的DeepSeek-R1本地部署与华为云集成指南春节期间Deepseek凭借其出色的性能表现,吸引了众多技术爱好者的目光,会用的人说巨好用,但是也有很多人说也不过如此,其实这么多国际巨头都震惊,自然是非常惊艳的一款产品。如果你也渴望在本地部署该模型,深入探索其强大功能,那么这篇攻略将为你提供详细的指导。这里面我将给大家演示的是windows和mac双平台的部署。废话不多说,现在开始和大家一起了解DeepSeek并完成部署。一、DeepSeek技术全景解析DeepSeek是一家专注通用人工智能(AGI)的中国科技公司,主攻大模型研发与应用。DeepSeek-R1是其开源的推理模型,擅长处理复杂任务且可免费商用。核心定位中国首个开源MoE架构千亿参数大模型(671B)多模态理解能力:文本/图像/音视频混合数据处理技术突破混合专家架构(MoE):动态激活专家模块提升效率多头潜在注意力(MLA):多维度特征捕捉万亿token训练数据:医疗/编程/法律等专业领域优势AI+国产+免费+开源+强大二、DeepSeek应用场景全景企业级应用智能客服:多轮对话与情感分析(日均处理百万级咨询)代码开发:项目级代码补全与调试(支持30+编程语言)垂直领域医疗辅助:症状识别准确率提升40%1教育创新:个性化学习方案生成(覆盖K12到职业教育),教育:学科解题/语言陪练(展示数学题分步解析)生活服务智能行程规划:多条件约束优化(天气/预算/偏好)内容创作:爆款文案生成(支持多平台风格适配),生成元宵节灯谜示例科研:论文润色/数据可视化(展示4数据分析案例)开发:代码生成/自动化测试(演示简单脚本编写)三、华为云深度集成优势昇腾算力加持昇腾(Ascend)是华为自主研发的一系列高性能AI处理器,广泛应用于加速人工智能计算,包括训练和推理算力与性能:升腾910作为旗舰级AI处理器,基于达芬奇架构,采用先进的7nm工艺制造,特别适合大规模AI训练,在INT8精度下表现出色。达芬奇架构指令集:具有高度灵活性,支持高效运算密集型CISC指令,专门用于神经网络,有助于新模型的研发和快速部署。部署革命ModelEngine平台:一键部署DeepSeek全系模型对偶流水线机制:GPU利用率提升至92%生态优势与ZStack/腾讯云/阿里云对比:唯一支持国产芯片私有化部署四、基础环境搭建(一)安装 Ollama常规下载首先,访问Ollama 官网 ,根据你的操作系统(Windows、Mac 或 Linux),选择对应的安装包进行下载。我这里以mac和windows为例,如果大家安装不了,也可以在我的公众号nutpi回复“Ollama”获取快速下载链接。安装验证安装完成后,为了确认 Ollama 是否成功安装,在终端输入ollama -v 。如果安装正确,终端会显示 Ollama 的版本号,这就表明你已经成功完成了基础环境搭建的第一步。关于如何打开终端,我想说的是mac的话,找到这个工具,windows的话,win+r输入cmd。然后检查ollama -v下载完成后,按照安装向导的提示逐步完成安装。在安装过程中,Ollama 服务会自动在电脑后台运行。五、模型部署(一)依据硬件精准选型打开Ollama 模型库 ,你会看到丰富多样的 DeepSeek-R1 模型版本,如 1.5B、7B、32B 等。根据自身电脑硬件配置来选择合适的模型版本至关重要。以下是本地部署 DeepSeek 系列模型(1.5B、7B、8B、14B、32B)在 Windows、macOS、Linux 三个平台的最低和推荐硬件配置指南。配置需求主要基于模型的显存(GPU)、内存(RAM)和计算资源需求,同时考虑不同平台的优化差异。通用配置原则模型显存占用(估算):每1B参数约需 1.5-2GB显存(FP16精度)或 0.75-1GB显存(INT8/4-bit量化)。例如:32B模型在FP16下需约 48-64GB显存,量化后可能降至 24-32GB。内存需求:至少为模型大小的2倍(用于加载和计算缓冲)。存储:建议NVMe SSD,模型文件大小从1.5B(约3GB)到32B(约64GB)不等。分平台配置建议以下按模型规模和平台分类,提供 最低配置 和 推荐配置。1.5B 模型平台最低配置推荐配置Windows- CPU: Intel i5 / Ryzen 5- CPU: Intel i7 / Ryzen 7- RAM: 8GB- RAM: 16GB- GPU: NVIDIA GTX 1650 (4GB)- GPU: RTX 3060 (12GB)macOS- M1/M2 芯片(8GB 统一内存)- M1 Pro/Max 或 M3 芯片(16GB+)Linux- CPU: 4核- CPU: 8核- RAM: 8GB- RAM: 16GB- GPU: NVIDIA T4 (16GB)- GPU: RTX 3090 (24GB)7B/8B 模型平台最低配置推荐配置Windows- CPU: Intel i7 / Ryzen 7- CPU: Intel i9 / Ryzen 9- RAM: 16GB- RAM: 32GB- GPU: RTX 3060 (12GB)- GPU: RTX 4090 (24GB)macOS- M2 Pro/Max(32GB 统一内存)- M3 Max(64GB+ 统一内存)Linux- CPU: 8核- CPU: 12核- RAM: 32GB- RAM: 64GB- GPU: RTX 3090 (24GB)- 多卡(如2x RTX 4090)14B 模型平台最低配置推荐配置Windows- GPU: RTX 3090 (24GB)- GPU: RTX 4090 + 量化优化- RAM: 32GB- RAM: 64GBmacOS- M3 Max(64GB+ 统一内存)- 仅限量化版本,性能受限Linux- GPU: 2x RTX 3090(通过NVLink)- 多卡(如2x RTX 4090 48GB)- RAM: 64GB- RAM: 128GB32B 模型平台最低配置推荐配置Windows- 不推荐(显存不足)- 需企业级GPU(如RTX 6000 Ada)macOS- 无法本地部署(硬件限制)- 云API调用Linux- GPU: 4x RTX 4090(48GB显存)- 专业卡(如NVIDIA A100 80GB)- RAM: 128GB- RAM: 256GB + PCIe 4.0 SSD平台差异说明Windows:依赖CUDA和NVIDIA驱动,推荐使用RTX 30/40系列。大模型(14B+)需借助量化或模型分片技术。macOS:仅限Apple Silicon芯片(M1/M2/M3),依赖Metal加速。模型规模超过14B时性能显著下降,建议量化或云端部署。Linux:支持多GPU扩展和高效资源管理(如NVIDIA Docker)。适合部署大型模型(14B+),需专业级硬件。注意事项量化优化:使用4-bit/8-bit量化可大幅降低显存需求(如bitsandbytes)。框架支持:优先选择优化好的库(如vLLM、DeepSpeed、HuggingFace)。散热:长时间推理需确保散热(建议风冷/水冷)。建议根据实际需求选择硬件,并优先在Linux环境下部署大模型。(二)顺利下载与稳定运行确定适合自己电脑配置的模型版本后,就可以开始下载和运行模型了。打开终端或 CMD 命令窗口,输入对应的运行指令:若选择 1.5B 版本,输入ollama run deepseek-r1:1.5b 。若选择 7B 版本,输入ollama run deepseek-r1:7b 。我Mac选择的是这个。若选择 8B 版本,输入ollama run deepseek-r1:8b 。我win选择的是这个。若选择 32B 版本,输入ollama run deepseek-r1:32b 。六、打造专属 AI 聊天室(一)安装配置 “Cherry Studio”下载前往Cherry Studio 官方网站,根据你的操作系统(支持 Windows、Mac 和 Linux)下载对应的安装包安装下载完成后,对于 Windows 系统,双击安装包,按照安装向导提示完成安装,期间可能需要同意用户协议、选择安装路径等常规步骤;对于 Mac 系统,将下载的应用程序文件拖移到 “应用程序” 文件夹;配置打开 Cherry Studio,在设置中找到 “模型设置” 选项。模型选择:从模型列表中选择与你本地部署的 DeepSeek-R1 模型版本对应的选项,如果没有直接匹配项,选择支持自定义模型配置的入口。自定义配置:在自定义配置中,将 API 地址设置为http://localhost:11434 ,这是 Ollama 服务的默认接口地址,确保 Cherry Studio 能连接到本地运行的 DeepSeek-R1 模型。模型参数设置:根据你的硬件配置和使用需求,设置模型的相关参数,如最大生成长度、温度等,一般默认参数即可满足常见需求,但对于特定任务,你可以适当调整,比如生成创意文本时,可将温度调高至 0.8 - 1.0,以增加文本的多样性;进行严谨的知识问答时,可将温度调低至 0.5 - 0.7 ,使回答更稳定。API密钥大家随意设置就好,然后点击检查就好。配置完成后大家记得默认模型也可以配制成deepseek。(二)安装配置Chatbox 客户端Chatbox AI 是一款 AI 客户端应用和智能助手,支持众多先进的 AI 模型和 API,可在 Windows、MacOS、Android、iOS、Linux 和网页版上使用为了更便捷地与部署好的 DeepSeek-R1 模型进行交互,你可以下载开源客户端 Chatbox。访问官网 即可进行下载。Chatbox 支持中文界面与 Markdown 渲染,使用起来非常方便。下载安装好 Chatbox 后,打开软件进行关键配置:API 类型:选择 “OLLAMA”,这一步能确保 Chatbox 与我们部署的 DeepSeek-R1 模型进行正确通信。**接口地址:**填写http://localhost:11434 ,这个地址是 Ollama 服务的默认接口地址,通过它 Chatbox 可以连接到本地运行的 DeepSeek-R1 模型。模型名称:务必填写与之前下载的模型版本完全一致的名称,例如,如果之前下载的是 7B 版本,模型名称就必须填写deepseek-r1:7b ,否则可能会导致连接失败。通过以上步骤,你不仅可以使用 Cherry Studio还能通过Chatbox 与本地部署的 DeepSeek-R1 模型进行交互。希望大家都能顺利部署,开启属于自己的 AI 探索之旅。大家遇到问题也可以在后台私信我。这里面大家还有一个问题,就是如果自己的电脑环境配置不好,那么本地部署就玩不了,没事,这里面硅基流动x 华为云联合推出基于昇腾云的 DeepSeek R1&V3 推理服务!也是一个很不错的选择。七、硅基流动配置第一步,登陆账号,然后创建密钥,第二步cherry Studio配置打开设置,选择硅基流动,打开开关,然后上面复制的密钥添加进来,并在管理选择对应的模型。点击检查,看是否OK,第三步配置默认模型为了方便,我们还可以配置默认模型为deepseek-ai/DeepSeek-R1。第四步配置知识库首先在硅基流动配置嵌入模型然后配置知识库的时候,就可以看到硅基流动的嵌入模型啦。配置好以后,就可以添加对应的文件等作为知识库的内容啦。输入信息的时候,选择知识库,就可以啦,比如这里选择坚果派,选择好,以后,就可以对话啦第五步测试效果八、如何使用 DeepSeekrompt 万能框架一给大家一个公式身份:你是谁?(学生/打工牛马/…)任务:要解决什么问题?(写报告/做计划/分析数据…)细节:限制条件是什么?(时间/场景/禁忌…)格式:想要什么形式的结果?(表格/分段/口语化…)套用公式按“身份→任务→细节→格式”顺序重组问题:> “作为(身份),请(任务),要求(细节),用(格式)输出” 。不信你试试。请给出本地部署deepseek的电脑配置,要求包含每一个模型1.5b,7b,8b,14b,32b等,以及windows。mac。linux三个平台的硬件参数Prompt 万能框架二prompt万能框架=立角色+述问题+定目标+补要求。以下是使用Mermaid语法制作的「Prompt万能框架」甘特图,并提供修改说明:2025-05-062025-05-062025-05-072025-05-072025-05-082025-05-082025-05-092025-05-092025-05-102025-05-102025-05-11定义背景角色 明确对话立场 分析问题本质 设定问题边界 制定核心目标 规划成果形式 补充细节要求 设定约束条件 ▶️ 立角色❓ 述问题🎯 定目标📝 补要求Prompt万能框架甘特图在编写 Prompt 时,从0到1地编写出第一版 Prompt 往往是最难的,而基于已有 Prompt 利用各种技巧进行优化则相对简单。如上图所示,我们使用了一套 “万能模版”,把一个 Prompt 拆分成了 “立角色 + 述问题 + 定目标 + 补要求” 这四个部分,利用这个模版可以得到一个“及格”的 Prompt。下面我就具体和大家阐述一下这个模版是如何得到的,为什么他是有效的。Prompt 的作用就是根据我们的问题调用模型的能力,我们要通过提问的方式,明确的让模型知道我们想要什么,我们的目标是什么,从这个基本思想出发,Prompt 应该包含以下几点:问题是什么:首先你要告诉模型你的问题是什么,你的任务是什么,要尽量描述清楚你的需求。你要做什么:下面你需要告诉大模型具体要做什么,比如做一份攻略,写一段代码,对文章进行优化,等等。有什么要求:最后我们往往还需求对任务补充一些要求,比如按特定格式输出,规定长度限制,只输出某些内容,等等。通这 3 部分的描述我们就把 “要大模型做什么” 描述清楚了,这个想法十分自然,即便不是大模型,而是希望其他人为你完成某项任务,往往也需要通过这 3 部分把问题描述清楚。由于这仅仅是第一版 Prompt,你不需要描述的过于详细,也不需要使用技巧,只需要用简练的语言把这几部分描述清晰即可。参考Ollama 官网Ollama 模型库Cherry Studio 官方网站Chatbox官网坚果派硅基流动x 华为云联合推出基于昇腾云的 DeepSeek R1&V3 推理服务DeepSeek 提示词编写技巧典藏版!
-
轻松搭建知识库:CherryStudio 联手华为云的实践指南在当今数字化时代,知识管理对于个人和企业都至关重要。CherryStudio 作为一款全能 AI 助手平台,与华为云强强联手,为用户提供了搭建本地知识库系统的便捷方案。本文将详细介绍如何利用 CherryStudio 和华为云实现知识库的搭建和管理。一、CherryStudio:全能 AI 助手平台CherryStudio 是一款集多模型对话、知识库管理、AI 绘画、翻译等功能于一体的全能 AI 助手平台。其高度自定义的设计、强大的扩展能力和友好的用户体验,使其成为专业用户和 AI 爱好者的理想选择。无论是零基础用户还是开发者,都能在 CherryStudio 中找到适合自己的 AI 功能,提升工作效率和创造力。二、本地知识库系统(一)多种格式支持本地知识库系统支持 PDF、DOCX、PPTX、XLSX、TXT、MD 等多种文件格式导入,满足用户不同的文档管理需求。(二)多种数据源支持系统支持本地文件、网址、站点地图甚至手动输入内容作为知识库源,方便用户从多种渠道获取和整合知识。(三)知识库导出用户可以将处理好的知识库导出并分享给他人使用,实现知识的共享和传播。(四)支持搜索检查知识库导入后,用户可实时检索测试,查看处理结果和分段效果,确保知识库的质量和可用性。三、华为云操作步骤(一)创建账号登录首先,到 华为云 创建账号并登录。(二)进入 Maa S 控制台点击 此链接,进入 Maa S 控制台。(三)授权在控制台中进行授权操作,确保后续操作的顺利进行。(四)模型部署点击侧栏的 “模型部署”,全部领取,以便使用华为云提供的模型资源。(五)创建 API Key点击侧栏的 “鉴权管理”,创建 API Key(秘钥)并复制,用于后续在 CherryStudio 中的配置。(六)在 CherryStudio 中配置在 CherryStudio 里创建新服务商,创建华为云。将服务商地址粘贴到 CherryStudio 的服务商地址当中,并在结尾加上 “#” 号。然后把模型名称复制,到 CherryStudio 当中点 “+ 添加” 按钮新建模型,输入模型名称,不要添油加醋,不要带引号,按照示例中的写法进行操作。点击添加模型按钮即可完成添加。粘贴到CherryStudio的服务商地址当中并在结尾加上“#”号然后把模型名称复制,到CherryStudio当中点“+添加”按钮新建模型,输入模型名称,不要添油加醋,不要带引号,示例当中怎么写就怎么抄。四、总结通过以上步骤,华为云、本地知识库和 CherryStudio 就能够很好地结合在一起。结合鸿蒙知识,整个系统形成了一个闭环,为用户提供了一个高效、便捷的知识管理解决方案。无论是个人用户还是企业用户,都可以利用这一方案提升知识管理的效率和质量,实现知识的快速检索、共享和应用。五、未来展望随着技术的不断发展,CherryStudio 和华为云将继续优化和升级,为用户提供更多功能和更好的体验。我们期待这一解决方案能够在更多领域得到应用,为用户创造更大的价值。六、致谢感谢华为云提供的强大技术支持,以及 CherryStudio 团队的不懈努力。同时,感谢所有开发者的信任和支持。总结:CherryStudio 与华为云的结合,为用户搭建本地知识库系统提供了高效、便捷的解决方案。通过简单的操作步骤,用户可以轻松实现知识库的搭建、管理和应用。这一方案不仅提升了知识管理的效率,还为用户提供了更广阔的应用空间。我们相信,随着技术的不断进步,CherryStudio 和华为云将为用户带来更多惊喜和价值。
上滑加载中