• [问题求助] 出错问题
    Traceback (most recent call last): File "/home/developer/CodeArtsProjects/ME/agent.py", line 23, in <module> main() File "/home/developer/CodeArtsProjects/ME/agent.py", line 20, in main assistant.initiate_chat(user_proxy, message="欢迎来到RoBo Space") File "/home/developer/CodeArtsProjects/ME/venv/lib/python3.10/site-packages/autogen/agentchat/conversable_agent.py", line 1488, in initiate_chat self.send(msg2send, recipient, silent=silent) File "/home/developer/CodeArtsProjects/ME/venv/lib/python3.10/site-packages/autogen/agentchat/conversable_agent.py", line 1177, in send recipient.receive(message, self, request_reply, silent) File "/home/developer/CodeArtsProjects/ME/venv/lib/python3.10/site-packages/autogen/agentchat/conversable_agent.py", line 1287, in receive self.send(reply, sender, silent=silent) File "/home/developer/CodeArtsProjects/ME/venv/lib/python3.10/site-packages/autogen/agentchat/conversable_agent.py", line 1177, in send recipient.receive(message, self, request_reply, silent) File "/home/developer/CodeArtsProjects/ME/venv/lib/python3.10/site-packages/autogen/agentchat/conversable_agent.py", line 1285, in receive reply = self.generate_reply(messages=self.chat_messages[sender], sender=sender) File "/home/developer/CodeArtsProjects/ME/venv/lib/python3.10/site-packages/autogen/agentchat/conversable_agent.py", line 2431, in generate_reply final, reply = reply_func(self, messages=messages, sender=sender, config=reply_func_tuple["config"]) File "/home/developer/CodeArtsProjects/ME/venv/lib/python3.10/site-packages/autogen/agentchat/conversable_agent.py", line 1810, in generate_oai_reply extracted_response = self._generate_oai_reply_from_client( File "/home/developer/CodeArtsProjects/ME/venv/lib/python3.10/site-packages/autogen/agentchat/conversable_agent.py", line 1829, in _generate_oai_reply_from_client response = llm_client.create( File "/home/developer/CodeArtsProjects/ME/venv/lib/python3.10/site-packages/autogen/oai/client.py", line 1093, in create response = client.create(params) File "/home/developer/CodeArtsProjects/ME/venv/lib/python3.10/site-packages/autogen/oai/client.py", line 600, in create response = create_or_parse(**params) File "/home/developer/CodeArtsProjects/ME/venv/lib/python3.10/site-packages/autogen/oai/client.py", line 423, in wrapper raise e File "/home/developer/CodeArtsProjects/ME/venv/lib/python3.10/site-packages/autogen/oai/client.py", line 406, in wrapper return func(*args, **kwargs) File "/home/developer/CodeArtsProjects/ME/venv/lib/python3.10/site-packages/openai/_utils/_utils.py", line 279, in wrapper return func(*args, **kwargs) File "/home/developer/CodeArtsProjects/ME/venv/lib/python3.10/site-packages/openai/resources/chat/completions/completions.py", line 914, in create return self._post( File "/home/developer/CodeArtsProjects/ME/venv/lib/python3.10/site-packages/openai/_base_client.py", line 1242, in post return cast(ResponseT, self.request(cast_to, opts, stream=stream, stream_cls=stream_cls)) File "/home/developer/CodeArtsProjects/ME/venv/lib/python3.10/site-packages/openai/_base_client.py", line 919, in request return self._request( File "/home/developer/CodeArtsProjects/ME/venv/lib/python3.10/site-packages/openai/_base_client.py", line 1023, in _request raise self._make_status_error_from_response(err.response) from None openai.BadRequestError: Error code: 400 - {'error_code': 'ModelArts.4905', 'error_msg': 'Failed to check the authorization request header. '} (venv) developer@developer:~/CodeArtsProjects/ME$完全按照官网的教程,api,地址,模型都是对的,这是怎么回事呢 
  • [技术干货] DeepSeek过时了?全网刷屏的Manus到底是什么?这样写申请秒过审核
    1.Manus是什么?Manus的官网地址:cid:link_0Manus是一个通用AI智能体,它连接思维与行动:它不仅思考,还能交付成果。2. Manus能做什么?最近几天,Manus都刷屏了,但是Manus到底能做什么事呢?筛选简历、研究房产、分析股票等等一系列复杂任务都可以由Manus完成官网演示视频中的第一个Demo是简历筛选,视频是YouTube源,需要点科学上网的能力才能看。演示开始,官方给Manus发送一个包含10份简历的压缩包,并给它指令:我需要招聘算法工程师,评估这10份简历。Manus随后就和专业招聘人员一样,解压文件,逐个分析简历,评估排名等等操作该任务都是在Manus后台完成,提问者可以提交任务后,随时关闭电脑,等任务完成后,Manus会发送通知3. Manus为什么这么火?Manus的独特在于它不仅能理解用户需求,还能主动采取行动完成具体的任务,也就是知行合一,有条不紊地完成各项任务,并直接交付完整成果目前Manus仍然处于内测阶段,想要试用Manus需要邀请码,而官方未大规模放出邀请码,导致在某鱼上邀请码卖出了999元到100万元的天价4.如何申请Manus第一步:注册登录打开官方网站:cid:link_0打开右上角的Get Started按钮第二步:激活账户登录因为还没邀请码,我们点击Apply For Access进入申请页面第三步:申请快速通过技巧到这一步,需要填写申请邀请码的基本信息,其中Email是你要注册的邮箱号,尽量用gmailHow can Manus help you:主要告诉官方,我们拿到Manus后,怎么使用,需要提供需求细节综合来看,官方需要评估我们的身份,尽可能给需要的人群使用。这里给大家提供申请模板的范文,提高申请通过的概率尊敬的Manus团队, 我是[您的姓名],目前担任[公司/机构名称]的[职位,如XR技术负责人/智能硬件开发工程师],同时也是[相关领域社区/开源项目名称]的核心贡献者,在关注到anus的创新方向后,我坚信这项技术将重新定义[具体领域,如人机交互/元字宙入口/康复医疗等],迫切希望以开发者身份参与内测并提供深度反馈。我的相关经验可能对贵司有价值: 1.技术背景:拥有[X]年[AR/VR/智能硬件开发]经验,主导开发过[简述项目名称与成果,如「基于柔性传感器的可穿戴手势识别系统」或「某品牌VR手套SDK优化」],对[传感器数据融合/低延迟交互/生物力学分析]等技术难点有实战经验。 场景洞察:目前正在推进[具体项目或研究方向,如「工业场景下的远程协作XR解决方案」或「神经康2复中的手势追踪应用」1,Manus的[某项具体技术特性]恰好能解决我们当前遇到的[具体问题或瓶颈]。 传播能力:我在[技术社区平台/社交媒体名称]拥有[X]万关注者,曾为[某知名硬件产品]撰写过传播量3.超[X]的测评报告,愿在内测期间通过图文/视频形式记录体验过程。我希望在测试中重点关注: ·硬件在[高精度手势识别/长时间佩戴舒适性/多环境适应性]等维度的表现·SDK与[Unity/Unreal/自研引擎]的兼容性及API设计合理性·为贵方提供[中英双语测试报告/竞品对比分析/开发者社区答疑]等额外支持附件中附上我的[个人技术博客链接/Github主页/代表性项日案例],如需进一步沟通,可随时通过[电话/邮箱]联系。期待能与Manus共同推动行业边界! 顺颂商祺, [您的全名] [联系方式] [个人网站/领英主页] 另外考虑到官方发布会的喜爱,建议优先使用英文的申请Dear Manus Team, I am [Your Name], currently serving as [Your Position, e.g., XR Technology Lead/Smart Hardware Development Engineer] at [Company/Institution Name], and I am also a core contributor to [Relevant Community/Open-Source Project Name]. After learning about Manus's innovative direction, I am convinced that this technology will redefine [Specific Field, e.g., Human-Computer Interaction/Metaverse Access/Rehabilitation Medicine, etc.]. I am eager to participate in the beta testing as a developer and provide in-depth feedback. My relevant experience may be valuable to your team: 1. **Technical Background**: With [X] years of experience in [AR/VR/Smart Hardware Development], I have led the development of [Brief Project Name and Achievements, e.g., "Wearable Gesture Recognition System Based on Flexible Sensors" or "SDK Optimization for a Brand's VR Gloves"]. I have hands-on experience tackling technical challenges such as [Sensor Data Fusion/Low-Latency Interaction/Biomechanical Analysis]. 2. **Scenario Insights**: I am currently advancing [Specific Project or Research Direction, e.g., "XR Remote Collaboration Solution for Industrial Scenarios" or "Gesture Tracking Applications in Neurorehabilitation"]. Manus's [Specific Technical Feature] could precisely address the [Specific Problem or Bottleneck] we are facing. 3. **Communication Capabilities**: I have [X] thousand followers on [Technical Community Platform/Social Media Name] and have authored a review report for [A Well-Known Hardware Product] with over [X] views. I am willing to document my testing experience through articles/videos during the beta period. I hope to focus on the following during the testing: - Hardware performance in areas such as [High-Precision Gesture Recognition/Long-Term Wear Comfort/Multi-Environment Adaptability]. - SDK compatibility with [Unity/Unreal/Proprietary Engine] and the rationality of API design. - Providing additional support such as [Bilingual Test Reports (Chinese/English)/Competitive Analysis/Developer Community Q&A]. Attached are my [Personal Tech Blog Link/Github Profile/Representative Project Cases]. If further discussion is needed, feel free to contact me via [Phone/Email]. I look forward to working with Manus to push the boundaries of the industry! Best regards, [Your Full Name] [Contact Information] [Personal Website/LinkedIn Profile] 账号申请完,就能登录开启Manus之旅了
  • 用数理逻辑的形式化系统训练模型,对自然语言数据集进行保真压缩和推论
    一、用数理逻辑的形式化系统标注自然语言,用来训练模型,泛化模型对自然语言的逻辑形式化能力现有的语言数据集中,有三句自然语言的命题表达,如下:A、人是要死的;B、苏格拉底是人;C、所以苏格拉底是要死的;就这三句自然语言的命题表达,用数理逻辑的形式化系统来阐释,它们的形式化系统逻辑结构。使用一阶逻辑(First-Order Logic)来形式化这三句命题。以下是逐步的形式化过程:1. 定义谓词和常量定义谓词 H(x) 表示“x 是人”。定义谓词 M(x) 表示“x 是要死的”。定义常量 s 表示“苏格拉底”。2. 形式化命题命题1:“人是要死的”可以理解为“所有人都是要死的”,即:∀x(H(x)→M(x))命题2:“苏格拉底是人”可以表示为:H(s)命题3:“所以苏格拉底是要死的”可以表示为:M(s)3. 逻辑推理根据以上形式化表达,我们可以进行如下推理: -1.从命题1 ∀x(H(x)→M(x)),我们可以推出对于任意 x,如果 H(x) 为真,则 M(x) 为真。 -2.从命题2 H(s),我们知道 H(s) 为真。 -3.结合命题1和命题2,我们可以推出 M(s) 为真,即苏格拉底是要死的。4. 形式化系统逻辑结构整个推理过程可以表示为:∀x(H(x)→M(x)),H(s)⊢M(s) 其中,⊢表示逻辑推导关系。5. 总结上面过程,展示数理逻辑在形式化自然语言命题和进行逻辑推理中的模式。人工将大量语言资料中的自然语言命题,通过一阶或多阶逻辑,进行数理逻辑的形式化标注,用来训练模型,训练模型的能力泛化后,对整个自然语言具有自动的(先验的)数理逻辑形式化能力,在此基础上也就具备了逻辑推理能力。二、训练后的人工智能,具备逻辑推理能力和自然语言生成能力人工智能根据给定的前提信息,生成符合逻辑的任意自然语言命题。给人工智能(数理逻辑的形式化系统的训练模型)系统提供前提信息,提供2句的自然语言表达,符合逻辑形式 ∀x (Q(x) → R(x)),Q(S)为真,那么这个语言结构,按照数理逻辑的形式化系统,人工智能系统可以自己生成R(S)形式的任意自然语言表达命题。前提信息:  前提1:∀x (Q(x) → R(x))    自然语言表达:对于所有 x,如果 Q(x) 为真,那么 R(x) 为真。  前提2:Q(S) 为真    自然语言表达:Q(S) 为真(即 S 满足 Q)。逻辑推理:  根据逻辑规则,人工智能系统可以进行如下推理:  从前提1 ∀x(Q(x)→R(x)),可以推出对于任意 x,如果 Q(x) 为真,则 R(x) 为真。  从前提2 Q(S),可以推出 Q(S) 为真。  结合前提1和前提2,可以推出 R(S) 为真。生成自然语言命题:  基于给定的前提信息,基于以上推理,人工智能系统不仅能够推导出 R(S),而且可以生成多种符合逻辑的自然语言表达形式。  这种能力依赖于系统的语言生成和理解能力,以及逻辑推理的基础。假设: .∀x (Q(x) → R(x)) — 所有的人都会死。  .Q(S) 表示“S是人"。  .R(S) 表示“S会死"。  .S 表示“人"。前提信息:  1.对于所有 x,如果 x 是人,那么 人会死。  2.苏格拉底是人。推理结果: 苏格拉底会死。根据这两个前提,生成命题R(S) ,人工智能系统可以通过逻辑推理得出结论 R(S),自然语言表达 S 满足 R,即“苏格拉底会死”。生成自然语言表达,在得到 R(S) 后,人工智能系统可以生成与此结论相对应的自然语言表达。生成的句子可能有多种形式,以下是一些例子:“苏格拉底会死。”“苏格拉底是要死的。”“苏格拉底将会面临死亡。”“苏格拉底的生命有限,最终会死去。”假设:  .∀x (Q(x) → R(x)) — 所有的鸟都会飞。  .Q(x) 表示“  x 是鸟”。  .R(x) 表示“ x 会飞”。  .S 表示“企鹅”。前提信息:  1.对于所有 x,如果 x 是鸟,那么 x 会飞。  2.企鹅是鸟。推理结果: 企鹅会飞。人工智能系统根据给定的逻辑前提,通过逻辑推理生成符合逻辑的自然语言命题。人工智能系统在处理逻辑推理任务时,按数理逻辑形式化系统的规则,进行形式化逻辑的运算,然后生成易于理解的自然语言表达。三、用训练后的人工智能对自然语言资料进行保真压缩    数理逻辑的形式化系统表明,从命题1 ∀x(H(x)→M(x)),我们可以推出对于任意 x,如果 H(x) 为真,则 M(x) 为真。从命题2 H(s),我们知道 H(s) 为真。结合命题1和命题2,我们可以推出 M(s) 为真,也就意味  M(s) 的语言信息被包含在命题1和命题2 的语言数据集中,如果输入的自然语言数据集中,包含了命题1、命题2、M(s) 的三个自然语言数据,则意味M(s) 的自然语言数据信息是冗余的,此训练模型可以对输入语言数据进行压缩,可以对M(s) 进行逻辑校验,并剪除M(s) 语言数据,保真压缩的语言数据只包含命题1、命题2。     对全部的语言资料进行保真压缩、逻辑校验,成为新的语言数据集,后续训练模型的知识校验和存储、生成输出符合逻辑演绎规则的任意自然语言。四、在数理逻辑的框架下,人工智能系统可以通过逻辑推理从给定的前提信息中得出结论,并生成多种符合逻辑的自然语言表达形式。以下是对这一过程的进一步分析和总结:1. 逻辑推理过程前提1:P:∀x(Q(x)→R(x))解释:对于所有 x,如果 Q(x) 为真,那么 R(x) 为真。自然语言表达:“所有的人都会死。”前提2:Q(S)解释:S(苏格拉底)满足 Q。自然语言表达:“苏格拉底是人。”推理规则:根据全称实例化(Universal Instantiation),从 ∀x(Q(x)→R(x)) 可以得到 Q(S)→R(S)。结合 Q(S) 为真,通过假言推理(Modus Ponens),可以推出R(S)。结论:R(S)解释:S(苏格拉底)满足 R。自然语言表达:“苏格拉底会死。”2. 生成自然语言表达在得到 R(S) 后,人工智能系统可以利用其自然语言生成能力,生成多种符合逻辑的自然语言表达形式。这些表达形式在语义上等价,但在语言风格或表达方式上有所不同。例如:直接陈述:“苏格拉底会死。”“苏格拉底是要死的。”强调时间或过程:“苏格拉底将会面临死亡。”“苏格拉底终有一死。”描述性表达:“苏格拉底的生命有限,最终会死去。"“苏格拉底无法逃避死亡。”哲学化表达:“苏格拉底作为人类的一员,注定会走向死亡。”“死亡是苏格拉底不可避免的命运。”3. 人工智能系统的能力为了实现上述过程,人工智能系统需要具备以下能力:  -逻辑推理能力:能够理解并应用数理逻辑规则(如全称实例化、假言推理等)从前提中推导出结论。  -自然语言理解能力:能够将形式化的逻辑表达式(如 ∀x(Q(x)→R(x)))转换为自然语言(如“所有的人都会死”)。  -自然语言生成能力:能够根据逻辑结论生成多种语义等价但表达形式不同的自然语言句子。  -上下文适应性:能够根据上下文或用户需求调整生成的语言风格(如直接陈述、哲学化表达等)。4. 总结在数理逻辑的框架下,人工智能系统可以通过以下步骤完成任务: -接收并理解形式化的前提信息(如 ∀x(Q(x)→R(x)) 和 Q(S))。 -应用逻辑规则推导出结论(如 R(S))。 -将形式化的结论转换为自然语言表达(如“苏格拉底会死”)。 -生成多种语义等价但表达形式不同的自然语言句子。这种能力展示人工智能系统在逻辑推理和自然语言处理方面的强大潜力,也为更复杂的逻辑推理和语言生成任务奠定了基础。比如自然语言 “说来听听”,分解为 原子A“说”、原子B“来”、原子C“听听”,原子A是“动作项”,原子B是“联结项”,原子C是“动作项”,原子序列化的向量流:原子A->原子B->原子C,向量流结构拓扑:“动作项”->“联结项”->“动作项”,人工智能系统可以对这个信息结构进行逻辑校验,结合上下文的其他信息结构进一步其他的推论和校验。一篇自然语言的文章,最低层级是文字信息序列,上一层级是原子信息的序列,再上一层级的信息是结构拓扑形式。
  • [案例共创] 【案例共创】小白也能看懂的DeepSeek-R1本地部署与华为云集成指南
    小白也能看懂的DeepSeek-R1本地部署与华为云集成指南春节期间Deepseek凭借其出色的性能表现,吸引了众多技术爱好者的目光,会用的人说巨好用,但是也有很多人说也不过如此,其实这么多国际巨头都震惊,自然是非常惊艳的一款产品。如果你也渴望在本地部署该模型,深入探索其强大功能,那么这篇攻略将为你提供详细的指导。这里面我将给大家演示的是windows和mac双平台的部署。废话不多说,现在开始和大家一起了解DeepSeek并完成部署。一、DeepSeek技术全景解析DeepSeek是一家专注通用人工智能(AGI)的中国科技公司,主攻大模型研发与应用。DeepSeek-R1是其开源的推理模型,擅长处理复杂任务且可免费商用。核心定位中国首个开源MoE架构千亿参数大模型(671B)多模态理解能力:文本/图像/音视频混合数据处理技术突破混合专家架构(MoE):动态激活专家模块提升效率多头潜在注意力(MLA):多维度特征捕捉万亿token训练数据:医疗/编程/法律等专业领域优势AI+国产+免费+开源+强大二、DeepSeek应用场景全景企业级应用智能客服:多轮对话与情感分析(日均处理百万级咨询)代码开发:项目级代码补全与调试(支持30+编程语言)垂直领域医疗辅助:症状识别准确率提升40%1教育创新:个性化学习方案生成(覆盖K12到职业教育),教育:学科解题/语言陪练(展示数学题分步解析)生活服务智能行程规划:多条件约束优化(天气/预算/偏好)内容创作:爆款文案生成(支持多平台风格适配),生成元宵节灯谜示例科研:论文润色/数据可视化(展示4数据分析案例)开发:代码生成/自动化测试(演示简单脚本编写)三、华为云深度集成优势昇腾算力加持昇腾(Ascend)是华为自主研发的一系列高性能AI处理器,广泛应用于加速人工智能计算,包括训练和推理算力与性能:升腾910作为旗舰级AI处理器,基于达芬奇架构,采用先进的7nm工艺制造,特别适合大规模AI训练,在INT8精度下表现出色。达芬奇架构指令集:具有高度灵活性,支持高效运算密集型CISC指令,专门用于神经网络,有助于新模型的研发和快速部署。部署革命ModelEngine平台:一键部署DeepSeek全系模型对偶流水线机制:GPU利用率提升至92%生态优势与ZStack/腾讯云/阿里云对比:唯一支持国产芯片私有化部署四、基础环境搭建(一)安装 Ollama常规下载首先,访问Ollama 官网 ,根据你的操作系统(Windows、Mac 或 Linux),选择对应的安装包进行下载。我这里以mac和windows为例,如果大家安装不了,也可以在我的公众号nutpi回复“Ollama”获取快速下载链接。安装验证安装完成后,为了确认 Ollama 是否成功安装,在终端输入ollama -v 。如果安装正确,终端会显示 Ollama 的版本号,这就表明你已经成功完成了基础环境搭建的第一步。关于如何打开终端,我想说的是mac的话,找到这个工具,windows的话,win+r输入cmd。然后检查ollama -v下载完成后,按照安装向导的提示逐步完成安装。在安装过程中,Ollama 服务会自动在电脑后台运行。五、模型部署(一)依据硬件精准选型打开Ollama 模型库 ,你会看到丰富多样的 DeepSeek-R1 模型版本,如 1.5B、7B、32B 等。根据自身电脑硬件配置来选择合适的模型版本至关重要。以下是本地部署 DeepSeek 系列模型(1.5B、7B、8B、14B、32B)在 Windows、macOS、Linux 三个平台的最低和推荐硬件配置指南。配置需求主要基于模型的显存(GPU)、内存(RAM)和计算资源需求,同时考虑不同平台的优化差异。通用配置原则模型显存占用(估算):每1B参数约需 1.5-2GB显存(FP16精度)或 0.75-1GB显存(INT8/4-bit量化)。例如:32B模型在FP16下需约 48-64GB显存,量化后可能降至 24-32GB。内存需求:至少为模型大小的2倍(用于加载和计算缓冲)。存储:建议NVMe SSD,模型文件大小从1.5B(约3GB)到32B(约64GB)不等。分平台配置建议以下按模型规模和平台分类,提供 最低配置 和 推荐配置。1.5B 模型平台最低配置推荐配置Windows- CPU: Intel i5 / Ryzen 5- CPU: Intel i7 / Ryzen 7- RAM: 8GB- RAM: 16GB- GPU: NVIDIA GTX 1650 (4GB)- GPU: RTX 3060 (12GB)macOS- M1/M2 芯片(8GB 统一内存)- M1 Pro/Max 或 M3 芯片(16GB+)Linux- CPU: 4核- CPU: 8核- RAM: 8GB- RAM: 16GB- GPU: NVIDIA T4 (16GB)- GPU: RTX 3090 (24GB)7B/8B 模型平台最低配置推荐配置Windows- CPU: Intel i7 / Ryzen 7- CPU: Intel i9 / Ryzen 9- RAM: 16GB- RAM: 32GB- GPU: RTX 3060 (12GB)- GPU: RTX 4090 (24GB)macOS- M2 Pro/Max(32GB 统一内存)- M3 Max(64GB+ 统一内存)Linux- CPU: 8核- CPU: 12核- RAM: 32GB- RAM: 64GB- GPU: RTX 3090 (24GB)- 多卡(如2x RTX 4090)14B 模型平台最低配置推荐配置Windows- GPU: RTX 3090 (24GB)- GPU: RTX 4090 + 量化优化- RAM: 32GB- RAM: 64GBmacOS- M3 Max(64GB+ 统一内存)- 仅限量化版本,性能受限Linux- GPU: 2x RTX 3090(通过NVLink)- 多卡(如2x RTX 4090 48GB)- RAM: 64GB- RAM: 128GB32B 模型平台最低配置推荐配置Windows- 不推荐(显存不足)- 需企业级GPU(如RTX 6000 Ada)macOS- 无法本地部署(硬件限制)- 云API调用Linux- GPU: 4x RTX 4090(48GB显存)- 专业卡(如NVIDIA A100 80GB)- RAM: 128GB- RAM: 256GB + PCIe 4.0 SSD平台差异说明Windows:依赖CUDA和NVIDIA驱动,推荐使用RTX 30/40系列。大模型(14B+)需借助量化或模型分片技术。macOS:仅限Apple Silicon芯片(M1/M2/M3),依赖Metal加速。模型规模超过14B时性能显著下降,建议量化或云端部署。Linux:支持多GPU扩展和高效资源管理(如NVIDIA Docker)。适合部署大型模型(14B+),需专业级硬件。注意事项量化优化:使用4-bit/8-bit量化可大幅降低显存需求(如bitsandbytes)。框架支持:优先选择优化好的库(如vLLM、DeepSpeed、HuggingFace)。散热:长时间推理需确保散热(建议风冷/水冷)。建议根据实际需求选择硬件,并优先在Linux环境下部署大模型。(二)顺利下载与稳定运行确定适合自己电脑配置的模型版本后,就可以开始下载和运行模型了。打开终端或 CMD 命令窗口,输入对应的运行指令:若选择 1.5B 版本,输入ollama run deepseek-r1:1.5b 。若选择 7B 版本,输入ollama run deepseek-r1:7b 。我Mac选择的是这个。若选择 8B 版本,输入ollama run deepseek-r1:8b 。我win选择的是这个。若选择 32B 版本,输入ollama run deepseek-r1:32b 。六、打造专属 AI 聊天室(一)安装配置 “Cherry Studio”下载前往Cherry Studio 官方网站,根据你的操作系统(支持 Windows、Mac 和 Linux)下载对应的安装包安装下载完成后,对于 Windows 系统,双击安装包,按照安装向导提示完成安装,期间可能需要同意用户协议、选择安装路径等常规步骤;对于 Mac 系统,将下载的应用程序文件拖移到 “应用程序” 文件夹;配置打开 Cherry Studio,在设置中找到 “模型设置” 选项。模型选择:从模型列表中选择与你本地部署的 DeepSeek-R1 模型版本对应的选项,如果没有直接匹配项,选择支持自定义模型配置的入口。自定义配置:在自定义配置中,将 API 地址设置为http://localhost:11434 ,这是 Ollama 服务的默认接口地址,确保 Cherry Studio 能连接到本地运行的 DeepSeek-R1 模型。模型参数设置:根据你的硬件配置和使用需求,设置模型的相关参数,如最大生成长度、温度等,一般默认参数即可满足常见需求,但对于特定任务,你可以适当调整,比如生成创意文本时,可将温度调高至 0.8 - 1.0,以增加文本的多样性;进行严谨的知识问答时,可将温度调低至 0.5 - 0.7 ,使回答更稳定。API密钥大家随意设置就好,然后点击检查就好。配置完成后大家记得默认模型也可以配制成deepseek。(二)安装配置Chatbox 客户端Chatbox AI 是一款 AI 客户端应用和智能助手,支持众多先进的 AI 模型和 API,可在 Windows、MacOS、Android、iOS、Linux 和网页版上使用为了更便捷地与部署好的 DeepSeek-R1 模型进行交互,你可以下载开源客户端 Chatbox。访问官网 即可进行下载。Chatbox 支持中文界面与 Markdown 渲染,使用起来非常方便。下载安装好 Chatbox 后,打开软件进行关键配置:API 类型:选择 “OLLAMA”,这一步能确保 Chatbox 与我们部署的 DeepSeek-R1 模型进行正确通信。**接口地址:**填写http://localhost:11434 ,这个地址是 Ollama 服务的默认接口地址,通过它 Chatbox 可以连接到本地运行的 DeepSeek-R1 模型。模型名称:务必填写与之前下载的模型版本完全一致的名称,例如,如果之前下载的是 7B 版本,模型名称就必须填写deepseek-r1:7b ,否则可能会导致连接失败。通过以上步骤,你不仅可以使用 Cherry Studio还能通过Chatbox 与本地部署的 DeepSeek-R1 模型进行交互。希望大家都能顺利部署,开启属于自己的 AI 探索之旅。大家遇到问题也可以在后台私信我。这里面大家还有一个问题,就是如果自己的电脑环境配置不好,那么本地部署就玩不了,没事,这里面硅基流动x 华为云联合推出基于昇腾云的 DeepSeek R1&V3 推理服务!也是一个很不错的选择。七、硅基流动配置第一步,登陆账号,然后创建密钥,第二步cherry Studio配置打开设置,选择硅基流动,打开开关,然后上面复制的密钥添加进来,并在管理选择对应的模型。点击检查,看是否OK,第三步配置默认模型为了方便,我们还可以配置默认模型为deepseek-ai/DeepSeek-R1。第四步配置知识库首先在硅基流动配置嵌入模型然后配置知识库的时候,就可以看到硅基流动的嵌入模型啦。配置好以后,就可以添加对应的文件等作为知识库的内容啦。输入信息的时候,选择知识库,就可以啦,比如这里选择坚果派,选择好,以后,就可以对话啦第五步测试效果八、如何使用 DeepSeekrompt 万能框架一给大家一个公式身份:你是谁?(学生/打工牛马/…)任务:要解决什么问题?(写报告/做计划/分析数据…)细节:限制条件是什么?(时间/场景/禁忌…)格式:想要什么形式的结果?(表格/分段/口语化…)套用公式按“身份→任务→细节→格式”顺序重组问题:> “作为(身份),请(任务),要求(细节),用(格式)输出” 。不信你试试。请给出本地部署deepseek的电脑配置,要求包含每一个模型1.5b,7b,8b,14b,32b等,以及windows。mac。linux三个平台的硬件参数Prompt 万能框架二prompt万能框架=立角色+述问题+定目标+补要求。以下是使用Mermaid语法制作的「Prompt万能框架」甘特图,并提供修改说明:2025-05-062025-05-062025-05-072025-05-072025-05-082025-05-082025-05-092025-05-092025-05-102025-05-102025-05-11定义背景角色 明确对话立场 分析问题本质 设定问题边界 制定核心目标 规划成果形式 补充细节要求 设定约束条件 ▶️ 立角色❓ 述问题🎯 定目标📝 补要求Prompt万能框架甘特图在编写 Prompt 时,从0到1地编写出第一版 Prompt 往往是最难的,而基于已有 Prompt 利用各种技巧进行优化则相对简单。如上图所示,我们使用了一套 “万能模版”,把一个 Prompt 拆分成了 “立角色 + 述问题 + 定目标 + 补要求” 这四个部分,利用这个模版可以得到一个“及格”的 Prompt。下面我就具体和大家阐述一下这个模版是如何得到的,为什么他是有效的。Prompt 的作用就是根据我们的问题调用模型的能力,我们要通过提问的方式,明确的让模型知道我们想要什么,我们的目标是什么,从这个基本思想出发,Prompt 应该包含以下几点:问题是什么:首先你要告诉模型你的问题是什么,你的任务是什么,要尽量描述清楚你的需求。你要做什么:下面你需要告诉大模型具体要做什么,比如做一份攻略,写一段代码,对文章进行优化,等等。有什么要求:最后我们往往还需求对任务补充一些要求,比如按特定格式输出,规定长度限制,只输出某些内容,等等。通这 3 部分的描述我们就把 “要大模型做什么” 描述清楚了,这个想法十分自然,即便不是大模型,而是希望其他人为你完成某项任务,往往也需要通过这 3 部分把问题描述清楚。由于这仅仅是第一版 Prompt,你不需要描述的过于详细,也不需要使用技巧,只需要用简练的语言把这几部分描述清晰即可。参考Ollama 官网Ollama 模型库Cherry Studio 官方网站Chatbox官网坚果派硅基流动x 华为云联合推出基于昇腾云的 DeepSeek R1&V3 推理服务DeepSeek 提示词编写技巧典藏版!
  • [案例共创] 【案例共创】轻松搭建知识库:CherryStudio 联手华为云的实践指南
    轻松搭建知识库:CherryStudio 联手华为云的实践指南在当今数字化时代,知识管理对于个人和企业都至关重要。CherryStudio 作为一款全能 AI 助手平台,与华为云强强联手,为用户提供了搭建本地知识库系统的便捷方案。本文将详细介绍如何利用 CherryStudio 和华为云实现知识库的搭建和管理。一、CherryStudio:全能 AI 助手平台CherryStudio 是一款集多模型对话、知识库管理、AI 绘画、翻译等功能于一体的全能 AI 助手平台。其高度自定义的设计、强大的扩展能力和友好的用户体验,使其成为专业用户和 AI 爱好者的理想选择。无论是零基础用户还是开发者,都能在 CherryStudio 中找到适合自己的 AI 功能,提升工作效率和创造力。二、本地知识库系统(一)多种格式支持本地知识库系统支持 PDF、DOCX、PPTX、XLSX、TXT、MD 等多种文件格式导入,满足用户不同的文档管理需求。(二)多种数据源支持系统支持本地文件、网址、站点地图甚至手动输入内容作为知识库源,方便用户从多种渠道获取和整合知识。(三)知识库导出用户可以将处理好的知识库导出并分享给他人使用,实现知识的共享和传播。(四)支持搜索检查知识库导入后,用户可实时检索测试,查看处理结果和分段效果,确保知识库的质量和可用性。三、华为云操作步骤(一)创建账号登录首先,到 华为云 创建账号并登录。(二)进入 Maa S 控制台点击 此链接,进入 Maa S 控制台。(三)授权在控制台中进行授权操作,确保后续操作的顺利进行。(四)模型部署点击侧栏的 “模型部署”,全部领取,以便使用华为云提供的模型资源。(五)创建 API Key点击侧栏的 “鉴权管理”,创建 API Key(秘钥)并复制,用于后续在 CherryStudio 中的配置。(六)在 CherryStudio 中配置在 CherryStudio 里创建新服务商,创建华为云。将服务商地址粘贴到 CherryStudio 的服务商地址当中,并在结尾加上 “#” 号。然后把模型名称复制,到 CherryStudio 当中点 “+ 添加” 按钮新建模型,输入模型名称,不要添油加醋,不要带引号,按照示例中的写法进行操作。点击添加模型按钮即可完成添加。粘贴到CherryStudio的服务商地址当中并在结尾加上“#”号然后把模型名称复制,到CherryStudio当中点“+添加”按钮新建模型,输入模型名称,不要添油加醋,不要带引号,示例当中怎么写就怎么抄。四、总结通过以上步骤,华为云、本地知识库和 CherryStudio 就能够很好地结合在一起。结合鸿蒙知识,整个系统形成了一个闭环,为用户提供了一个高效、便捷的知识管理解决方案。无论是个人用户还是企业用户,都可以利用这一方案提升知识管理的效率和质量,实现知识的快速检索、共享和应用。五、未来展望随着技术的不断发展,CherryStudio 和华为云将继续优化和升级,为用户提供更多功能和更好的体验。我们期待这一解决方案能够在更多领域得到应用,为用户创造更大的价值。六、致谢感谢华为云提供的强大技术支持,以及 CherryStudio 团队的不懈努力。同时,感谢所有开发者的信任和支持。总结:CherryStudio 与华为云的结合,为用户搭建本地知识库系统提供了高效、便捷的解决方案。通过简单的操作步骤,用户可以轻松实现知识库的搭建、管理和应用。这一方案不仅提升了知识管理的效率,还为用户提供了更广阔的应用空间。我们相信,随着技术的不断进步,CherryStudio 和华为云将为用户带来更多惊喜和价值。
  • AI可以把开发中的任意高级语言程序代码转换为不同厂商 的优化中间件代码
    AI可以把开发中的任意高级语言程序代码转换为  不同厂商  的底层优化的硬件汇编。不同的硬件开发商,直接定制训练自己的AI模型,每个硬件厂商拥有一个生成中间件汇编代码的替代类编译器,提供给第三方使用。
  • [问题求助] sparksql 不支持插入指定字段吗
    有一种A表,建表语句如下:drop table if exists a;create table if not exists a(c1 string,c2 string,c3 string,c4 string);插入语句insert_sql:insert into table a(c1,c2,c3)select 'c1','c2','c3';hive里面执行不报错,sparksql执行会报错,报目标表和插入的列数不一致,是sparksql不支持插入指定字段吗?
  • [问题求助] 第十期问题可以用Python/Matlab编程语言吗
    请问,第十期问题可以用Python/Matlab编程语言吗
  • [问题求助] 第十一期【磁带同步问题】判题程序疏漏修复和暂停提交说明
    message.rpmsg在Outlook里无法打开, Outlook里没有打开rpmsg的操作!里面是什么内容?谁能发一下!
  • 如何处理比赛中的多行输入
    已经解决了,虽然这个问题很基础,但也许有朋友和我一样被卡住了这里的逻辑是,对于每一个测试用例,后台会调用这个.py文件进行一次处理,因此,对于输入的处理不能有循环,否则就是死循环,出不来lines = []line = list(map(int, input().split()))if line: lines.append(line)for i in range(lines[0][0]): line = list(map(int, input().split())) lines.append(line)processing(lines)########## 分界线 ##########各位大佬,我是第一次参加,请问应该怎么处理以下这种多行输入?输入输出示例:我用的是python,我是这样处理的,不知道有没有问题while True: lines = [] line = list(map(int, input().split())) if line: lines.append(line) for i in range(lines[0][0]): line = list(map(int, input().split())) lines.append(line)打印lines如:[[5, 2, 9], [4, 1, 2, 6], [7, 2, 3, 1], [4, 3, 3, 4], [7, 1, 1, 8], [4, 2, 2, 7]]这种方式会一直运行while循环,不知道有没有问题,想问问大家都是怎么写这块输入的
  • [问题求助] bearpi nano
    如何在bearpi hm nano中运行舵机sg90,求代码
  • [问题求助] IVR以GSL的方式开发,只放音不收号的cell需要使用哪个cell怎么配置
    【问题来源】            重庆银行(易云)【问题简要】            IVR以GSL的方式开发,只放音不收号的cell需要使用哪个cell怎么配置【问题类别】【必填】    IVR-GSL【AICC解决方案版本】【必填】      AICC可选择版本:AICC 23.200    【UAP可选择版本:V300R001C02SPC109】    【CTI可选择版本:V300R008C25SPC019】【期望解决时间】      尽快【问题现象描述】【必填】         IVR以GSL的方式开发,只放音不收号(也就是放音的时候不被打断)的cell需要使用哪个cell怎么配置
  • [问题求助] python版 codearts input问题
    def print_hi(name): # Use a breakpoint in the code line below to debug your script. print(f'Hi, {name}') inp = input("Enter your name:") print(f"Hello {inp}")# Press the green button in the gutter to run the script.if __name__ == '__main__': print_hi('CodeArts')运行,输入:chen 报错:Traceback (most recent call last): File "", line 1, in NameError: name 'chen' is not defined。 在pycharm就不会报错,这是什么问题?
  • [问题求助] TabBar 在编译后不显示怎么处理
    代码为:Tabs({barPosition:BarPosition.End}) { TabContent(){ Home() }.tabBar(this.TabBuilder(buttonInfo[0]))编译后底部的 tabBar 却不显示了,
  • [分享交流] 在Linux中,如何在Linux中使用Ansible进行自动化部署?
    在Linux中使用Ansible进行自动化部署是一个高效且灵活的过程,它允许您通过简单的YAML剧本(Playbooks)来描述部署步骤,然后在目标主机上执行这些步骤以达到自动化配置、部署和管理的目的。以下是使用Ansible进行自动化部署的基本步骤:1. 安装Ansible首先,确保您的Linux系统已安装Ansible。大多数现代Linux发行版都可以通过包管理器来安装Ansible。例如,在基于Debian的系统(如Ubuntu)上,可以使用如下命令: sudo apt updatesudo apt install ansible而在基于RPM的系统(如CentOS或RHEL)上,可以使用: sudo yum install epel-releasesudo yum install ansible2. 配置AnsibleInventory文件:Ansible使用inventory文件来管理主机和组。默认情况下,Ansible查找/etc/ansible/hosts文件。您可以编辑此文件来添加您的主机和定义组。例如: [webservers]host1.example.comhost2.example.com[databases]db1.example.comdb2.example.comAnsible配置文件(可选):位于/etc/ansible/ansible.cfg,可以根据需要调整配置,比如SSH连接的默认参数。3. 创建Ansible PlaybookPlaybook是Ansible的核心,它是定义部署任务的文件,使用YAML格式编写。一个简单的Playbook示例可能如下所示,用于安装并启动一个Web服务器: ---- name: Deploy web serverhosts: webserversbecome: yestasks:- name: Install Apacheapt:name: apache2state: presentwhen: ansible_os_family == 'Debian'- name: Install httpdyum:name: httpdstate: presentwhen: ansible_os_family == 'RedHat'- name: Start Apache/httpd serviceservice:name: "{{ 'apache2' if ansible_os_family == 'Debian' else 'httpd' }}"state: startedenabled: yes4. 运行Playbook使用ansible-playbook命令运行Playbook。例如,如果上述Playbook保存为web-deploy.yml,则运行: ansible-playbook web-deploy.yml5. 管理变量、角色和模板变量:可以在Playbook、inventory文件或单独的变量文件中定义变量,用于定制化部署。角色:角色是一组相关任务、变量和文件的集合,用于组织和复用配置逻辑。模板:使用Jinja2模板引擎生成配置文件,动态插入变量值。6. 进阶功能Handler:用于定义只有在特定任务改变系统状态后才执行的操作,如服务重启。条件判断:利用when语句根据条件执行任务。错误处理:使用ignore_errors和rescue块来控制错误处理逻辑。综上所述,你可以有效地利用Ansible自动化部署和管理Linux服务器,从简单的软件安装到复杂的多阶段部署都能轻松应对。随着对Ansible的深入使用,您还可以探索其更多高级功能,如动态inventory、密钥管理和Ansible Tower的使用,进一步提升自动化水平和管理效率。咨询链接:https://tb.53kf.com/code/client/37f90f808d091b633d458ea6454dd0307/31如有侵权联系删除
总条数:45 到第
上滑加载中