-
"同事小李上周被老板骂了,就因为他花了3天整理报表数据。而我喝着咖啡刷着剧,5分钟就生成精准报表——别误会,我不是黑客,只是把公司数据库调教成了会说话的AI管家!"一、为什么要跪着看这篇教程?在这个人均ChatGPT的时代,你还靠人肉查数据?今天要搞的这套"智能知识库系统"有多逆天:老板说"我要上周华东区热销单品",直接生成SQL报表运营妹子问"用户复购率top3品类",秒出可视化图表新人查资料不用翻wiki,直接对话调取知识库重点来了!整套方案零!成!本!华为云免费主机 + 200万token大模型 + 开箱即用的神器AntSK = 打工人の摸鱼神器二、华为云的正确薅法(手把手教学)Step1:领取你的免费赛博打工人浏览器输入:cid:link_1进入我的云主机黑科技说明书:华为云开发者空间就像个24小时待命的数字员工宿舍,我们即将在这里部署:学霸级AI大脑:DeepSeek-R1(32B参数大佬)知识库管家:AntSK(微软Semantic Kernel加持)三、保姆级部署指南(含避坑大全)▍Stage1:给你的云主机装外挂在终端输入这段魔法咒语:bash复制sudo apt-get install git -y # 别问,问就是装个时光机避坑TIP:如果遇到"Permission denied",请深情朗诵三遍:"sudo大法好,权限保平安"▍Stage2:召唤AntSK神器复制粘贴这段代码,你将获得价值百万的开源项目:bash复制git clone https://github.com/AIDotNet/AntSK.git接下来我们需要安装一下dotnet8环境,此处省略。sudo dotnet cleansudo dotnet buildsudo dotnet publish "AntSK.csproj"cd /antsk/AntSK/src/AntSK/bin/Release/net8.0/publish/sudo AntSK.dll安装好以后,我们启动项目然后我们访问127.0.0.1:5000/user/login然后我们需要申请一下ModelArts Studio的模型 https://console.huaweicloud.com/modelarts/?region=cn-east-4&locale=zh-cn#/model-studio/square 进入ModelArts Studio单个模型可以免费使用200W Token这里我选择的是 DeepSeek-R1-Distill-Qwen-32B-4K选择好以后,需要创建一个Api Key然后我们就可以直接使用这个模型进入模型配置页面我们还需要一个向量模型,这里使用硅基流动的免费的bge-m3接下来我们可以创建应用测试看看我们可以看到,对话已经通了,接下来我们创建知识库进行测试我们导入一个简单的文本进行测试我们可以看到。向量已经处理完成我们重新创建一个知识库然后我们测试看看效果到此我们就通过华为云开发者空间的免费云主机和 Model Arts 完成了一个知识库搭建 项目亮点剧透:这个基于.NET8的黑科技,能轻松实现:智能客服秒回"亲"企业级知识图谱甚至帮你写情书(误)四、模型界的复仇者联盟▍ModelArts Studio:你的AI军火库猛戳这个神秘链接:https://console.huaweicloud.com/modelarts/?region=cn-east-4选模型就像选男友:要聪明:DeepSeek-R1(32B参数智商担当)要持家:免费200万token(足够聊到天荒地老)要贴心:bge-m3向量模型(中文理解小能手)五、让数据库开口说话の奥义▍知识库调教指南:上传公司文档时,建议先喂点"零食":产品手册.pdf(主食)销售数据.xlsx(甜点)甚至老板的语音备忘录.mp3(黑暗料理)向量化处理时,可以泡杯咖啡灵魂拷问测试:尝试输入:"去年Q4华南区手机配件毛利率是多少?"当系统自动生成SQL时——"动了动了!它自己会写JOIN语句了!"六、打工人の逆袭时刻现在你拥有:✅ 智能问答系统127.0.0.1:5000✅ 自动报表生成器✅ 24小时AI客服升职加薪话术:"王总,我做了个能自动分析销售数据的人工智能系统,预计每年可节省2000小时人工..." 终极秘籍:遇到任何问题,在AntSK的GitHub页面:https://github.com/AIDotNet/AntSK提issue时加上"跪求大佬",触发开发者BUFF加成结语:当你完成部署的那一刻,无数个加班的夜晚将离你远去。P.S. 据说点赞收藏的小伙伴,下周都会收到涨薪通知单~
-
"同事小李上周被老板骂了,就因为他花了3天整理报表数据。而我喝着咖啡刷着剧,5分钟就生成精准报表——别误会,我不是黑客,只是把公司数据库调教成了会说话的AI管家!"一、为什么要跪着看这篇教程?在这个人均ChatGPT的时代,你还靠人肉查数据?今天要搞的这套"智能知识库系统"有多逆天:老板说"我要上周华东区热销单品",直接生成SQL报表运营妹子问"用户复购率top3品类",秒出可视化图表新人查资料不用翻wiki,直接对话调取知识库重点来了!整套方案零!成!本!华为云免费主机 + 200万token大模型 + 开箱即用的神器AntSK = 打工人の摸鱼神器二、华为云的正确薅法(手把手教学)Step1:领取你的免费赛博打工人浏览器输入:cid:link_1进入我的云主机黑科技说明书:华为云开发者空间就像个24小时待命的数字员工宿舍,我们即将在这里部署:学霸级AI大脑:DeepSeek-R1(32B参数大佬)知识库管家:AntSK(微软Semantic Kernel加持)三、保姆级部署指南(含避坑大全)▍Stage1:给你的云主机装外挂在终端输入这段魔法咒语:bash复制sudo apt-get install git -y # 别问,问就是装个时光机避坑TIP:如果遇到"Permission denied",请深情朗诵三遍:"sudo大法好,权限保平安"▍Stage2:召唤AntSK神器复制粘贴这段代码,你将获得价值百万的开源项目:bash复制git clone https://github.com/AIDotNet/AntSK.git接下来我们需要安装一下dotnet8环境,此处省略。sudo dotnet cleansudo dotnet buildsudo dotnet publish "AntSK.csproj"cd /antsk/AntSK/src/AntSK/bin/Release/net8.0/publish/sudo AntSK.dll安装好以后,我们启动项目然后我们访问127.0.0.1:5000/user/login然后我们需要申请一下ModelArts Studio的模型 https://console.huaweicloud.com/modelarts/?region=cn-east-4&locale=zh-cn#/model-studio/square 进入ModelArts Studio单个模型可以免费使用200W Token这里我选择的是 DeepSeek-R1-Distill-Qwen-32B-4K选择好以后,需要创建一个Api Key然后我们就可以直接使用这个模型进入模型配置页面我们还需要一个向量模型,这里使用硅基流动的免费的bge-m3接下来我们可以创建应用测试看看我们可以看到,对话已经通了,接下来我们创建知识库进行测试我们导入一个简单的文本进行测试我们可以看到。向量已经处理完成我们重新创建一个知识库然后我们测试看看效果到此我们就通过华为云开发者空间的免费云主机和 Model Arts 完成了一个知识库搭建 项目亮点剧透:这个基于.NET8的黑科技,能轻松实现:智能客服秒回"亲"企业级知识图谱甚至帮你写情书(误)四、模型界的复仇者联盟▍ModelArts Studio:你的AI军火库猛戳这个神秘链接:https://console.huaweicloud.com/modelarts/?region=cn-east-4选模型就像选男友:要聪明:DeepSeek-R1(32B参数智商担当)要持家:免费200万token(足够聊到天荒地老)要贴心:bge-m3向量模型(中文理解小能手)五、让数据库开口说话の奥义▍知识库调教指南:上传公司文档时,建议先喂点"零食":产品手册.pdf(主食)销售数据.xlsx(甜点)甚至老板的语音备忘录.mp3(黑暗料理)向量化处理时,可以泡杯咖啡灵魂拷问测试:尝试输入:"去年Q4华南区手机配件毛利率是多少?"当系统自动生成SQL时——"动了动了!它自己会写JOIN语句了!"六、打工人の逆袭时刻现在你拥有:✅ 智能问答系统127.0.0.1:5000✅ 自动报表生成器✅ 24小时AI客服升职加薪话术:"王总,我做了个能自动分析销售数据的人工智能系统,预计每年可节省2000小时人工..." 终极秘籍:遇到任何问题,在AntSK的GitHub页面:https://github.com/AIDotNet/AntSK提issue时加上"跪求大佬",触发开发者BUFF加成结语:当你完成部署的那一刻,无数个加班的夜晚将离你远去。P.S. 据说点赞收藏的小伙伴,下周都会收到涨薪通知单~
-
"同事小李上周被老板骂了,就因为他花了3天整理报表数据。而我喝着咖啡刷着剧,5分钟就生成精准报表——别误会,我不是黑客,只是把公司数据库调教成了会说话的AI管家!"一、为什么要跪着看这篇教程?在这个人均ChatGPT的时代,你还靠人肉查数据?今天要搞的这套"智能知识库系统"有多逆天:老板说"我要上周华东区热销单品",直接生成SQL报表运营妹子问"用户复购率top3品类",秒出可视化图表新人查资料不用翻wiki,直接对话调取知识库重点来了!整套方案零!成!本!华为云免费主机 + 200万token大模型 + 开箱即用的神器AntSK = 打工人の摸鱼神器二、华为云的正确薅法(手把手教学)Step1:领取你的免费赛博打工人浏览器输入(此处做超链接):cid:link_1 黑科技说明书:华为云开发者空间就像个24小时待命的数字员工宿舍,我们即将在这里部署:学霸级AI大脑:DeepSeek-R1(32B参数大佬)知识库管家:AntSK(微软Semantic Kernel加持)三、保姆级部署指南(含避坑大全)▍Stage1:给你的云主机装外挂在终端输入这段魔法咒语:bash复制sudo apt-get install git -y # 别问,问就是装个时光机避坑TIP:如果遇到"Permission denied",请深情朗诵三遍:"sudo大法好,权限保平安"▍Stage2:召唤AntSK神器复制粘贴这段代码,你将获得价值百万的开源项目:bash复制git clone https://github.com/AIDotNet/AntSK.git接下来我们需要安装一下dotnet8环境,此处省略。sudo dotnet cleansudo dotnet buildsudo dotnet publish "AntSK.csproj"cd /antsk/AntSK/src/AntSK/bin/Release/net8.0/publish/sudo AntSK.dll安装好以后,我们启动项目然后我们访问127.0.0.1:5000/user/login然后我们需要申请一下ModelArts Studio的模型 https://console.huaweicloud.com/modelarts/?region=cn-east-4&locale=zh-cn#/model-studio/square 进入ModelArts Studio单个模型可以免费使用200W Token这里我选择的是 DeepSeek-R1-Distill-Qwen-32B-4K选择好以后,需要创建一个Api Key然后我们就可以直接使用这个模型进入模型配置页面我们还需要一个向量模型,这里使用硅基流动的免费的bge-m3接下来我们可以创建应用测试看看我们可以看到,对话已经通了,接下来我们创建知识库进行测试我们导入一个简单的文本进行测试我们可以看到。向量已经处理完成我们重新创建一个知识库然后我们测试看看效果到此我们就通过华为云开发者空间的免费云主机和 Model Arts 完成了一个知识库搭建 项目亮点剧透:这个基于.NET8的黑科技,能轻松实现:智能客服秒回"亲"企业级知识图谱甚至帮你写情书(误)四、模型界的复仇者联盟▍ModelArts Studio:你的AI军火库猛戳这个神秘链接:https://console.huaweicloud.com/modelarts/?region=cn-east-4选模型就像选男友:要聪明:DeepSeek-R1(32B参数智商担当)要持家:免费200万token(足够聊到天荒地老)要贴心:bge-m3向量模型(中文理解小能手)五、让数据库开口说话の奥义▍知识库调教指南:上传公司文档时,建议先喂点"零食":产品手册.pdf(主食)销售数据.xlsx(甜点)甚至老板的语音备忘录.mp3(黑暗料理)向量化处理时,可以泡杯咖啡灵魂拷问测试:尝试输入:"去年Q4华南区手机配件毛利率是多少?"当系统自动生成SQL时——"动了动了!它自己会写JOIN语句了!"六、打工人の逆袭时刻现在你拥有:✅ 智能问答系统127.0.0.1:5000✅ 自动报表生成器✅ 24小时AI客服升职加薪话术:"王总,我做了个能自动分析销售数据的人工智能系统,预计每年可节省2000小时人工..." 终极秘籍:遇到任何问题,在AntSK的GitHub页面:https://github.com/AIDotNet/AntSK提issue时加上"跪求大佬",触发开发者BUFF加成结语:当你完成部署的那一刻,无数个加班的夜晚将离你远去。P.S. 据说点赞收藏的小伙伴,下周都会收到涨薪通知单~
-
你们怎么看最近火爆 AI 编程圈的 MCP 协议?对Agent,或者大模型输出的准确度帮助大吗?MCP 就是 Anthropic (Claude) 主导发布的一个开放的、通用的、有共识的协议标准。Model Context Protocol (MCP)MCP 是一个标准协议,就像给 AI 大模型装了一个 “万能接口”,让 AI 模型能够与不同的数据源和工具进行无缝交互。它就像 USB-C 接口一样,提供了一种标准化的方法,将 AI 模型连接到各种数据源和工具。MCP 旨在替换碎片化的 Agent 代码集成,从而使 AI 系统更可靠,更有效。通过建立通用标准,服务商可以基于协议来推出它们自己服务的 AI 能力,从而支持开发者更快的构建更强大的 AI 应用。开发者也不需要重复造轮子,通过开源项目可以建立强大的 AI Agent 生态。MCP 可以在不同的应用 / 服务之间保持上下文,从而增强整体自主执行任务的能力。
-
一、华为云产品与DeepSeek技术融合价值华为开发者空间为开发者提供了一站式云原生开发环境,整合了昇腾AI算力、鲲鹏处理器等根技术资源。结合华为云MaaS(大模型即服务),开发者可快速调用DeepSeek-R1/V3等开源大模型,实现从代码生成到部署的全流程优化。DeepSeek的RLHF(基于人类反馈的强化学习)技术显著提升了代码生成的逻辑性和实用性,尤其在金融领域,其处理复杂业务逻辑和数据处理需求时表现突出。二、开发环境搭建与DeepSeek部署1. 开发环境准备华为云账号:完成实名认证后云主机部署:在开发者空间创建云主机(注意不要选择ARM型主机,内存4G以上),安装Ubuntu 22.04系统。DeepSeek部署:通过ollama工具部署DeepSeek-R1:1.5B模型,命令:bashcurl -fssl https://ollama.com/install.sh | shollama run deepseek-r1:1.5b验证模型:输入你好,<think>触发交互式问答。2. DeepSeek Token获取登录华为云MaaS控制台,进入“模型推理-旧版服务”,选择DeepSeek版本并领取200万免费Token,用于后续API调用。三、智能代码生成助手开发实践1. 功能设计场景:金融领域自动化代码生成。技术架构:前端:HarmonyOS NEXT应用(DevEco Studio 5.0.9)集成CodeGPT插件,调用DeepSeek API。后端:云主机部署DeepSeek模型,通过RESTful API与前端交互。知识库:基于RAG技术构建金融领域代码片段库,提升生成准确性。2. 关键代码实现python代码生成服务接口from flask import Flask, request import openai app = Flask(__name__) openai.api_key = "DeepSeek-API-Key" 从华为云MaaS获取 @app.route('/generate_code', methods='POST') def generate_code(): prompt = request.json'prompt' 调用DeepSeek生成代码 response = openai.Completion.create( engine="deepseek-r1", prompt=prompt, max_tokens=1000 ) return {'code': response.choices0.text.strip()} if __name__ == '__main__': app.run(host='0.0.0.0', port=5000) 代码说明:通过Flask搭建API服务,集成DeepSeek的代码生成能力,支持自然语言指令转代码。3. RAG知识库构建数据集准备:收集金融领域GitHub开源项目代码(如量化交易策略、财务报表分析脚本)。向量索引生成:from langchain.vectorstores import Chromafrom langchain.embeddings import OpenAIEmbeddingsembeddings = OpenAIEmbeddings(api_key=“DeepSeek-API-Key”)database = Chroma.from_documents(code_dataset, embeddings)检索优化:通过昇腾云的稀疏路由算法提升检索效率,响应时间降低30%。四、应用效果与优化1. 实操展示输入指令:“生成基于Python的移动平均线策略代码,支持TA-Lib库调用。”输出示例:import talibimport pandas as pddef moving_average_strategy(data, short_window=5, long_window=20): signals = pd.DataFrame(index=data.index) signals'signal' = 0.0 signals'short_mavg' = talib.SMA(data'close', short_window) signals'long_mavg' = talib.SMA(data'close', long_window) signals'signal'short_window: = np.where(signals'short_mavg'short_window: > signals'long_mavg'short_window:, 1.0, 0.0) return signals 2.后续优化低代码扩展:通过Dify框架构建可视化界面,支持非技术人员配置生成规则。本次实践验证了华为开发者空间与DeepSeek在金融领域的协同价值,未来 结合华为云ModelArts Studio实现自动化部署,探索多模态代码生成(如结合金融数据图表生成分析脚本)。我正在参加【案例共创】第3期:基于华为开发者空间+DeepSeek实现智能代码生成助手 --金融领域代码自动化实践
-
一、技术融合价值与背景华为云与DeepSeek的合作为智能体开发提供了“大脑+手脚”的黄金组合:DeepSeek:作为语言基座,擅长需求理解与框架生成(中文问答准确率64.1%),可快速输出代码框架Manus:作为执行引擎,支持快速任务拆解,能自动调用浏览器、Excel等工具完成复杂流程华为云生态:通过ModelArts Studio提供昇腾算力支持,推理速度较GPU提升30%二、开发环境搭建1. 资源准备华为云账号:完成实名认证后,免费领取DeepSeek相关免费Token- 模型部署:在ModelArts Studio领取DeepSeek-R1-671B-4K模型(200万免费Token)通过ollama工具部署模型,命令:bashcurl -fssl https://ollama.com/install.sh | shollama run deepseek-r1:1.5b2. 工具链配置Dify编排平台:配置OpenAI-API兼容供应商,填入华为云模型API地址(需去掉/v1/chat/completions)Manus Studio:安装插件支持华为云API调用,设置执行超时阈值(建议300秒)三、智能体开发实践1. 功能设计场景:企业级软件开发自动化(如API接口开发、测试用例生成)技术架构:A用户需求 --> B(DeepSeek需求解析) B --> C{Manus任务拆解} C --> D代码生成 C --> E测试用例生成 D --> F代码部署 E --> F F --> G结果反馈 2. 关键代码实现python需求解析接口from flask import Flask, request import openai app = Flask(__name__) openai.api_key = "DeepSeek-API-Key" @app.route('/parse_demand', methods='POST') def parse_demand(): prompt = request.json'prompt' response = openai.Completion.create( engine="deepseek-r1", prompt=prompt, max_tokens=1000 ) return {'tasks': response.choices0.text.strip().split('\n')} 任务执行引擎 import subprocess def execute_task(task): if task'type' == 'code': subprocess.run('python', 'code_generator.py', task'params') elif task'type' == 'test': subprocess.run('pytest', task'params') 多智能体协作yaml协作配置文件smart_agents: - name: code_generator type: deepseek api_key: "your_deeepseek_token" - name: test_executor type: manus tools: - pytest - Selenium --- 四、应用效果与优化1. 实操案例输入指令:“开发用户登录API,支持OAuth2.0认证”输出流程:DeepSeek生成代码框架(耗时5秒)Manus自动创建Git分支并提交代码(耗时12秒)调用Postman生成测试用例(耗时8秒)部署至华为云函数计算(耗时30秒)性能优化昇腾加速:将模型推理部署至昇腾超节点,提升响应速度成本控制:通过华为云弹性伸缩策略,闲时自动释放GPU资源安全加固:启用华为云密钥管理服务(KMS)加密API密钥五、总结与展望本次实践验证了华为云+DeepSeek+Manus的技术组合优势:不但提升代码开发效率,而且华为云MaaS与ModelArts Studio提供稳定运行环境,支持企业级应用落地,未来会继续探索与华为云IoT、GaussDB的深度集成,构建端到端智能体。我正在参加【案例共创】第3期:基于华为云+DeepSeek打造企业级智能体开发实践 ——从需求拆解到自动化执行的技术链路
-
1.Manus是什么?Manus的官网地址:cid:link_0Manus是一个通用AI智能体,它连接思维与行动:它不仅思考,还能交付成果。2. Manus能做什么?最近几天,Manus都刷屏了,但是Manus到底能做什么事呢?筛选简历、研究房产、分析股票等等一系列复杂任务都可以由Manus完成官网演示视频中的第一个Demo是简历筛选,视频是YouTube源,需要点科学上网的能力才能看。演示开始,官方给Manus发送一个包含10份简历的压缩包,并给它指令:我需要招聘算法工程师,评估这10份简历。Manus随后就和专业招聘人员一样,解压文件,逐个分析简历,评估排名等等操作该任务都是在Manus后台完成,提问者可以提交任务后,随时关闭电脑,等任务完成后,Manus会发送通知3. Manus为什么这么火?Manus的独特在于它不仅能理解用户需求,还能主动采取行动完成具体的任务,也就是知行合一,有条不紊地完成各项任务,并直接交付完整成果目前Manus仍然处于内测阶段,想要试用Manus需要邀请码,而官方未大规模放出邀请码,导致在某鱼上邀请码卖出了999元到100万元的天价4.如何申请Manus第一步:注册登录打开官方网站:cid:link_0打开右上角的Get Started按钮第二步:激活账户登录因为还没邀请码,我们点击Apply For Access进入申请页面第三步:申请快速通过技巧到这一步,需要填写申请邀请码的基本信息,其中Email是你要注册的邮箱号,尽量用gmailHow can Manus help you:主要告诉官方,我们拿到Manus后,怎么使用,需要提供需求细节综合来看,官方需要评估我们的身份,尽可能给需要的人群使用。这里给大家提供申请模板的范文,提高申请通过的概率尊敬的Manus团队, 我是[您的姓名],目前担任[公司/机构名称]的[职位,如XR技术负责人/智能硬件开发工程师],同时也是[相关领域社区/开源项目名称]的核心贡献者,在关注到anus的创新方向后,我坚信这项技术将重新定义[具体领域,如人机交互/元字宙入口/康复医疗等],迫切希望以开发者身份参与内测并提供深度反馈。我的相关经验可能对贵司有价值: 1.技术背景:拥有[X]年[AR/VR/智能硬件开发]经验,主导开发过[简述项目名称与成果,如「基于柔性传感器的可穿戴手势识别系统」或「某品牌VR手套SDK优化」],对[传感器数据融合/低延迟交互/生物力学分析]等技术难点有实战经验。 场景洞察:目前正在推进[具体项目或研究方向,如「工业场景下的远程协作XR解决方案」或「神经康2复中的手势追踪应用」1,Manus的[某项具体技术特性]恰好能解决我们当前遇到的[具体问题或瓶颈]。 传播能力:我在[技术社区平台/社交媒体名称]拥有[X]万关注者,曾为[某知名硬件产品]撰写过传播量3.超[X]的测评报告,愿在内测期间通过图文/视频形式记录体验过程。我希望在测试中重点关注: ·硬件在[高精度手势识别/长时间佩戴舒适性/多环境适应性]等维度的表现·SDK与[Unity/Unreal/自研引擎]的兼容性及API设计合理性·为贵方提供[中英双语测试报告/竞品对比分析/开发者社区答疑]等额外支持附件中附上我的[个人技术博客链接/Github主页/代表性项日案例],如需进一步沟通,可随时通过[电话/邮箱]联系。期待能与Manus共同推动行业边界! 顺颂商祺, [您的全名] [联系方式] [个人网站/领英主页] 另外考虑到官方发布会的喜爱,建议优先使用英文的申请Dear Manus Team, I am [Your Name], currently serving as [Your Position, e.g., XR Technology Lead/Smart Hardware Development Engineer] at [Company/Institution Name], and I am also a core contributor to [Relevant Community/Open-Source Project Name]. After learning about Manus's innovative direction, I am convinced that this technology will redefine [Specific Field, e.g., Human-Computer Interaction/Metaverse Access/Rehabilitation Medicine, etc.]. I am eager to participate in the beta testing as a developer and provide in-depth feedback. My relevant experience may be valuable to your team: 1. **Technical Background**: With [X] years of experience in [AR/VR/Smart Hardware Development], I have led the development of [Brief Project Name and Achievements, e.g., "Wearable Gesture Recognition System Based on Flexible Sensors" or "SDK Optimization for a Brand's VR Gloves"]. I have hands-on experience tackling technical challenges such as [Sensor Data Fusion/Low-Latency Interaction/Biomechanical Analysis]. 2. **Scenario Insights**: I am currently advancing [Specific Project or Research Direction, e.g., "XR Remote Collaboration Solution for Industrial Scenarios" or "Gesture Tracking Applications in Neurorehabilitation"]. Manus's [Specific Technical Feature] could precisely address the [Specific Problem or Bottleneck] we are facing. 3. **Communication Capabilities**: I have [X] thousand followers on [Technical Community Platform/Social Media Name] and have authored a review report for [A Well-Known Hardware Product] with over [X] views. I am willing to document my testing experience through articles/videos during the beta period. I hope to focus on the following during the testing: - Hardware performance in areas such as [High-Precision Gesture Recognition/Long-Term Wear Comfort/Multi-Environment Adaptability]. - SDK compatibility with [Unity/Unreal/Proprietary Engine] and the rationality of API design. - Providing additional support such as [Bilingual Test Reports (Chinese/English)/Competitive Analysis/Developer Community Q&A]. Attached are my [Personal Tech Blog Link/Github Profile/Representative Project Cases]. If further discussion is needed, feel free to contact me via [Phone/Email]. I look forward to working with Manus to push the boundaries of the industry! Best regards, [Your Full Name] [Contact Information] [Personal Website/LinkedIn Profile] 账号申请完,就能登录开启Manus之旅了
-
Manus 比起传统的AI Agent厉害在哪里?为什么能继deepseek之后引起这么大轰动?
-
【案例共创】ESC基于RAGFlow和DeepSeek构建本地问答知识库一、案例介绍在人工智能技术飞速发展的当下,企业知识库智能化正成为提升运营效率的核心路径。DeepSeek 几乎家喻户晓,而 RAGFlow 是一个基于深入文档理解的开源RAG(检索增强生成)引擎。当与LLMs集成时,它能够提供真实的问题回答功能,并由来自各种复杂格式数据的有理有据的引用支持。本次我们基于ESC使用 Docker 部署RAGFlow,并使用 ollama 部署 DeepSeek R1 模型和 bge-m3 嵌入模型,体验 RAGFlow 的知识库、对话、Agent等功能,通过RAGFlow的智能文档解析与DeepSeek大语言模型的精准推理能力,构建具备多源异构数据处理、语义深度理解及动态知识更新特征的问答知识库、Agent。二、案例用时本案例总时长预计120分钟。三、案例流程 说明:通过ECS中安装dokcer部署ragflow通过ECS中docker部署ollama来运行deepseek通过配置ragflow来调用deepseek-r1模型能力用过通过公网ip访问ECS从而体验ragflow+deepseek四、资源总览云资源消耗/时时长ECS(含公网IP、磁盘等)0.9885120min合计:1.977元五、实践步骤0. 购买ECS配置如下:bash计费模式: 按需计费区域: 西南-贵阳一可用区: 随机分配CPU架构:x86计算实例规格:通用计算增强型 | x1e.4u.16g | 4vCPUs | 16GiB镜像: 公共镜像-Ubuntu 24.04 server 64bit(10GiB)磁盘: 通用型SSD 50G弹性公网IP:现在购买-全动态BGP-按带宽计算-5Mbit/s-随实例释放云服务器名称:ecs-ragflow密码:RagFlow@123使用时长:设定删除时间为 8 小时之后购买数量: 1清单链接:https://www.huaweicloud.com/pricing/calculator.html?shareListId=267c3c60fc6411efa933bd915e6892f51、安装 RAGFlow1.1 安装 Docker CE 和 Docker Compose打开终端,新建 install-docker.sh:bash# 查看系统uname -alsb_release -a# 准备安装 dockercd ~pwdmkdir RAGFlowcd RAGFlowvi install-docker.sh写入以下脚本到 install-docker.shbash#!/bin/bash# 定义日志文件路径LOGFILE="/var/docker-install.log"# 将标准输出和错误输出重定向到日志文件,同时显示到终端exec > >(tee -a "$LOGFILE") 2>&1# 设置DEBUG模式下的时间戳输出格式trap '{ set +x; } 2>/dev/null; echo -n "[$(date -Is)] "; set -x' DEBUG# 下载并安装 docker CE 和 docker composeecho "开始安装 Docker CE 和 Docker Compose..."# 添加Docker官方GPG密钥curl -fsSL https://mirrors.huaweicloud.com/docker-ce/linux/ubuntu/gpg | sudo apt-key add -echo "已添加 Docker GPG 密钥"# 添加Docker软件源echo "" | sudo add-apt-repository "deb [arch=amd64] https://mirrors.huaweicloud.com/docker-ce/linux/ubuntu $(lsb_release -cs) stable"echo "已添加 Docker 软件源"# 更新软件包列表echo "正在更新软件包列表..."echo "y" | sudo apt-get update# 安装Docker CE和Docker Composeecho "正在安装 Docker CE 和 Docker Compose..."echo "y" | sudo apt-get install docker-ce docker-composeecho "Docker 安装完成"# 配置docker镜像仓库为华为云镜像echo "正在配置华为云镜像源..."sudo echo '{"registry-mirrors": ["https://b4a1f63a156e435f9aeb797bdf515250.mirror.swr.myhuaweicloud.com"]}' >/etc/docker/daemon.json# 重启docker服务使配置生效echo "正在重启 Docker 服务..."sudo systemctl restart dockerecho "Docker 配置完成"接着运行 docker 安装脚本:bashsudo bash ./install-docker.sh我们查看版本发现 docker-compse 版本有点低,可能会影响后续的安装,因此尝试升级 docker-composebashdocker -vdocker-compse -v升级 docker-compose:bash# 先看看 docker-compose 的路径whereis docker-compose# 备份一下sudo mv /usr/bin/docker-compose /usr/bin/docker-compose.bak# 下载对应系统的 docker-composewget https://github.com/docker/compose/releases/download/v2.33.1/docker-compose-linux-x86_64 -O docker-compose# 如果速度慢可以尝试使用加速源,如 https://hub.gitmirror.com/、https://github.moeyy.xyz/、https://ghfast.top/# wget https://hub.gitmirror.com/https://github.com/docker/compose/releases/download/v2.33.1/docker-compose-linux-x86_64 -O docker-compose# 也可以自行去 github 下载: https://github.com/docker/compose/releases# 替换 docker-composesudo cp ./docker-compose /usr/bin/docker-compose# 加权限sudo chmod +x /usr/bin/docker-compose# 验证docker-compose -v1.2 安装 RAGFlow先设置一下最大虚拟内存。vm.max_map_count该值设置进程可能拥有的内存映射区域的最大数量。它的默认值是65530。虽然大多数应用程序需要的映射少于一千个,但减小此值可能会导致异常行为,并且当进程达到限制时,系统将抛出内存不足错误。RAGFlow v0.17.0使用Elasticsearch或Infinity进行多次调用。正确设置vm.max_map_count的值对于Elasticsearch组件的正常运行至关重要。bash# 检查vm.max_map_count的值sysctl vm.max_map_count# 如果小于 262144 则至少设置为 262144sudo sysctl -w vm.max_map_count=262144接着安装 RAGFlowbash# 下载源码git clone https://github.com/infiniflow/ragflow.git# 如果下载比较慢请尝试使用镜像加速,如:# git clone https://ghfast.top/https://github.com/infiniflow/ragflow.gitcd ragflow/docker# 切换最新稳定分支 (截止 20205-03-08 为 0.17.0)git checkout -f v0.17.0git branch我们可以修改 .env 启用全量版本(非必须,可无须修改直接使用 slim 版本),并设置 docker 镜像源:bashsudo echo '{"registry-mirrors": ["https://b4a1f63a156e435f9aeb797bdf515250.mirror.swr.myhuaweicloud.com"]}' >/etc/docker/daemon.jsonRAGFlow镜像标签镜像大小(GB)是否包含嵌入模型和Python包是否稳定v0.17.0≈9✔️稳定版本v0.17.0-slim≈2❌稳定版本nightly≈9✔️nightly 构建不稳定nightly-slim≈2❌nightly 构建不稳定接着通过 docker-compose 启动 RAGFlow,全量的镜像约 9G,安装稍微慢些,需要耐心等待大约10分钟bash# 拉取镜像并启动(默认不包含 embedding 模型, 可以修改 .env 配置,选为华为云镜像v0.17.0 )# vi .env 找到对应位置进行修改docker-compose -f docker-compose.yml up -d# 如果minio拉取不顺,请尝试切换镜像源,需修改 docker-compose-base.yml 的:quay.io 为 quay.m.daocloud.io# 查看日志docker-compose logs -f ragflow-server# 查看端口情况netstat -nptl2. 访问本地 RAGFlow并配置模型RAGFlow是一个RAG引擎,需要与大模型服务一起搭配使用,实现本地、无幻觉的问答功能。RAGFlow支持大多数主流LLMs。2.1 访问本地RAGFlow 并注册账号登录如本次案例中 ecs-ragflow 的 ip 为1.95.184.111 则访问: http://1.95.184.111/login ,注册账号即可使用 RAGFlow。登录之后的主界面如下:⚠️本地模型为选配,同样可以使用其他大模型API服务,比如 Mass、硅基流动等2.2 通过 Docker 安装 ollama首先我们设置docker镜像源,重启docker之后,通过docker拉取ollama镜像并运行bash# 设置 docker 镜像源sudo echo '{"registry-mirrors": ["https://b4a1f63a156e435f9aeb797bdf515250.mirror.swr.myhuaweicloud.com"]}' >/etc/docker/daemon.jsonsudo systemctl restart dockersudo docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama2.3 安装 DeepSeek-R1 模型和 bge-m3 鉴于网络下载速度比较慢,我们拉取相对较小的 deepseek-r1:1.5b 和嵌入模型 bge-m3 (预计25分钟,具体看网络状况)bash# 拉取 deepseek-r1:1.5bsudo docker exec ollama ollama pull deepseek-r1:1.5b# 拉取 bge-m3sudo docker exec ollama ollama pull bge-m32.4 配置模型虽然RAGFlow和Ollama都是跑在同一台机器上,但由于分别使用了docker-compose和docker来部署,可能会导致网络不通的情况,那我们可以通过暴露 11434 ollama的端口来提高大模型服务。于是,我们在模型提供商选择Ollam之后分别配置了嵌入模型 bge-m3 和聊天模型deepseek-r1:1.5b。接着并在设置--系统模型设置中配置好聊天模型和嵌入模型。3. 简单使用接下来,我们简单体验一下RAGFlow 提供的功能,分别是知识库、聊天、搜索、Agent。3.1 知识库功能体验点击知识库,我们创建了一个名为ModelArts助手的知识库,传入了几个pdf文件作为本地知识库。在RAGFlow中知识库被称为数据集,我们可以上次多个文件作为数据集,并通过不通的解析方法将文档进行处理如切片、Q/A等。解析成功的文档可以在后续功能中作为知识库引入。3.2 聊天功能体验我们创建了ModelArts助手的助理,可以对助理进行配置如基本信息、关键词分析、模型参数设置等,并选取知识库作为回答语料。我们一个“如何快速入门”的简单问题开始,AI助理根据挂载的知识给了相关的回答。3.3 搜索功能体验在RAGFlow中,还有搜索功能,类似于传统的搜索引擎给出结果并添加了智能回答和思维导图。3.4 Agent功能体验最后我们来体验Agent功能,这里我们使用的是预置的 text2sql。Agent 会提供一个工作流编排界面,并提供运行测试功能,我们发现Agent也是可以作为单独的页面嵌入到其他网站,简单地要Agent给出“用户转化率”,它基于 deepseek-r1 模型,因此也有思考能力,最终它生成了一段完整的 SQL 语句。至此,案例实践就结束了,记得释放资源哦!记得释放资源哦!记得释放资源哦!我正在参加【案例共创】第2期 构建开发场景最佳实践/体验评测,创作案例文章cid:link_0
-
杭州宇树科技4足机器人的技术难点在哪?好几年前不是都有机器狗了
-
Deepseek作为新一代对话式人工智能系统,其技术体系融合了大规模语言模型训练、多模态融合推理和自适应交互机制三大核心模块。与ChatGPT等现有系统相比,Deepseek在模型架构设计、训练效率优化和推理实时性等维度实现突破性创新。本文将从技术架构、训练范式、推理加速等维度深入剖析其底层技术实现。编辑一、混合专家模型架构(MoE 3.0)1.1 动态路由专家系统Deepseek采用自主演进的MoE 3.0架构,在传统混合专家模型基础上实现三大创新:自适应专家选择器(AES):基于当前对话上下文动态选择激活的专家子网络,通过门控网络实现5.6倍计算资源利用率提升分层专家集群:将136个领域专家划分为语义理解、知识检索、逻辑推理、风格控制四层架构实时专家进化机制:通过在线蒸馏技术实现专家模块的动态更新,支持每小时3.2%的参数微调1.2 三维注意力机制上下文感知注意力:长程依赖建模支持128K tokens的对话历史窗口跨模态注意力:文本、图像、语音的多模态特征对齐效率提升72%稀疏注意力优化:基于动态掩码的稀疏计算降低注意力计算开销58%1.3 分布式参数管理8D混合并行策略(数据/模型/流水线/专家/序列/通信/内存/精度)分层参数服务器架构实现万亿参数的高效管理自适应梯度压缩算法(AGC)降低通信带宽需求79%编辑二、高效训练技术体系2.1 万亿参数训练优化技术指标传统方案Deepseek方案提升倍数千卡训练效率32%68%2.1x显存利用率41%89%2.2x梯度同步延迟280ms53ms5.3x关键技术突破:张量切片重计算(TSR):显存占用降低67%,支持单卡训练420亿参数模型动态精度调度器:在FP8/FP16/BF16间自动切换,保持数值稳定性同时提升训练速度43%弹性容错训练框架:故障恢复时间从分钟级缩短至秒级2.2 多阶段预训练策略基础语义构建阶段:1.2万亿token通用语料训练领域知识注入阶段:垂直领域知识图谱融合训练对话技能强化阶段:基于强化学习的对话策略优化价值观对齐阶段:伦理约束模型和安全边界学习编辑三、实时推理加速引擎3.1 计算图优化技术动态算子融合:将30+基础算子融合为5个超级算子内存复用策略:推理显存占用降低82%自适应批处理:根据硬件资源动态调整批处理规模(1-128)3.2 硬件加速创新混合精度计算单元:支持FP4/FP8/INT8混合计算片上内存优化设计:SRAM带宽利用率达93%流水线并行架构:端到端延迟降低至23ms/response3.3 对话状态管理上下文压缩算法:将128K tokens对话历史压缩为1K语义向量实时知识检索:毫秒级访问万亿级知识图谱多轮对话追踪:基于动态有向图的对话状态建模四、多模态融合架构4.1 统一表征空间跨模态对比学习:文本、图像、语音共享7680维嵌入空间动态特征对齐:通过自适应注意力实现多模态信息融合多粒度交互机制:从像素级到语义级的层次化交互4.2 多模态生成技术条件式扩散模型:支持文本到图像/语音的跨模态生成风格迁移引擎:保持内容一致性同时实现风格转换多模态一致性验证:通过对抗训练确保跨模态输出逻辑一致五、安全与伦理架构5.1 多层级安全防护输入过滤层:实时检测恶意指令(准确率99.2%)推理监控层:动态追踪决策路径输出审核层:多维度内容安全校验5.2 价值观对齐技术伦理约束模型:嵌入32个核心伦理维度动态边界学习:基于人类反馈的强化学习(RLHF+)可解释性系统:提供决策依据的可视化追溯5.3 隐私计算方案联邦学习框架:支持分布式模型更新差分隐私保护:噪声注入精度控制在0.3%以内数据脱敏引擎:自动识别并处理敏感信息六、技术优势与行业影响6.1 性能对比(vs主流对话系统)指标ChatGPTDeepseek提升幅度响应延迟580ms230ms2.5x长上下文理解32K128K4x多轮对话一致性82%94%14.6%知识检索准确率76%89%17.1%6.2 行业应用场景智能客服:支持200+业务场景的深度定制教育辅导:实现个性化学习路径规划医疗咨询:通过医疗知识图谱提供辅助诊断内容创作:多模态创意内容生成系统编辑结语:对话式AI的技术新范式Deepseek通过三大核心创新重新定义对话式AI的技术边界:动态混合专家架构:实现计算效率与模型能力的平衡软硬协同优化体系:突破大规模模型部署的工程瓶颈多模态融合推理:构建统一智能认知框架其技术架构已在多个行业场景验证,单日处理交互量超过2.1亿次,平均满意度达92.3%。随着持续迭代升级,Deepseek正在推动对话式AI向更高层次的认知智能演进,为人工智能的普惠化应用奠定技术基础。
-
现在的智能驾驶,用的是传统AI的特征识别,还是现在很火的类GPT的人工智能
-
DeepSeek 为什么这么火?它与传统的chatGLM、豆包、文心一言、OpenGPT、Kimi 等AI有什么不同?我使用它提问的时候,感觉输出有点冗长,其他AI可能一下就生成答案给我了,而它要搞了半天。但为啥新闻都在说他好?好在哪?来讨论下
-
当全球AI竞赛进入白热化阶段,华为昇腾再次交出一份硬核答卷!就在近日,华为宣布其AI计算平台昇腾成功适配支持开源项目Open R1,并实现DeepSeek V3模型的高效预训练与微调。这一进展不仅标志着国产算力生态的又一次突破,更让开发者看到了“中国技术”在AI大模型领域的无限可能。一、昇腾+MindSpeed:国产算力“黄金搭档”再升级华为此次公布的MindSpeed框架,已全面支持DeepSeek V3模型的预训练与微调任务。从官方披露的并行配置参数来看,昇腾通过优化的分布式训练方案,显著提升了模型训练效率,尤其是在千亿级参数场景下,昇腾集群的算力调度和内存管理能力经受住了考验。据介绍,MindSpeed 现已支持 DeepSeek V3 模型预训练与微调。所使用的并行配置与模型参数如下:划重点:知识蒸馏技术落地:华为基于昇腾完成知识蒸馏流程验证,成功让轻量化的Qwen模型在特定领域评分大幅提升。这意味着,开发者未来可基于昇腾平台快速训练出“小而强”的AI模型,大幅降低算力成本。开源生态兼容性突破:昇腾适配支持vLLM等主流AI工具库,打通了Open R1-Zero的GRPO流程(关键训练步骤)。开发者无需重复造轮子,即可利用昇腾硬件加速训练数据生成。二、Open R1项目为何引爆开发者圈?作为Hugging Face官方力推的开源项目,Open R1旨在复现DeepSeek-R1模型的完整训练流程,目前已在GitHub上斩获71K+星标,堪称AI界的“顶流”。开源复现的意义:DeepSeek-R1作为国产大模型的代表,其训练细节长期被视为“黑箱”。Open R1项目通过开源协作,填补了技术流程的空白,让全球开发者得以透明化探索模型优化路径。华为昇腾的适配价值:此次昇腾的深度适配,意味着国产算力平台与国际主流开源框架的兼容性再进一步。开发者既能享受昇腾的算力红利,又能无缝接入Hugging Face生态,实现“鱼与熊掌兼得”。三、技术自主+开源协作:中国AI的“两条腿”战略当前,国际芯片博弈加剧,算力自主权成为AI发展的核心命题。华为昇腾的突破,不仅在于硬件性能的追赶,更在于其构建开放生态的远见:打破“卡脖子”焦虑:昇腾适配开源项目,本质上是将国产硬件融入全球AI创新链条,避免技术孤立。开发者生态是关键:华为通过支持知识蒸馏、优化工具链,降低了AI开发门槛。中小团队甚至个人开发者,也能基于昇腾平台探索大模型应用,加速行业创新落地。四、行业影响:一场AI生产力的“普惠革命”华为此次技术进展,释放了三大信号:国产算力可用性验证:昇腾已具备支撑复杂AI训练任务的能力,为金融、医疗、科研等领域提供了“备胎”选择。轻量化模型成趋势:知识蒸馏技术的成熟,将推动AI从“拼参数”转向“拼效率”,边缘计算、端侧智能迎来新机遇。开源社区力量崛起:中国企业与全球开发者协同创新,正在改写AI技术的话语权格局。华为昇腾与Open R1的“双向奔赴”,不仅是技术的胜利,更是生态的胜利。当国产算力与开源精神深度结合,中国AI的“星辰大海”或许就在眼前。对于开发者而言,这无疑是一个最好的时代——技术无国界,创新无止境,而你,准备好搭上这班快车了吗?文末互动👉 你怎么看国产算力与开源生态的结合?欢迎在评论区分享你的观点!
-
025年春节前夕,中国AI领域迎来重磅消息——中国信通院主导的算力互联公共服务平台正式上线“DeepSeek服务站点大全”!这一功能不仅为国内开发者提供了调用算力的统一入口,更集结了全球22家头部云服务商,让国产大模型DeepSeek成为AI开发者的“新宠”。中国AI技术能否借此实现“弯道超车”?一文揭秘!一、开发者福音:算力调用从此“一站直达”过去,AI开发者常面临算力分散、资源不均衡、调用门槛高的痛点。而此次上线的“DeepSeek服务站点”功能,通过算力互联公共服务平台,将华为云、微软Azure、亚马逊AWS、英伟达等22家全球云服务商的DeepSeek模型服务能力集中呈现,开发者无需跨平台搜索,即可一键触达所需算力资源。亮点功能:统一入口:覆盖训练、推理、定制化开发全流程需求;成本优化:依托国产模型DeepSeek的计算资源优化,调用成本更低;灵活适配:支持私有化部署与专有数据训练,满足企业个性化需求。二、DeepSeek为何成为“顶流”?硬核技术+性能登顶DeepSeek系列模型近期表现堪称“现象级”:榜单屠榜:在Lmarena模型竞技榜中,DeepSeek-R1与GPT-4o并列全球第三,前十名中国模型独占四席;多场景覆盖:涵盖通用语言理解(R1、V3系列)、代码生成(Coder系列)、数学推理(Math系列)等,适配生物医药、智能制造、AIGC等前沿领域;性能比肩国际:通过国产推理引擎优化,其推理效率与高端GPU持平,成本却降低30%以上。三、产业落地加速:从“算力超市”到“锡产锡用”此次升级不仅是技术突破,更推动AI算力与地方经济深度融合。例如:无锡高新区:云工场科技打造的“算力超市”基于DeepSeek模型,实现本地化“锡产锡用”,助力中小企业快速部署AI应用;超算互联网:DeepSeek系列模型已上线国家超算互联网平台(www.scnet.cn),提供从1.5B到70B参数的一键推理服务,普惠中小开发者。四、未来展望:中国AI生态的“新基建”算力互联平台与DeepSeek的协同,标志着中国AI产业两大趋势:生态重构:从依赖国际巨头到国产模型+算力自主可控;普惠化:通过“边缘AI算力”和分布式节点,降低企业应用门槛。专家预测:随着DeepSeek开源生态的完善,中国有望在3年内孵化出10个以上垂直领域的世界级大模型应用!从技术突破到产业落地,DeepSeek与算力互联平台的结合,不仅是一次资源整合,更是中国AI自主创新的里程碑。开发者们,赶紧登录算力互联公共服务平台,体验“一站式”算力调用,抢占AI新时代的先机吧! 声明:本文部分信息综合自中国信通院、IT之家、经济观察网等报道。
上滑加载中