-
AI落地,一学就会!想掌握AI模型部署的核心技能,却苦于没有系统指导?由华为云学堂技术团队精心打造的DeepSeek大模型部署系列课程,拒绝纸上谈兵,融合实战经验,体验在线实操,边学边练,为你扫清学习障碍。一次学习终身受用,省去万元试错成本,职业竞争力飙升! DeepSeek大模型作为一种基于深度学习的先进模型,以其强大的文本理解和生成能力,正在改变我们处理信息和解决问题的方式。无论是企业内部应用还是科研项目,DeepSeek大模型都展现出巨大的潜力。本课程将深入探讨DeepSeek大模型的本地部署与API调用,帮助开发者从入门到实践,掌握这一强大工具的核心技能。课程包含四个主要部分:概述、模型本地部署、模型API调用和总结。点击课程链接学习,开启你的AI模型部署高光时刻!
-
这是2个比较重要的指标。DeepSeek-R1的不同版本,比如1.5B、7B、32B、70B、671B等,这里的B(billion)代表十亿参数,例如32B就是320亿参数。而671B参数量的是满血版,效果会更好一些。而DeepSeek-R1-32K 中的 32K 表示该模型支持的上下文窗口长度为 32,000 tokens(即约 3.2 万个文本单元),这是衡量模型处理长文本能力的重要指标。技术含义模型通过创新的架构(如局部注意力窗口、动态记忆压缩等技术)实现长上下文处理能力。32K 上下文窗口意味着模型在生成回答时,可以同时参考输入内容中最近 3.2 万 tokens 的信息,适用于需要较长文本连贯性的任务,例如:• 长文档分析(如合同、论文)• 多轮复杂对话• 跨文档信息整合技术对比DeepSeek-R1 系列中,不同版本的上下文长度支持存在差异:• 蒸馏版模型(如 1.5B-70B):通常支持 4K-32K 上下文窗口。• 满血版模型(如 671B):通过混合专家架构(MoE)和稀疏激活技术,支持 128K 甚至更长上下文。实际影响较长的上下文窗口能提升模型对复杂任务的完成度。例如:• 在 32K 窗口下,模型可分析约 50 页的英文文档或 20 页中文文档,保持关键信息的一致性。• 相比传统模型(如 GPT-4 的 8K 窗口),32K 窗口显著减少信息遗漏,提升长代码理解、跨段落推理等任务的准确率。
-
在数据驱动与AI爆发的时代,开发者亟需一款既能快速验证代码、又能无缝对接生产环境的工具。传统开发环境中,代码调试、数据探索、任务调度往往分散于不同平台,效率与协作性大打折扣。开发者常常面临着环境配置复杂、资源受限、调试耗时等诸多挑战。为了给广大开发者提供更加便捷、高效、稳定的开发环境,华为开发者空间正式上线一站式开发工具Notebook,融合交互式编程、云端资源管理与自动化工作流,让开发更智能、更流畅! 预置环境,开箱即用:华为开发者空间提供云化版本的Notebook,基于NPU资源的云上开发体验,预装euler2.9-py38-torch2.1.0-notebook开发镜像,即开即用。提供NPU算力资源:每日提供2小时免费NPU算力资源,轻松关联模型和数据集,仅用1-2分钟的启动时间,即可助力开发者快速完成模型训练与推理任务。让创新更高效、成本更低廉。 在智能时代,开发工具已成为核心竞争力。华为开发者空间搭载Notebook,打破了传统开发模式的边界,重新定义云端开发体验,让开发变得更加灵活、高效和智能。除了优质的开发环境,华为开发者空间还汇聚了海量的技术赋能课程与专业开发者认证内容。这些丰富的学习资源,帮助开发者们不断提升技能水平,紧跟技术前沿。无论是初学者还是资深开发者,都能在这里找到适合自己的学习路径,实现自我突破与成长。点击链接,访问华为开发者空间,轻松开启高效开发之旅!
-
在数据驱动与AI爆发的时代,开发者亟需一款既能快速验证代码、又能无缝对接生产环境的工具。传统开发环境中,代码调试、数据探索、任务调度往往分散于不同平台,效率与协作性大打折扣。开发者常常面临着环境配置复杂、资源受限、调试耗时等诸多挑战。为了给广大开发者提供更加便捷、高效、稳定的开发环境,华为开发者空间正式上线一站式开发工具Notebook,融合交互式编程、云端资源管理与自动化工作流,让开发更智能、更流畅! 预置环境,开箱即用:华为开发者空间提供云化版本的Notebook,基于NPU资源的云上开发体验,预装euler2.9-py38-torch2.1.0-notebook开发镜像,即开即用。提供NPU算力资源:每日提供2小时免费NPU算力资源,轻松关联模型和数据集,仅用1-2分钟的启动时间,即可助力开发者快速完成模型训练与推理任务。让创新更高效、成本更低廉。 在智能时代,开发工具已成为核心竞争力。华为开发者空间搭载Notebook,打破了传统开发模式的边界,重新定义云端开发体验,让开发变得更加灵活、高效和智能。除了优质的开发环境,华为开发者空间还汇聚了海量的技术赋能课程与专业开发者认证内容。这些丰富的学习资源,帮助开发者们不断提升技能水平,紧跟技术前沿。无论是初学者还是资深开发者,都能在这里找到适合自己的学习路径,实现自我突破与成长。点击链接,访问华为开发者空间,轻松开启高效开发之旅!
-
【案例共创】第3期 基于华为开发者空间+DeepSeek完成AI应用构建开发实践 1)构建的应用需要完成发布,有应用在线截图。按文档操作,可以轻松实现模型的部署,并可以调用使用 这里做一个demo,帮我生成一个双人对打游戏,结果可以进行操作,“上、下、左、右”的操作,进行配图就可以正常使用了。 2)案例场景和方案以及用到的华为云产品或者开源框架简述。整体架构以及开发环境: 案例场景为华为开发者空间+DeepSeek完成AI应用构建开发实践这里涉及到的华为云产品:1、华为云开发者空间的云主机,类似华为云桌面。CPU架构:X86规格:2 vCPUs 4 GB操作系统:Ubuntu系统镜像:公共镜像 Ubuntu 22.04 Server 定制版 2、华为云ModelArts Studio 产品, 领取免费试用的Tokens 做完实验还剩下的调用量 3)开发过程实际操作描述(文字描述+截图+代码)。在模型部署和调用的过程中可能会缺少依赖,把缺少的依赖下载安装好,就可以正常使用了。 可生成的交互界面程序 试了试通用的问答,制定一个健康的生活计划,内容还是很丰富的。 **目标**:均衡营养,保持健康体重,增强免疫力。**建议**:- **早餐**:富含蛋白质和纤维的食物,如全麦面包、鸡蛋、牛奶、燕麦粥。- **午餐**:均衡搭配碳水化合物、蛋白质和蔬菜,如米饭、鸡胸肉、西兰花、胡萝卜。- **晚餐**:轻食为主,避免高脂肪和高热量食物,如鱼类、豆腐、绿叶蔬菜。- **零食**:选择健康零食,如坚果、水果、酸奶。- **饮水**:每天至少饮用8杯水,保持身体水分平衡。- **避免**:高糖、高脂肪、加工食品和过量酒精。 **示例食谱**:- **周一**:早餐 - 燕麦粥 + 鸡蛋;午餐 - 鸡胸肉 + 西兰花 + 米饭;晚餐 - 鱼类 + 绿叶蔬菜。- **周二**:早餐 - 全麦面包 + 牛奶;午餐 - 豆腐 + 胡萝卜 + 米饭;晚餐 - 豆腐 + 绿叶蔬菜。 #### 2. 运动计划**目标**:增强体能,保持心血管健康,提高肌肉力量。 **建议**:- **有氧运动**:每周至少3次,每次30分钟,如跑步、游泳、骑自行车。- **力量训练**:每周2次,每次20分钟,如举重、俯卧撑、仰卧起坐。- **灵活性训练**:每周2次,每次15分钟,如瑜伽、拉伸。- **日常活动**:增加日常活动量,如步行、爬楼梯。 **示例运动安排**:- **周一**:跑步30分钟 + 瑜伽15分钟。- **周二**:力量训练20分钟 + 步行30分钟。- **周三**:游泳30分钟 + 拉伸15分钟。- **周四**:骑自行车30分钟 + 力量训练20分钟。- **周五**:跑步30分钟 + 瑜伽15分钟。 #### 3. 学习计划**目标**:持续学习,提高知识水平,保持大脑活跃。 **建议**:- **每日学习**:每天至少学习1小时,涵盖专业知识和兴趣爱好。- **阅读**:每周阅读一本书,涵盖不同领域,如科技、文学、历史。- **在线课程**:每月完成一个在线课程,提升专业技能或学习新领域。- **笔记与总结**:每天记录学习笔记,定期总结学习成果。 **示例学习安排**:- **周一**:阅读科技书籍1小时 + 在线课程30分钟。- **周二**:专业知识学习1小时 + 笔记整理30分钟。- **周三**:阅读文学书籍1小时 + 在线课程30分钟。- **周四**:历史书籍阅读1小时 + 学习总结30分钟。- **周五**:专业技能学习1小时 + 笔记整理30分钟。 ### 计划执行与调整- **每周评估**:每周评估饮食、运动和学习计划的执行情况,根据需要进行调整。- **保持灵活性**:根据个人情况和外部环境的变化,灵活调整计划内容。- **长期坚持**:健康生活计划需要长期坚持,逐步形成良好习惯。 如果你有任何具体需求或需要进一步调整计划,请告诉我!4)案例实操需要完整体现,读者可根据案例上手并体验。 按“云主机调用DeepSeek实现代码自动生成”这个操作真的很容易就实现了。
-
Kotaemon:一个开源、简洁且可定制的RAG UI,用于与您的文档进行对话简介:Kotaemon 是一个开源的、简洁且高度可定制的 RAG(Retrieval-Augmented Generation,检索增强生成)用户界面,专门设计用于与您的文档进行对话。无论是普通用户还是开发者,Kotaemon 都旨在提供一种直观、灵活且高效的方式来管理和交互您的文档内容。它不仅仅是一个简单的聊天工具,更是一个集成了先进 AI 技术的智能文档助手,能够帮助用户快速检索、理解和生成与文档相关的信息。核心功能:文档对话:用户可以直接与上传的文档进行对话,系统会根据文档内容生成准确、相关的回答。支持多种文档格式,包括 PDF、Word、Markdown、代码文件等。检索增强生成(RAG):结合了强大的检索机制和生成式 AI 模型,能够从海量文档中快速找到相关信息,并生成流畅、自然的回答。确保回答的准确性和上下文相关性,提升用户体验。简洁直观的用户界面:界面设计简洁明了,易于上手,适合非技术背景的用户使用。提供清晰的导航和操作提示,确保用户能够快速找到所需功能。可定制化开发:开发者可以根据需求自定义界面和功能,满足特定场景的应用。提供丰富的 API 和插件机制,支持与其他系统集成。本地化部署:支持本地部署,确保数据安全和隐私。用户可以在自己的服务器上运行 Kotaemon,完全掌控数据。适用场景:企业内部知识管理:企业可以利用 Kotaemon 构建智能知识库,员工可以通过对话快速获取公司政策、技术文档、操作手册等信息。提升团队协作效率,减少信息检索时间。开发者文档助手:开发者可以使用 Kotaemon 与代码库、API 文档进行交互,快速查找函数用法、代码示例等。提高开发效率,减少查阅文档的时间。个人知识管理:个人用户可以利用 Kotaemon 管理学习笔记、研究资料、项目文档等,通过对话快速找到所需信息。构建个人知识体系,提升学习和工作效率。教育和培训:教育机构可以使用 Kotaemon 作为教学辅助工具,学生可以通过对话获取课程资料、解答疑问。提供个性化的学习体验,增强学习效果。技术优势:开源和透明:Kotaemon 是一个开源项目,代码公开透明,用户可以自由查看和修改。社区驱动,持续更新和改进。高性能和可扩展性:采用先进的技术架构,确保系统的高性能和可扩展性。支持处理大规模文档数据,满足不同规模用户的需求。安全可靠:提供本地化部署选项,确保数据安全和隐私。内置多种安全机制,保障用户数据的安全。部署方式:使用docker部署docker run \-e GRADIO_SERVER_NAME=0.0.0.0 \-e GRADIO_SERVER_PORT=7860 \-v ./ktem_app_data:/app/ktem_app_data \-p 7860:7860 -it --rm \ghcr.io/cinnamon/kotaemon:main-ollama部署后使用的效果图如下:总结:Kotaemon 作为一个开源、简洁且可定制的 RAG UI,旨在为用户提供一个高效、便捷的文档对话工具。无论是企业、开发者还是个人用户,Kotaemon 都能帮助您更好地管理和利用文档内容,提升工作效率。随着技术的不断进步和社区的支持,Kotaemon 将在未来展现出更广阔的应用前景。项目地址:cid:link_0
-
引言deepseek-r1开源标志着普惠AI时代的到来,中小企业接入DeepSeek最安全、实惠的方式就是搭建本地知识库。本文针对企业日常项目管理中相关人员工作繁忙,项目进度跟进不及时等现状,使用DeepSeek+RAGFlow搭建项目管理知识库,用户只需要把对合同文本,往来文件上传到知识库中,系统就会智能分析项目里程碑,现状等等实现智能管理。选用RAGFlow是因为它有以下几个功能点:整合了知识图谱,0.72版本后可以直接针对文件作知识图谱切割,带来了更准确检索知识的可能。但使用知识图谱切分会消耗大量token,本经适员验证半天就花了100万有多token。智能体自带编排功能带来处理复杂场景的能力。Python API为有开发知识的人带来对知识作更准确切片的手段。知识库,智能体可通过HTTP API访问,很方便就可以嵌入其它系统。一、环境搭建1.1 准备云服务器RAGFlow最低需要50G硬盘空间,开发平台准备的免费云桌面为40G,且是ARM环境RAGFlow无构建好的docker镜像。本经济适用男头铁就想白嫖,自己在云桌面上部署了半天最终还是碰到空间不足只能作罢。换个思路参与共创领代金券继续免费学习。配置:竞价计费 8vCPUs + 32GiB + 80G硬盘, 系统Ubuntu 2024,带宽选按带宽计费5M(用流量配置个环境,下载docker都20G+,作测试时可以再调为1M,主打就算代金券也要省),这样配置下来0.7左右一小时,不关机都够测5天。至于我?当然随手关机,代金券有效期可是一年。云主机购买好后到安全组里配置80端口放行你自己的公网ip,RAGFlow安装好后是要通过80端口访问页面的。 登入到云主机后更新,安装docker一条龙apt upgrade -yapt install docker.io -yapt install docker-compose -y要注意华为apt源力的docker compose版本低,需要自己升级,那为什么要先apt装一下,还不是为了环境么,它都配置好可以偷懒了。wget https://bgithub.xyz/docker/compose/releases/download/v2.34.0/docker-compose-linux-x86_64 -O docker-composemv ./docker-compose /usr/bin/chmod +x /usr/bin/docker-compose上面路径是按默认路径,如果你是其它环境可以自己whereis查下docker-compose所在目录,把mv 后的目的路径替换为你自己的路径即可。github因为dns污染经常抽风,这里跟后面要用得到的都是直接用bgithub.xyz。二、RAGFlow安装2.1 修改docker源这里我们可以到控制台里,搜索容器镜像服务->左边镜像中心->右边点击镜像加速器,获取华为镜像地址 修改docker源为华为加速地址。vi /etc/docker/daemon.json,在vi里加如以下内容{ "registry-mirrors": [ "https://替换为上面华为镜像加速地址" ]}按"esc",:wq保存并退出,重启docker使得镜像配置生效systemctl restart docker2.2 克隆RAGFlow库git clone https://bgithub.xyz/infiniflow/ragflow.gitcd ragflow/docker发帖时最新版本为0.17.2,但该版本有时在解析文件时大概率会一直在排队状态,nightly版本已经修复该bug,所以我们使用nightly,git checkout -f nightly修改配置.env文件,按/image搜索到镜像设置,我们要嵌入模型的,将slim那行注释掉启用下面,并修改:V0.17.2为:nightly 使用docker-compose下载镜像并启动ragflow前,你多半会跟我一样在下载minio时太慢而失败,我们先用华为镜像下载,然后设置为别名quay.io即可docker pull swr.cn-north-4.myhuaweicloud.com/ddn-k8s/quay.io/minio/minio:RELEASE.2023-12-20T01-00-02Zdocker tag swr.cn-north-4.myhuaweicloud.com/ddn-k8s/quay.io/minio/minio:RELEASE.2023-12-20T01-00-02Z quay.io/minio/minio:RELEASE.2023-12-20T01-00-02Z然后再启用RAGFlow,这里会下载10个多G的镜像文件,在等待时可以去作后续步骤获取华为云免费token等等。docker-compose up -d2.3 申请华为云免费token登录华为云 MAAS,进入贵阳一区域的MaaS控制台,然后点击控制台左侧“模型推理”,点击右侧的“免费服务”,找到想要使用的DeepSeek版本后点击“领取额度”, 领取后点击“调用说明”,选到"OpenAI SDK", 将API地址,模型名称都复制下来,后面RAGFlow中设置大模型提供商时需要填写这些信息。 2.4 申请API Key大模型外部调用需要提供API Key,需要先申请API Key。还是在ModelArts Studio界面中左边找到最下面“API Key管理”,右边点击“创建API Key”,按照你喜好填入标签,描述->“确定”即可, 同样把生成的API Key复制下来,之后我们在RAGFlow中需要填入。 三、RAGFlow配置3.1 访问我们部署的RAGFlow页面当docker-compose启动完成后,打开浏览器访问我们购买的云服务器网址即可进入RAGFlow界面,如果你输入网址后打不开,确认下有没有按1.1所说的在安全组中放行你的ip访问80端口。在初始页面中输入Email,Password。点击“sign in”,系统会自动为你创建管理员帐号。进入主界面后右上方语言切换为中文。 3.2 配置RAGFlow模型提供商点击左右侧头像->左侧“模型提供商”,从右边待添加模型里找到“OpenAI-API-Compatible”模型点击添加 “模型类型”选择chat,模型名称"DeepSeek-R1",把2.3步中保存的对应信息填入基础Url,API-KEY中。 确定后RAGFlow会测试链接,连接成功后会出现在页面上方的”添加了的模型“里。重复上述步骤把"DeepSeek-V3"模型、其它地方申请的模型、本地部署的大模型都添加进去,后续编排智能体的时,就可以根据具体场景设置调用不同的大模型。 添加完成模型后还有一步设置默认模型提供商,点击最上面“系统模型设置”,RAGFlow拆分知识图谱需要用到有推理能力的大模型,所以这里我们选DeepSeek-R1模型,嵌入模型选BAAI/bge-large-zh-v1.5,我们没用到图片、语音识别下面的几个模型可以不填。 四、项目管理知识库准备及测试4.1 知识库配置前面一系列配置完成后,就可以添加知识库了。在新建知识库前,我们先准备一些文件,见附件的“项目模拟文件.zip”,模拟项目立项,项目支付,项目研发等等信息。准备好文件后回到RAGFlow页面,点击“知识库”,再点击“新建知识库”,名字按喜好取,比如我取的“项目管理原型”。主要的配置如下嵌入模型:BAAI/bge-large-zh。切片方法:General。打开提取知识图谱,实体类型设计如下:项目,日期,里程碑,组织,订单,预算,金额(本来数字类型数据在知识图谱里一般不设置为实体,我们这里只是验证原型所以忽略,实际使用时可以通过RAGFlow的组件去业务系统中获取更准确的数字),为提高检索准确,实体归一化,社区报告生成,都选上(注意确实会消耗大量大量的token)4.2 上传知识库,并解析出知识图谱。将附件的文件上传到知识库中,全选后点解析,RAGFlow会自动提取资料的知识图谱,时间会持续至少30分钟,等有文件解析成功后左边会出现“知识图谱”选项,点击就可以看到RAGFlow自动生成的图谱图示,如下图。需要注意的是因为GrapRAG里提取实体跟关系是英文提示词,社区摘要有时候会是一串英文。如果要投入正式使用还得自己作更多的测试修改为中文提示词。 4.3 测试项目管理知识图谱解析完成后,就可以测试我们的项目管理原型是否能满足要求。点击最上方“聊天”-“新建助理”,作如下配置助理设置:知识库选择上面我们建立的知识库"项目管理原型"提示引擎:对默认的提示词作进一步修改,增加“#项目按照项目立项时间排序,回答给定项目的相关内容。算不是实际支出,只有支付的才是实际支出”提示引擎里的使用知识图谱可以切换测试,看看使用知识图谱跟不使用知识图谱的对比效果模型:选择DeepSeek-R1测试用例:”2025年项目总共支出了多少“,不启用知识图谱时,回答知识库中无2025年总共支出,或者只回答奶茶项目支出了10万,这就是默认知识库中,信息重叠时,只取TopN造成的毛病。 启用知识图谱时,回答会耗时更多,后台看是首先用大模型对问题生成知识图谱查询,然后把查询结果再给模型完善回答。 五、 制作智能体机器人上面测试我们可以发现,为实现不同问题需要定制不同的提示词,或者有些多跳的问题需要使用知识图谱,简单的问题直接使用RAG问答就行。为给用户更好的使用体验,可以通过智能体机器人,对用户问题作分析然后按不同问题调用不同的流程做回答。点击页面上方"agent"->“创建agent”,使用空白模板。我们要实现一个可以执行多个功能的项目管理智能体,要用到如下组件。问题分类:判断用户问题类型,然后调用不同的模型作回答知识检索:针对用户问题检索知识库内容生成回答:将检索内容作为上下文,让大模型作智能回答首先拖入“对话”,“问题分类”两个组件,设置好流程,如下图 点中问题分类,第一步需要设置输入,我们直接应用对话_0,第二部选择作分类的大模型,因为分类不需要推理能力为了响应速度我们选DeepSeek-V3,最后点击新增分类,填写名称,描述以及例子,其中例子是最重要的分类依据。大模型根据分类例子判断分类这里添加以下三种问题分类,你也可以按实际情况自己发挥项目现状:描述,项目情况类问题。示例,奥美项目当前情况?奶茶项目推进如何?项目成本:描述,项目支出类问题。示例,奥美预算多少? 2025年项目支出多少?奶茶推进项目超预算了么?项目总结:描述:汇报类问题。 示例,生成奥美项目的项目月结。 生成奶茶推进项目月结。 有了问题分类,就可以针对不同类型问题作不同的检索,比如简单的问题直接检索知识库,复杂的问题按知识库检索,甚至更复杂的问题可以再让DeepSeek把问题拆分为一系列小问题,使用循环组件分别解决小问题后再汇总回答,这里主要作原型测试,所以不展开。我们直接简单按3个分类作3中不同的检索,从左边拉出3个知识检索,配置好执行箭头, 每个检索的配置里”输入“统一都选择“对话_0",”知识库选择“项目管理原型”,是否启用知识图谱,根据分类的复杂程度配置, 这里设置“项目成本”启用知识图谱。 再拖拉3个生成回答对应3个知识检索,表示用相同或者不同的大模型去回答对应问题,3个回答的提示词简单设计如下 生成回答_0:模型选择DeepSeeK-V3。提示词:根据{input},总结项目当前里程碑,并简单分析下当前项目。注意:只回答问到的项目的相关内容生成回答_1:模型选择DeepSeek-R1。提示词:请总结段落{input}。注意数字,不要胡编乱造。生成回答_2:模型选择DeepSeek-R1。提示词:根据{input}。生成项目总结。总结里要提到项目已完成里程碑,当前里程碑,预算,实际支出。当前重点关注点 到此,一个简单的智能体搭建完成。我们可以点击“运行”测试新建的智能体。 输入问题“奥美项目现状”, 如下图可以看到智能体正确的按“项目现状”分类->“知识检索_0”->"生成回答_0"流程执行,并回答了奥美项目现状。可以再多问几个问题测试下,比如“奥美注射液小试阶段付钱了么?”,“奶茶推进项目月结”,都能按最初分类并回答,大家可以自行测试这里就不贴图了六、感想展望以上我们用DeepSeek+AGFlow搭建了项目管理的雏形。对于信息类的检索已经能满足使用,但对于稍微复杂点的统计、对比类问题还不是很满意。比如多跳类问题“第二个项目已经支付了多少钱”查看知识图谱的检索结果还是会带多个项目,能正确回答是因为作测试的知识库里项目数量少每次都把所有项目直接提供给DeepSeek-R1,或多或少的依赖R1推理能力推理出结果。当知道问题只针对一个项目把知识检索的TopN设置为1,2这类小数值时,回答就经常不是正确的项目。一方面因为使用的GraphRAG里提示词为英文编写,另外一方面使用ES作为知识图谱的存储也不太方便技术人员,如果能存储到Neoj4之类的外部知识图谱数据库中,就可以使用外部查询的方式来获得更准确结果。使用知识图谱的查询耗时太久,影响用户体验,从日志看是使用推理对于企业应用特别是项目管理来说知识图谱的实体,属性,关系相对确认,只要提示词给了足够详细用不带推理的DeepSeek-V3,甚至QWQ-32B模型也一样作正确查询。另外DeepSeek-R1目前函数调用还在完善,希望在R2版本时能完善该功能。同时RAGFlow早日增加对MCP支持,这两项完善后技术背景的人员会有更多手段实现更准确的智能体应用。 我正在参加【案例共创】第3期 基于华为开发者空间+DeepSeek完成AI应用构建开发最佳实践cid:link_1
-
案例介绍本案例指导开发者通过开发者空间提供的云主机,使用开源Kotaemon的RAG UI框架,调用ModelArts Studio 大模型平台的DeepSeek-V3-32K模型,构建私人知识库。案例内容1 概述1.1 背景介绍ModelArts Studio作为一款先进的大模型即服务平台,集成了高效便捷的模型开发工具链,支持企业对大模型进行深度定制开发,实现模型应用与业务系统的深度融合,从而显著降低企业AI技术的落地成本与实施难度,助力企业快速实现智能化转型。如今,知识库已成为企业和个人提升工作效率、积累知识资产的重要工具。传统知识库存在构建成本高、维护困难、检索效率低等问题。本案例利用Kotaemon框架和ModelArts Studio提供的DeepSeek-V3-32K模型,构建一个高效、便捷、可定制的本地/私人知识库,方便开发者检索各种场景的文档,提高工作效率。有下列应用场景:开发者文档检索: 开发者可以快速检索 API 文档、代码示例、技术博客等,提高开发效率;企业内部知识管理: 企业可以构建内部知识库,方便员工共享和检索知识,提升团队协作效率;个人知识积累: 个人可以利用知识库管理学习笔记、项目资料等,构建个人知识体系。1.2 适用对象企业个人开发者高校学生1.3 案例时间本案例总时长预计60分钟。1.4 案例流程说明:① 用户使用登录开发者空间并配置云主机;② 用户提供Firefox浏览器在ModelArts Studio平台中领取DeepSeek-V3-32K模型;③ 使用docker部署Kotaemon框架④ Kotaemon调用ModelArts Studio平台中的DeepSeek-V3-32K API模型;⑤ 用户在Firefox浏览器中构建AI知识库并对其进行聊天。1.5 资源总览本案例预计花费总计0元。资源名称规格单价(元)时长(分钟)开发者空间2vCPUs | 4GB X86 |Ubuntu 22.04 Server定制版0602 资源与开发环境准备2.1 配置云主机首先登录开发者空间,登录后页面如下:点击配置云主机,按如下规格进行云主机配置。云主机名称:我的云主机/自定义CPU架构:X86规格:2 vCPUs 4 GB操作系统:Ubuntu系统镜像:公共镜像 Ubuntu 22.04 Server定制版确认以上配置正确,点击安装,进行云主机操作系统安装。安装完毕之后,点击进入桌面。环境准备中,大约需要3-5分钟,请您耐心等待…进入桌面后的默认效果如下:2.2 领取DeepSeek-V3-32K模型在云主机桌面底部菜单栏,点击打开火狐浏览器:用Firefox浏览器访问ModelArts Studio首页, 点击ModelArts Studio控制台,跳转到登录界面,按照提示登录,即可进入ModelArts Studio控制台:签署免责声明:进入ModelArts Studio控制台首页,在左侧菜单栏,选择模型推理中的在线推理,在免费服务中选择DeepSeek-V3-32K(NEW)模型,点击领取,领取200万免费token。3 安装并配置Kotaemon3.1 Kotaemon安装Kotaemon 是一个开源的、简洁且高度可定制的 RAG(Retrieval-Augmented Generation,检索增强生成)用户界面,专门设计用于与您的文档进行对话。无论是普通用户还是开发者,Kotaemon 都旨在提供一种直观、灵活且高效的方式来管理和交互您的文档内容。它不仅仅是一个简单的聊天工具,更是一个集成了先进 AI 技术的智能文档助手,能够帮助用户快速检索、理解和生成与文档相关的信息。项目地址:cid:link_4本次通过docker安装Kotaemon。首先先安装docker:参考文档:cid:link_1登录开发者空间云主机,更新软件包列表。sudo apt-get update安装Docker所需依赖包。sudo apt-get -y install ca-certificates curl创建/etc/apt/keyrings目录,并下载Docker的官方GPG密钥到该目录。sudo install -m 0755 -d /etc/apt/keyringssudo curl -fsSL https://mirrors.huaweicloud.com/docker-ce/linux/ubuntu/gpg -o /etc/apt/keyrings/docker.ascsudo chmod a+r /etc/apt/keyrings/docker.asc将Docker仓库添加到系统的软件源列表。echo \ "deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.asc] https://mirrors.huaweicloud.com/docker-ce/linux/ubuntu \ $(. /etc/os-release && echo "$VERSION_CODENAME") stable" | \ sudo tee /etc/apt/sources.list.d/docker.list > /dev/null更新软件包列表。sudo apt-get update安装并运行Docker。sudo apt-get install -y docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-pluginsudo systemctl start docker设置以非 root 用户身份管理 Docker#由于云主机默认的用户是developer非root用户,需要设置以非 root 用户身份管理 Docker#创建组dockersudo groupadd docker#将您的用户添加到组dockersudo usermod -aG docker $USER重启云主机回到工作台,点击重启按钮,云主机会自动重启或者您还可以运行以下命令来激活对组的更改:newgrp docker下面的命令是设置 Docker 在系统启动时自动启动。sudo systemctl enable docker查看docker版本信息。docker -v回显如下类似信息,表示Docker安装成功。Docker到此已经安装完毕。接下来通过Docker安装Kotaemon,命令如下:docker run \-e GRADIO_SERVER_NAME=0.0.0.0 \-e GRADIO_SERVER_PORT=7860 \-v ./ktem_app_data:/app/ktem_app_data \-p 7860:7860 -it \ghcr.nju.edu.cn/cinnamon/kotaemon:main-ollama正在安装Kotaemon中:稍等几分钟,下面是安装依赖的日志:继续等待依赖安装完成,下面是安装成功且运行的截图:3.2 登录Kotaemon首页我们在浏览器输入链接:http://localhost:7860发现加载出了首页:默认的Username和Password均为 admin我们输入上述Username和Password,点击登录:登录成功:3.3 在华为云Maas上获取DeepSeek-V3-32K(NEW)模型api接口首先我们要先配置DeepSeek-V3-32K(NEW)模型api接口:我们打开ModelArts Studio中API Key管理的链接:https://console.huaweicloud.com/modelarts/?locale=zh-cn®ion=cn-southwest-2#/model-studio/authmanage点击创建API Key:在标签中填入:Kotaemon描述中填入:开发者空间的Kotaemon当然上述标签和描述的内容可以自定义:创建成功:我们在页面上也可以看到创建成功:注意:API Key仅会在新建后显示一次,请及时复制并妥善保存,若API Key丢失,请新建API Key。我们接着查看在线推理中DeepSeek-V3-32K(NEW)模型api接口信息:查看调用信息,要点击OpenAI SDK按钮:我们成功得到了DeepSeek-V3-32K(NEW)模型接口信息。3.4 配置Kotaemon我们回到开发者空间云主机的火狐浏览器,在Kotaemon登录成功的页面中,首先点击Resources 按钮:点击LLMs按钮:我们在LLMs中先配置DeepSeek-V3-32K(NEW)模型接口,点击Add按钮添加模型供应商:出现下面界面:缩小页面,可以看到全部配置信息:LLM name选项就是需要显示的模型供应商的模型(自定义),本案例设置为华为云下面继续设置LLM vendors,我们这里必须选择ChatOpenAI最后的选项Specification用于配置模型的接口信息这里默认只给出了api_key和model,因为这里默认是OpenAI来提供模型,所以我们需要手动添加base_url指定模型的接口地址,注意:这里添加base_url,不能直接在api_key:null行最后通过换行,来添加一行,需要按住shift+enter 才能添加新的一行。我们将之前得到的Api key、API地址、模型名称填入选项中:我们已经填好信息,把下面的Set default 设置为默认模型勾选一下(1),点击添加模型(2):浏览器的右上角会出现添加成功的消息:我们点击View视图查看添加的模型:发现已经成功添加华为云为默认的LLMs:我们点击华为云,测试DeepSeek-V3模型是否连接正常:在Test connection中点击Test:测试发现,- Connection success. Got response: Hello! How can I assist you today? 以及右上角会显示infoLLM 华为云 connect successfully说明连接华为云成功注意:如果出现- Connection failed. Got error: Error code: 400 - {'error_code': 'ModelArts.4905', 'error_msg': 'Failed to check the authorization request header. '}说明api_key配置错误.请检查api_key是否填写正确。如果出现- Connection failed. Got error: Error code: 404 - {'detail': 'Not Found'}说明API地址 base_url 配置错误,需要配置正确的地址如果出现- Connection failed. Got error: Error code: 404 - {'object': 'error', 'message': 'The model `deepseek-V3` does not exist.', 'type': 'NotFoundError', 'param': None, 'code': 404}说明模型名称model配置错误,需要将名称配置为:DeepSeek-V3最后我们要保存配置:浏览器右上角会显示保存成功:接下来我们配置Embeddings 嵌入式模型:我们这里docker镜像采用了Ollama 捆绑包,所以使用容器内ollama提供嵌入式模型:nomic-embed-text我们勾选使用ollama为默认的嵌入式模型,然后测试其模型:点击Test:出现连接成功的提示:最后,要保存配置:右上角显示保存成功:最后检查LLMs和Embeddings是否配置正确:下面设置其他选项:首先点击Settings按钮,然后点击Retrieval settings:我们修改1个选项,将LLM for relevant scoring修改为默认:然后点击保存设置: 4 使用Kotaemon搭建本地AI知识库然后我们点击Chat回到首页:我们可以上传我们的个人笔记、知识文档,点击Files按钮,上传pdf文件:上传完成后,正在为文件创建索引:这里创建索引的时间是根据文件的大小和嵌入式模型的响应速度决定的,文件过大,创建索引时间可能过长。下面是文件创建索引成功:点击这个文件:上述文件已经加入我们的知识库了点击Chat按钮,返回首页我们先选中文件,点击Search In File(s):选择文件:首页我们要设置AI回答的语言为中文,点击下方红色方框的小按钮:点击Language下方的按钮:选择中文Chinese:选择完成后:我们可以对这个文件进行提问了:第一个问题:总结这个文件回答的不错这里由于开发者空间自带的firefox的版本太低,无法显示思维导图因此使用chrome浏览器。首先安装下载Google Chrome 的安装包:wget https://dl.google.com/linux/direct/google-chrome-stable_current_amd64.deb然后安装Google Chromesudo dpkg -i google-chrome-stable_current_amd64.deb查看是否安装成功:dpkg -l | grep google-chrome然后点击首页的左下角的所有应用程序按钮:然后点击运行程序:点击向下的箭头:选择chrome浏览器,启动即可:输入链接:http://localhost:7860/填入默认的Username和Password (均为admin)选择刚才的发现思维导图成功显示:点击Export按钮,可以在新窗口查看思维导图:打开了新窗口:点击Preview按钮,可以预览源文件可以浏览源文件:我们的AI知识库的搭建就完成了!5 总结与展望本次使用的Kotaemon的开源框架中关于RAG的一小部分应用,还有许多其他功能,开发者可以参考下面开源地址链接进行指导:Kotaemon项目地址:cid:link_4华为云Maas提供的DeepSeek-V3-32K模型响应速度挺快,虽然仅仅是体验,后续马上也要开通商用按量服务,应该速度更快! 我正在参加【案例共创】第3期 基于华为开发者空间+DeepSeek完成AI应用构建开发最佳实践https://bbs.huaweicloud.com/forum/thread-0218176004967264062-1-1.html
-
引言:在华为合作伙伴大会2025上,随着AI的广泛应用,海量数据需要随时访问,价值提升后的数据需要长时间保存,这使得热温数据存储空间需求急剧增加,加速存储全闪化成为大势所趋。在AI训练和推理中,数据存储可以发挥更大的作用,比如通过存储增强计算,提升AI训练集群利用率30%;通过长记忆存储,提升推理效率5倍。此外,随着AI的发展,企业IT架构正在向存算分离演进。 交流:最近的华为合作伙伴大会2025上,AI的行业化落地,需要大量高效的存储体系存储海量数据,大家觉得数据存储产品对AI有什么影响?
-
Ollama 是一个用于本地运行大型语言模型(LLM)的工具,而 DeepSeek 是一个具体的模型(如 DeepSeek-V3)。以下是如何在 Ollama 中部署和运行 DeepSeek 模型的详细教程。1. 安装 Ollama首先,确保你已经安装了 Ollama。如果尚未安装,可以参考以下步骤:在 Linux/macOS 上安装curl -fsSL https://ollama.ai/install.sh | sh在 Windows 上安装下载 Ollama 的 Windows 安装包。运行安装程序并按照提示完成安装。2. 拉取 DeepSeek 模型Ollama 支持从远程仓库拉取模型。假设 DeepSeek 模型已经发布到 Ollama 的模型库中,可以使用以下命令拉取模型:ollama pull deepseek如果模型名称不是 deepseek,请替换为实际的模型名称。拉取完成后,模型会存储在本地。3. 运行 DeepSeek 模型拉取模型后,可以直接运行模型进行交互。命令行交互ollama run deepseek运行后,你会进入一个交互式界面,可以直接输入问题或提示,模型会返回结果。示例:>>> 你好!你好!有什么可以帮你的吗?4. 通过 API 使用 DeepSeek 模型Ollama 提供了 REST API,可以通过 HTTP 请求与模型交互。启动 Ollama 服务ollama serve默认情况下,Ollama 会监听 http://localhost:11434。使用 API 生成文本curl http://localhost:11434/api/generate -d '{ "model": "deepseek", "prompt": "为什么天空是蓝色的?", "stream": false}'响应示例:{ "response": "天空是蓝色的因为...", "done": true}5. 部署 DeepSeek 模型如果你需要将 DeepSeek 模型部署为服务,可以参考以下步骤:(1) 编写启动脚本创建一个脚本(如 start_ollama.sh),内容如下:#!/bin/bashollama serve &ollama run deepseek(2) 设置开机自启动(Linux)将脚本添加到系统的启动项中:将脚本复制到 /etc/init.d/: sudo cp start_ollama.sh /etc/init.d/设置权限: sudo chmod +x /etc/init.d/start_ollama.sh添加到启动项: sudo update-rc.d start_ollama.sh defaults(3) 使用 Docker 部署如果你更喜欢使用 Docker,可以参考以下 Dockerfile:FROM ubuntu:latest# 安装依赖RUN apt-get update && apt-get install -y curl# 安装 OllamaRUN curl -fsSL https://ollama.ai/install.sh | sh# 拉取 DeepSeek 模型RUN ollama pull deepseek# 启动服务CMD ["ollama", "serve"]构建并运行 Docker 容器:docker build -t ollama-deepseek .docker run -d -p 11434:11434 ollama-deepseek6. 高级配置(1) 调整模型参数可以通过 API 调整模型的参数,例如温度(temperature)和最大生成长度(max_tokens)。示例:curl http://localhost:11434/api/generate -d '{ "model": "deepseek", "prompt": "写一个关于 AI 的故事", "stream": false, "options": { "temperature": 0.7, "max_tokens": 500 }}'(2) 多 GPU 支持如果你的机器有多个 GPU,可以通过环境变量指定使用的 GPU:export CUDA_VISIBLE_DEVICES=0,1 # 使用 GPU 0 和 GPU 1ollama serve7. 常见问题(1) 模型拉取失败检查网络连接。确保模型名称正确。(2) API 请求超时检查 Ollama 服务是否正常运行。增加 API 的超时时间。(3) 性能问题确保硬件资源(如 GPU)足够。调整模型参数以降低资源消耗。8. 参考文档Ollama 官方文档: cid:link_1DeepSeek 模型信息: cid:link_0
-
Ollama 是一个用于本地运行大型语言模型(LLM)的工具,支持通过 API 与模型进行交互。以下是 Ollama 常见的 API 及其使用方法:1. 启动 Ollama 服务在本地运行 Ollama 服务后,默认会监听 http://localhost:11434。启动命令:ollama serve2. 常见 API 端点(1) 生成文本(Completion)端点: POST /api/generate用途: 向模型发送提示(prompt)并获取生成的文本。请求示例: curl http://localhost:11434/api/generate -d '{ "model": "llama2", "prompt": "为什么天空是蓝色的?", "stream": false}'请求参数:model: 使用的模型名称(如 llama2)。prompt: 输入的提示文本。stream: 是否以流式传输结果(true 或 false)。响应示例: { "response": "天空是蓝色的因为...", "done": true}(2) 聊天(Chat)端点: POST /api/chat用途: 与模型进行多轮对话。请求示例: curl http://localhost:11434/api/chat -d '{ "model": "llama2", "messages": [ { "role": "user", "content": "你好!" }, { "role": "assistant", "content": "你好!有什么可以帮你的吗?" }, { "role": "user", "content": "你能告诉我天气吗?" } ], "stream": false}'请求参数:model: 使用的模型名称。messages: 对话历史记录,每条消息包含 role(user 或 assistant)和 content(消息内容)。stream: 是否以流式传输结果。响应示例: { "message": { "role": "assistant", "content": "抱歉,我无法提供实时天气信息。" }, "done": true}(3) 列出可用模型端点: GET /api/tags用途: 获取本地已下载的模型列表。请求示例: curl http://localhost:11434/api/tags响应示例: { "models": [ { "name": "llama2", "modified_at": "2023-10-01T12:00:00Z", "size": 4096, "digest": "sha256:abc123..." } ]}(4) 拉取模型端点: POST /api/pull用途: 从远程仓库下载模型到本地。请求示例: curl http://localhost:11434/api/pull -d '{ "name": "llama2"}'请求参数:name: 模型名称。响应示例: { "status": "downloading", "digest": "sha256:abc123...", "total": 4096, "completed": 1024}(5) 删除模型端点: DELETE /api/delete用途: 删除本地已下载的模型。请求示例: curl -X DELETE http://localhost:11434/api/delete -d '{ "name": "llama2"}'请求参数:name: 模型名称。响应示例: { "status": "success"}(6) 检查模型是否存在端点: POST /api/show用途: 检查本地是否存在指定模型。请求示例: curl http://localhost:11434/api/show -d '{ "name": "llama2"}'请求参数:name: 模型名称。响应示例: { "name": "llama2", "modified_at": "2023-10-01T12:00:00Z", "size": 4096, "digest": "sha256:abc123..."}3. 流式传输Ollama 支持流式传输(stream: true),适用于实时生成文本的场景。例如:流式生成文本curl http://localhost:11434/api/generate -d '{ "model": "llama2", "prompt": "为什么天空是蓝色的?", "stream": true}'响应示例(逐行输出):{"response": "天空", "done": false}{"response": "是", "done": false}{"response": "蓝色的", "done": false}{"response": "因为...", "done": true}4. Python 客户端示例可以使用 requests 库与 Ollama API 交互:import requests# 生成文本response = requests.post( "http://localhost:11434/api/generate", json={ "model": "llama2", "prompt": "为什么天空是蓝色的?", "stream": False })print(response.json())# 列出模型response = requests.get("http://localhost:11434/api/tags")print(response.json())5. 注意事项模型下载:首次使用模型时,需要先拉取模型(/api/pull)。流式传输:适合实时交互场景,但需要客户端支持流式处理。本地运行:Ollama 默认在本地运行,确保服务已启动。
-
Ollama 提供了一系列命令行工具,方便用户在本地运行、管理和自定义大型语言模型(LLMs)。以下是主要命令及其功能的详细介绍:常用命令ollama run <model-name>功能:运行指定的模型。示例: ollama run llama2说明:启动名为 llama2 的模型并进入交互模式,用户可以直接与模型对话。ollama list功能:列出本地已安装的模型。示例: ollama list说明:显示所有已下载和可用的模型。ollama pull <model-name>功能:从远程仓库下载模型。示例: ollama pull codellama说明:下载名为 codellama 的模型到本地。ollama rm <model-name>功能:删除本地模型。示例: ollama rm llama2说明:删除名为 llama2 的模型。ollama create <model-name> -f <Modelfile>功能:根据 Modelfile 创建自定义模型。示例: ollama create mymodel -f ./Modelfile说明:使用 Modelfile 中的配置创建名为 mymodel 的自定义模型。ollama serve功能:启动 Ollama 服务。示例: ollama serve说明:启动本地服务,允许通过 API 访问模型。ollama stop功能:停止正在运行的模型。示例: ollama stop说明:停止当前运行的模型实例。高级命令ollama logs功能:查看模型运行的日志信息。示例: ollama logs说明:显示模型运行时的日志输出,便于调试和监控。ollama version功能:查看 Ollama 的版本信息。示例: ollama version说明:显示当前安装的 Ollama 版本。ollama help功能:显示帮助信息。示例: ollama help说明:列出所有可用命令及其简要说明。使用示例下载并运行模型: ollama pull llama2ollama run llama2创建并运行自定义模型:创建 Modelfile: FROM llama2# 添加自定义配置创建并运行模型: ollama create mymodel -f ./Modelfileollama run mymodel管理模型:列出模型: ollama list删除模型: ollama rm llama2
-
Ollama 是一个开源项目,专注于在本地运行、创建和共享大型语言模型(LLMs)。它支持多种模型,包括 Llama 2、Code Llama 等,适用于 macOS 和 Linux 系统(Windows 支持正在开发中)。Ollama 通过命令行操作,简化了 LLMs 的部署和使用流程,用户无需复杂配置即可快速启动模型。主要功能本地运行:Ollama 允许用户在本地设备上运行 LLMs,无需依赖云端服务,提升隐私和安全性。模型支持:支持 Llama 2、Code Llama 等多种模型,满足不同应用场景。命令行操作:通过简单的命令行指令,用户可以轻松启动、停止和管理模型。自定义模型:用户可以根据需求创建和共享自定义模型,灵活适应特定任务。跨平台支持:目前支持 macOS 和 Linux,Windows 支持正在开发中。安装与使用安装:macOS:通过 Homebrew 安装: brew install ollamaLinux:使用安装脚本: curl -fsSL https://ollama.ai/install.sh | sh运行模型:启动模型: ollama run llama2停止模型: ollama stop创建自定义模型:编写 Modelfile 定义模型配置: FROM llama2# 添加自定义配置创建并运行自定义模型: ollama create mymodel -f ./Modelfileollama run mymodel应用场景开发与测试:本地运行 LLMs 便于开发和测试,无需依赖外部服务。教育与研究:适合教学和研究,帮助理解 LLMs 的工作原理。隐私保护:处理敏感数据时,本地运行确保数据不外泄。总结Ollama 是一个强大的工具,简化了 LLMs 的本地部署和使用,适合开发、研究及隐私敏感场景。随着 Windows 支持的推出,其应用范围将进一步扩大。
-
随着各大平台推出了deepseek类似的人工智能chat,发现他的强大真的超乎了 我们认知,之前大一才学的代码,需要一学期才能弄明白,现在deepseek只需要打出问题30s就能给出答案,这种情况将来会不会替代我们的程序员呢?
-
深度学习优化策略:提升模型性能的关键技术1. 引言深度学习模型的优化是人工智能研究的重要组成部分。无论是在图像识别、自然语言处理还是自动驾驶领域,优化策略直接影响模型的性能。本文将介绍几种常见的深度学习优化技术,并附带代码示例,帮助读者理解如何在实际项目中应用这些优化方法。2. 学习率调整策略学习率(Learning Rate)是优化过程中最关键的超参数之一。选择合适的学习率能够有效提升模型的收敛速度并避免陷入局部最优。2.1 学习率衰减(Learning Rate Decay)使用学习率衰减可以让训练初期有较大的步长,而后期降低步长,提高收敛精度。import tensorflow as tf # 指数衰减学习率 initial_learning_rate = 0.1 lr_schedule = tf.keras.optimizers.schedules.ExponentialDecay( initial_learning_rate, decay_steps=10000, decay_rate=0.96, staircase=True ) optimizer = tf.keras.optimizers.Adam(learning_rate=lr_schedule) 2.2 余弦退火(Cosine Annealing)余弦退火是一种较新的学习率调整方法,它能够模拟温度下降,使得模型更稳定地收敛。import torch import torch.optim as optim optimizer = optim.Adam(model.parameters(), lr=0.1) scheduler = optim.lr_scheduler.CosineAnnealingLR(optimizer, T_max=50) for epoch in range(100): train() # 训练过程 scheduler.step() 3. 归一化技术归一化可以加速模型收敛并防止梯度消失或梯度爆炸。3.1 批归一化(Batch Normalization)批归一化能够让每个批次的数据分布保持稳定,提高训练稳定性。import tensorflow as tf model = tf.keras.models.Sequential([ tf.keras.layers.Conv2D(32, (3,3), activation='relu'), tf.keras.layers.BatchNormalization(), tf.keras.layers.MaxPooling2D((2,2)), ]) 3.2 层归一化(Layer Normalization)与批归一化不同,层归一化在不同行数据上进行归一化,适用于RNN等序列任务。import torch.nn as nn layer_norm = nn.LayerNorm(normalized_shape=128) output = layer_norm(input_data) 4. 正则化技术正则化能够有效防止模型过拟合,提高泛化能力。4.1 L1/L2 正则化(权重衰减)L1/L2正则化通过在损失函数中添加额外的约束项,限制模型的复杂度。from tensorflow.keras import regularizers model = tf.keras.models.Sequential([ tf.keras.layers.Dense(128, activation='relu', kernel_regularizer=regularizers.l2(0.01)), ]) 4.2 DropoutDropout是一种随机失活神经元的方法,可以防止神经网络对特定路径的过度依赖。model = tf.keras.models.Sequential([ tf.keras.layers.Dense(128, activation='relu'), tf.keras.layers.Dropout(0.5), ]) 5. 结论本文介绍了深度学习优化的一些关键技术,包括学习率调整、归一化以及正则化方法,并提供了相关代码示例。这些技术能够有效提高模型的训练效率和泛化能力,在实际应用中具有重要价值。希望读者可以根据自己的任务需求选择合适的优化策略,从而提升模型性能。
上滑加载中