-
物体检测是物体分类基础上进一步的任务,下面是:物体检测开源数据集介绍1. PASCAL VOC简介: PASCAL VOC(Visual Object Classes)是物体检测领域的经典数据集,广泛应用于图像分类、目标检测、语义分割等任务。版本: 主要版本有VOC2007和VOC2012。数据量: 约11,000张图像,27,000个标注对象。类别: 20个类别,包括人、车、动物等。标注: 提供对象边界框和类别标签,部分数据包含像素级分割标注。特点: 数据量较小,适合算法验证和初步研究。2. MS COCO简介: MS COCO(Common Objects in Context)是微软发布的大规模数据集,适用于目标检测、分割、关键点检测等任务。数据量: 超过330,000张图像,2.5百万个标注实例。类别: 80个类别,涵盖日常物体。标注: 提供对象边界框、分割掩码、关键点等丰富标注。特点: 数据量大,场景复杂,适合训练深度学习模型。3. 其他相关数据集ImageNet: 主要用于图像分类,包含1400多万张图像,2万多个类别,部分数据有边界框标注。Open Images: 谷歌发布的大规模数据集,包含900多万张图像,600多个类别,标注包括边界框、分割掩码、关系标注等。KITTI: 专注于自动驾驶,提供2D和3D边界框、光流、深度图等标注。Cityscapes: 专注于城市场景语义理解,提供5000张精细标注和20000张粗略标注的图像,适用于语义分割和实例分割。LVIS: 针对长尾分布问题,包含1200多个类别,标注包括实例分割掩码。总结PASCAL VOC: 适合初步研究和算法验证。MS COCO: 适合深度学习模型训练和评估。其他数据集: 如ImageNet、Open Images、KITTI、Cityscapes、LVIS等,各有侧重,可根据需求选择。
-
一、案例介绍MateChat 致力于构建不同业务场景下高一致性的 GenAI 体验系统语言,同时匹配各种工具/平台的原生业务场景和界面特征,提供更适合研发工具领域的对话组件,打造流畅亲和、跨界一致、易学易用的用户体验,以及易接入、易维护、易扩展的开发体验。开源仓库地址: cid:link_6Mass(即 ModelArts Studio 大模型即服务平台)是华为云面向 AI 开发者推出的一站式大模型开发平台,支持开发者一键体验大模型能力,快速构建大模型应用。Mass 平台提供大模型训练、推理、部署、管理、监控等全生命周期管理能力,帮助开发者快速构建大模型应用,加速 AI 开发。开发者空间是华为云面向开发者提供的云上开发环境,支持开发者快速创建、部署、调试、运行、管理应用。开发者空间提供丰富的开发工具和资源,支持开发者快速构建应用,加速开发。本案例中我们使用华为云开发者空间,基于 MateChat 和 Mass 快速开发智能对话界面。二、免费领取云主机如您还没有云主机,可点击链接,根据领取指南进行操作。如您已领取云主机,可直接开始案例实践。三、操作流程💡 说明:本实验需要华为云账号,且经过实名认证本实验需要开发者空间账号,且经过实名认证如您还没有云主机,可点击链接,根据领取指南进行操作。仅“华东二”区域支持使用 ModelArts Studio 大模型即服务平台(MaaS)。MaaS 是白名单功能,请先申请权限。① 通过开发者空间云主机的 Firefox 浏览器访问并开通 ModelArts Studio 模型即服务。本次实验采用的 Qwen2_5-72B-Instruct 。② 通过终端从 cid:link_7 获取源代码,源代码基于 Vite+Vue3+Express 实现 MateChat 的应用。③ 通过 Firefox 浏览器访问本地部署的 MateChat 应用,体验智能对话。四、用到资源云资源消耗/时时长开发者空间-云主机免费30minModelArts Studio免费30min合计:0 元五、实践步骤1、环境开通及源代码获取1.1 配置云主机工欲善其事必先利其器,首先配置云主机并使用 Euler 的 JS 工具集(Nodejs + Git),当然如果您已经使用了其他环境,我们需要安装 NodeJS(cid:link_8)。如上图点击“安装”我们即可获得一个 NodeJS 环境,进入桌面后,我们可以打开终端执行命令查看当前的 NodeJS 版本和 Git 版本,确认环境已初始化成功:node -v npm -v git --version1.2 源代码获取本案例涉及的代码已发布在 GitCode 平台上: cid:link_7执行 git clone 拉取源代码git clone [cid:link_7](cid:link_7) 2. ModelArts Studio 模型服务2.1 访问 ModelArts Studio 模型部署进入云主机,打开浏览器,输入 https://console.huaweicloud.com/modelarts/?region=cn-east-4&locale=zh-cn#/model-studio/deployment ,即可访问 ModelArts Studio。2.2 领取免费 Token 额度领取千万免费 token 额度,可用于体验 Qwen、Chatglm 等系列模型,免费额度仅适合用于体验模型。Qwen2.5 系列预置服务还支持 Function Calling,可以用于构建 Agent。2.3 获取大模型 API 和名称以 Qwen2_5-72B-Instruct 为例,点击更多-调用,获取 API 地址和模型名称。2.4 创建 API Key左侧鉴权管理-创建 API Key,保存创建的密钥信息最多创建 5 个密钥,密钥只会在新建后显示一次,请妥善保存。2.5 调试大模型 API我们使用 curl 脚本调试大模型 API,确保 API 配置可用,在终端执行以下命令。# 调试API curl -X POST "yourBaseUrl" \ -H "Content-Type: application/json" \ -H "Authorization: Bearer yourApiKey" \ -d '{ "model": "yourModelName", "max_tokens": 20, "messages": [ {"role": "system", "content": "You are a helpful assistant."}, {"role": "user", "content": "你好"} ], "stream": false, "temperature": 1.0 }' 💡 请把 yourBaseUrl、yourApiKey、yourModelName 替换为步骤 2.1.3 和步骤 2.1.4 中的信息。能看到类似的返回即为 API 配置可用。{"id":"chat-1d324bf7eb884c728b2542ddc53f7218","object":"chat.completion","created":1734748674,"model":"Qwen2.5-72B","choices":[{"index":0,"message":{"role":"assistant","content":"你好!很高兴见到你!你有什么问题或者需要帮助吗?","tool_calls":[]},"logprobs":null,"finish_reason":"stop","stop_reason":null}],"usage":{"prompt_tokens":20,"total_tokens":35,"completion_tokens":15},"prompt_logprobs":null} 3 运行 MateChat通过上面两步,我们已经获取到了所需要环境、代码、大模型 API 配置,接来我们将安装依赖并修改配置最终运行 MateChat。3.1 安装依赖我们进入到项目并执行命令安装依赖:cd MateChat-Web && npm install 安装结果如下图则说明依赖安装成功.3.2 修改配置我们可以通过 cat 命令查看 .env.examplecat .env.example其内容为:VITE_OPENAI_API_KEY=你的API密钥 VITE_OPENAI_PROXY_URL=你的API地址 VITE_OPENAI_MODEL=你的模型名称 VITE_PORT=8090 VITE_OPENAI_BASE_URL=http://localhost:8090 这是因为 Maas 提供的大模型 API 不支持客户端调用的缘故,我们需要通过 express 转发请求。接着我们通过 cp 命令复制一份名为 .env 的配置文件cp .env.eample .env cat .env接着我们通过云主机自带的 emacs 软件打开并编辑 .env 文件:emacs .env💡 也可以使用 vi 命令修改 .env ; 目的是配置好大模型 API,注意 chat/completion 这部分需删除3.3 运行 MateChat确认配置无误后,通过以下命令运行程序:npm run start按住 Ctrl,鼠标单击 http://localhost:5173 即可访问 MateChat:尝试问个问题能看到 MaasAPI 的回复:至此,我们成功运行了 MateChat!
-
图像分类是计算机视觉中最核心的任务之一,许多更复杂的视觉任务都建立在它的基础上,或者直接依赖于图像分类的技术。1. 目标检测(Object Detection)与图像分类的关系:目标检测不仅需要识别图像中的对象类别(分类任务),还需要确定对象的位置(通常用边界框表示)。技术依赖:许多目标检测算法(如Faster R-CNN、YOLO、SSD)都使用了图像分类模型(如ResNet、VGG)作为特征提取器。这些模型首先在图像分类任务上预训练,然后在目标检测任务上微调。示例:在自动驾驶中,车辆需要检测道路上的行人、车辆、交通标志等,这既需要分类能力,也需要定位能力。2. 语义分割(Semantic Segmentation)与图像分类的关系:语义分割可以看作是对图像中每个像素进行分类的任务。它需要更细粒度的分类能力。技术依赖:语义分割模型(如U-Net、DeepLab)通常基于图像分类模型(如ResNet)进行改进,使用编码器-解码器结构来生成像素级分类结果。示例:在医学影像分析中,语义分割可以用于区分肿瘤区域和正常组织。3. 实例分割(Instance Segmentation)与图像分类的关系:实例分割结合了目标检测和语义分割,不仅要区分不同类别的对象,还要区分同一类别的不同实例。技术依赖:实例分割模型(如Mask R-CNN)通常基于目标检测模型(如Faster R-CNN),而目标检测模型又依赖于图像分类模型。示例:在机器人抓取任务中,需要区分场景中的多个杯子,并为每个杯子生成精确的轮廓。4. 关键点检测(Keypoint Detection)与图像分类的关系:关键点检测需要识别图像中对象的特定关键点(如人脸的眼睛、鼻子、嘴巴),这可以看作是对关键点位置的分类任务。技术依赖:关键点检测模型(如OpenPose)通常使用图像分类模型提取特征,然后通过回归或分类方法预测关键点位置。示例:在人体姿态估计中,需要检测人体的关节位置。5. 目标跟踪(Object Tracking)与图像分类的关系:目标跟踪需要在视频序列中持续跟踪特定对象,通常需要先对目标进行分类,然后在后续帧中定位目标。技术依赖:目标跟踪算法(如SORT、DeepSORT)通常使用图像分类模型来提取目标特征,以便在不同帧中匹配目标。示例:在视频监控中,跟踪一个特定的人或车辆。6. 图像生成(Image Generation)与图像分类的关系:图像生成任务(如GAN)通常需要模型理解图像的语义信息(分类信息),以便生成符合语义的图像。技术依赖:生成对抗网络(GAN)中的判别器(Discriminator)通常是一个图像分类模型,用于判断生成的图像是否真实。示例:生成逼真的人脸图像。总结图像分类是计算机视觉的基石,它为其他任务提供了特征提取能力和语义理解能力。无论是目标检测、分割还是生成任务,都离不开图像分类的技术支持。因此,掌握图像分类的原理和方法,是进一步学习和应用更复杂视觉任务的关键。
-
AI视觉任务主要包括以下几类:图像分类(Image Classification)目标:识别图像中的主要对象或场景,并将其归类到预定义的类别中。示例:判断一张图片是“猫”还是“狗”。目标检测(Object Detection)目标:识别图像中的多个对象,并确定它们的位置和类别。示例:在一张图片中标注出所有“汽车”和“行人”的位置及类别。语义分割(Semantic Segmentation)目标:为图像中的每个像素分配一个类别标签,区分不同对象或区域。示例:将图像中的“道路”、“天空”、“建筑物”等区域分别标记出来。实例分割(Instance Segmentation)目标:在语义分割的基础上,进一步区分同一类别的不同实例。示例:在图像中标注出每只“猫”或“狗”的具体轮廓。关键点检测(Keypoint Detection)目标:识别图像中对象的特定关键点。示例:检测人脸图像中的眼睛、鼻子、嘴巴等关键点。目标跟踪(Object Tracking)目标:在视频序列中持续跟踪特定对象的位置和状态。示例:在视频中跟踪一个运动的“汽车”。图像生成(Image Generation)目标:生成新的图像,通常基于某种输入或条件。示例:根据文本描述生成对应的图像。图像修复(Image Inpainting)目标:修复图像中的缺失或损坏部分。示例:修复老照片中的划痕或缺失区域。超分辨率(Super-Resolution)目标:将低分辨率图像转换为高分辨率图像。示例:将模糊的图像变得清晰。风格迁移(Style Transfer)目标:将一种艺术风格应用到另一张图像上。示例:将普通照片转换为具有梵高风格的图像。其中,图像分类是AI视觉任务中最基础的任务之一。它不仅是计算机视觉领域的起点,也是许多其他复杂任务的基础。简单直观:图像分类的目标是将图像分配到预定义的类别中,任务定义清晰,容易理解。基础模型:许多先进的视觉模型(如卷积神经网络CNN)最初是为图像分类设计的,后续才扩展到其他任务。其他任务的基础:目标检测、语义分割等任务通常依赖于图像分类的技术。例如,目标检测可以看作是在图像分类的基础上增加了定位功能。
-
cid:link_0以上是官方文档地址,使用的环境和官方文档完全一致,看起来代码中没有提前设置context,但就是报以下错误:------------------------- Creating network... ---------------------------------------------------------------------------TypeError Traceback (most recent call last)Cell In[7], line 57 55 print('------------------------- Creating network...', flush=True) 56 net_mgr: Llama2Network = Llama2Network()---> 57 config = net_mgr.create_mfconfig("./workspace/predict_llama2_7b.yaml") 58 network = net_mgr.create_network(config) 59 logger.info(f'Create Network cost time is {time.time() - start} s.')Cell In[7], line 19, in Llama2Network.create_mfconfig(config_path) 17 config = MindFormerConfig(config_path) 18 config.model.model_config = LlamaConfig(**config.model.model_config)---> 19 init_context(use_parallel=config.use_parallel, context_config=config.context, parallel_config=config.parallel) 20 return configFile ~/anaconda3/envs/MindSpore/lib/python3.9/site-packages/mindformers/core/context/build_context.py:139, in init_context(use_parallel, context_config, parallel_config) 136 rank_id = 0 137 context_config['mode'] = MODE.get(context_config.get('mode'))--> 139 context.set_context(max_device_memory=context_config.get('max_device_memory'), 140 mode=context_config.get('mode')) 141 del context_config['mode'] 142 del context_config['max_device_memory']File ~/anaconda3/envs/MindSpore/lib/python3.9/site-packages/mindspore/_checkparam.py:1352, in args_type_check.<locals>.type_check.<locals>.wrapper(*args, **kwargs) 1350 if value is not None and not isinstance(value, bound_types[name]): 1351 raise TypeError(f"The parameter '{name}' must be {bound_types[name]}, but got {type(value)}")-> 1352 return func(*args, **kwargs)File ~/anaconda3/envs/MindSpore/lib/python3.9/site-packages/mindspore/context.py:1803, in set_context(**kwargs) 1801 continue 1802 if key in ctx.setters:-> 1803 ctx.setters[key](ctx, value) 1804 continue 1805 if hasattr(ctx, key):File ~/anaconda3/envs/MindSpore/lib/python3.9/site-packages/mindspore/context.py:545, in _Context.set_max_device_memory(self, max_device_memory) 543 if max_device_memory_value == 0: 544 raise ValueError("For 'context.set_context', the argument 'max_device_memory' should not be \"0GB\".")--> 545 self.set_param(ms_ctx_param.max_device_memory, max_device_memory_value)File ~/anaconda3/envs/MindSpore/lib/python3.9/site-packages/mindspore/context.py:187, in _Context.set_param(self, param, value) 186 def set_param(self, param, value):--> 187 self._context_handle.set_param(param, value)TypeError: For 'set_context', the parameter max_device_memory can not be set repeatedly, origin value [29] has been in effect. Maybe 'mindspore.communication.init()' has been called before 'set_context()'.----------------------------------------------------- C++ Call Stack: (For framework developers)----------------------------------------------------mindspore/core/utils/ms_context.cc:405 CheckReadStatus
-
使用SDK的方式做在线部署,出现以下问题,有没有大佬可以看一下解决方案的。
-
SD卡烧录好欧拉系统,HiLens能够设置SD卡为启动首选项,使用SD卡烧录的系统吗?备注:HiLens根目录只有2GB,空间太少了,安装几个库就没有空间了,总计32GB的空间,分成了很多个区,不敢贸然合并,所以想搞个大容量SD卡,烧录系统使用
-
将周围像素分配负权重而不是0权重的原因在于,负权重能够更好地捕捉到边缘的特征,而0权重则无法做到这一点。1. 负权重的作用:增强对比度边缘的定义:边缘是图像中亮度或颜色发生显著变化的区域。例如,一个亮物体在暗背景下的边缘,中央像素很亮,而周围像素很暗。负权重的作用:通过给周围像素分配负权重,神经网络可以放大中央像素与周围像素之间的差异。如果中央像素很亮,而周围像素很暗,负权重会进一步减少周围像素的贡献,从而使加权和更大,更容易检测到边缘。0权重的问题:如果周围像素的权重为0,那么周围像素的亮度值对加权和没有影响。这意味着网络无法区分中央像素是否被暗像素包围,从而无法有效检测边缘。2. 数学上的解释负权重的情况:加权和在边缘处(中央亮,周围暗)会显著大于非边缘处(中央和周围都亮)。0权重的情况:如果周围像素的权重为0,那么无论周围像素是亮还是暗,加权和都只取决于中央像素:网络无法区分中央像素是否被暗像素包围,因此无法检测边缘。3. 直观理解:边缘检测的本质边缘检测的核心是捕捉亮度变化,而不仅仅是中央像素的亮度。负权重的作用是让网络对中央像素与周围像素的对比度敏感:如果中央像素很亮,周围像素很暗,加权和会很大(因为负权重减少了周围像素的贡献)。如果中央像素和周围像素都很亮,加权和会较小(因为负权重抵消了周围像素的贡献)。如果中央像素和周围像素都很暗,加权和会很小。这种设计使得网络能够有效地区分边缘区域和非边缘区域。4. 为什么不用0权重?如果周围像素的权重为0,网络将完全忽略周围像素的信息,只能根据中央像素的亮度来判断。这会导致以下问题:无法检测边缘:边缘的特征是中央像素与周围像素的亮度差异,如果忽略周围像素,网络无法捕捉这种差异。失去局部上下文:图像中的许多特征(如边缘、纹理)都依赖于局部像素之间的关系。如果权重为0,网络将失去这些重要信息。
-
Deconvolutional Network(反卷积网络)是一种用于可视化和理解卷积神经网络(CNN)内部特征的工具,由Matthew Zeiler和Rob Fergus在2013年的论文《Visualizing and Understanding Convolutional Networks》中提出。它的主要目的是通过“逆向”操作,将卷积神经网络中每一层的特征图映射回输入像素空间,从而揭示网络在不同层次上学到的特征。1. Deconvolutional Network 的核心思想Deconvolutional Network 的核心思想是通过一系列反向操作(如反卷积、反池化等),将卷积层的输出特征图重建为输入图像的空间表示。通过这种方式,可以直观地看到每个卷积核(filter)对输入图像的哪些部分响应最强,从而理解网络的学习过程。2. Deconvolutional Network 的主要组件Deconvolutional Network 包含以下关键操作:(1)反卷积(Deconvolution)反卷积(也称为转置卷积)是卷积操作的逆过程。它通过将特征图“上采样”到更高的分辨率,试图重建输入图像的空间结构。反卷积操作使用与原始卷积核相同的权重,但方向相反。(2)反池化(Unpooling)池化操作(如最大池化)会丢失一些空间信息,因为它在局部区域中选择最大值并丢弃其他值。反池化通过记录池化时的最大值位置(称为“开关”),在重建时将值放回原来的位置,其他位置填充零。这种操作可以部分恢复池化过程中丢失的空间信息。(3)激活函数反向映射在卷积神经网络中,激活函数(如ReLU)会引入非线性。在Deconvolutional Network中,反向映射时只保留正激活值,负值被置为零。3. Deconvolutional Network 的工作流程Deconvolutional Network 的工作流程可以分为以下几个步骤:选择目标特征图:从卷积神经网络的某一层中选择一个特征图(通常是某个卷积核的输出)。反向操作:通过反卷积、反池化和激活函数反向映射,将特征图逐步映射回输入像素空间。重建输入图像:最终得到一个与输入图像大小相同的重建图像,显示该特征图对输入图像的哪些部分响应最强。4. Deconvolutional Network 的应用Deconvolutional Network 主要用于以下场景:(1)可视化卷积核的特征通过将每个卷积核的特征图映射回输入空间,可以直观地看到该卷积核对哪些视觉模式(如边缘、纹理、形状)敏感。例如,低层卷积核通常对边缘和纹理敏感,而高层卷积核可能对更复杂的模式(如物体部分)敏感。(2)理解网络的层次化特征学习通过可视化不同层次的特征图,可以观察到网络从简单特征(低层)到复杂特征(高层)的层次化学习过程。(3)诊断网络问题如果某些卷积核的特征图没有明显的模式,可能表明网络训练不足或结构设计有问题。5. Deconvolutional Network 的局限性尽管Deconvolutional Network 是一种强大的可视化工具,但它也有一些局限性:重建图像不完美:由于池化操作会丢失信息,重建的图像通常只能部分恢复原始输入的结构。解释性有限:虽然可以观察到特征图的响应模式,但无法完全解释网络的决策过程。计算成本较高:对于深层网络,反卷积和反池化操作的计算量较大。6. 示例:Deconvolutional Network 的可视化结果在Zeiler和Fergus的研究中,他们使用Deconvolutional Network 可视化了AlexNet的不同层次特征图:第一层卷积核:学习到类似Gabor滤波器的模式,对边缘和纹理敏感。中间层卷积核:学习到更复杂的纹理和物体部分。高层卷积核:学习到与类别相关的语义特征(如狗的脸、车轮等)。7. 总结Deconvolutional Network 是一种重要的可视化工具,通过反卷积、反池化等操作,将卷积神经网络的特征图映射回输入空间,帮助我们理解网络的学习过程。尽管它有一定的局限性,但在解释卷积神经网络的层次化特征学习方面发挥了重要作用。
-
这个找不到文件是mindspore的问题,还是我的设置的问题以下是我的设置
-
ModelArts Studio作为华为云的一站式AI开发平台,提供了丰富的开源大模型资源,支持一键部署模型服务并通过API调用。Dify.AI则是一个功能强大的Agent开发框架,通过可视化的工作流编排方式,让开发者能够快速构建聊天助手、知识库、Agent等智能应用,大幅提升AI应用开发效率。开发者空间则汇聚了以华为云为底座的鲲鹏、昇腾、鸿蒙根技术工具和资源,为每个开发者提供一台云主机, 云主机中预置的开发工具、沙箱环境、云存储空间、案例中心、技术支持入口等能力,帮助开发者持续使用、持续成长、持续创新。流程概览① 通过开发者空间云主机的Firefox浏览器访问并开通 ModelArts Studio 模型即服务。本案例中采用的 Qwen2_5-72B-Instruct 。② 通过终端从 https://gitcode.com/huqi/huaweicloud-dify 获取安装脚本,安装脚本基于 Docker 安装并部署 Dify.AI。③ 通过Firefox浏览器访问开发者空间云主机部署的 Dify.AI,完成后续模型服务配置、应用开发等操作。说明:本案例需要华为云账号,且经过实名认证本案例需要开发者空间账号,且经过实名认证仅“华东二”区域支持使用ModelArts Studio大模型即服务平台(MaaS)。MaaS是白名单功能,请先申请权限。所需资源云资源消费/时时长开发者空间 云主机免费—ModelArts Studio免费(需先领取千万免费Tokens)–ModelArts Studio 模型服务访问 ModelArts Studio 模型部署进入云主机,打开浏览器,输入 https://console.huaweicloud.com/modelarts/?region=cn-east-4&locale=zh-cn#/model-studio/deployment ,即可访问ModelArts Studio。领取免费 Token 额度领取千万免费token额度,可用于体验Qwen、Chatglm等系列模型,免费额度仅适合用于体验模型。Qwen2.5系列预置服务还支持Function Calling,可以用于构建Agent。获取大模型API和名称以Qwen2_5-72B-Instruct为例,点击更多-调用,获取API地址和模型名称。创建API Key左侧鉴权管理-创建API Key,保存创建的密钥信息最多创建5个密钥,密钥只会在新建后显示一次,请妥善保存。调试大模型API我们使用 curl 脚本调试大模型API,确保API配置可用,在终端执行以下命令。# 调试API curl -X POST "yourBaseUrl" \ -H "Content-Type: application/json" \ -H "Authorization: Bearer yourApiKey" \ -d '{ "model": "yourModelName", "max_tokens": 20, "messages": [ {"role": "system", "content": "You are a helpful assistant."}, {"role": "user", "content": "你好"} ], "stream": false, "temperature": 1.0 }' 请把yourBaseUrl、yourApiKey、yourModelName替换为步骤2.1.3和步骤2.1.4中的信息。能看到类似的返回即为API配置可用。{"id":"chat-1d324bf7eb884c728b2542ddc53f7218","object":"chat.completion","created":1734748674,"model":"Qwen2.5-72B","choices":[{"index":0,"message":{"role":"assistant","content":"你好!很高兴见到你!你有什么问题或者需要帮助吗?","tool_calls":[]},"logprobs":null,"finish_reason":"stop","stop_reason":null}],"usage":{"prompt_tokens":20,"total_tokens":35,"completion_tokens":15},"prompt_logprobs":null} 安装和配置Dify.AI安装Dify.AI安装脚本见: https://gitcode.com/huqi/huaweicloud-dify如有问题欢迎反馈: https://gitcode.com/huqi/huaweicloud-dify/discussion进入云主机,打开终端,执行以下命令,安装Dify.AI。# 下载安装脚本 sudo wget -P /home/ https://raw.gitcode.com/huqi/huaweicloud-dify/raw/main/install.sh # 执行安装脚本 sudo bash /home/install.sh安装完毕后显示安装过程结束,详细日志请查看: /var/dify-install.log 即为安装成功。登录Dify.AI通过云主机,打开浏览器,输入http://127.0.0.1,即可访问Dify.AI。如果端口80无法访问,我们可以通过命令去查看端口的使用情况,确定Dify.AI使用的端口。# 查看端口使用情况 sudo netstat -tulnp | grep docker首次登陆需注册管理员账号,依次填写邮箱、账号、密码。配置Dify.AI进入Dify平台,点击右上角设置,进入模型供应商页签,选择OpenAI-API-compatible供应商,关键信息配置如下:模型类型选择LLM模型名称请填入步骤2.1.3服务信息中的模型名称API Key 请填入步骤2.1.4中创建的API KeyAPI endpoint URL请填入步骤2.1.3中的API地址,并且删除最后面chat/completions部分Completion mode请选择对话模型上下文长度\最大 token 上限保持默认Function calling保持默认不支持Stream function calling保持默认不支持流模式返回结果的分隔符保持默认\n\n构建Agent创建Agent在Dify平台(http://127.0.0.1/apps),点击工作室–Agent-创建空白应用,进入Agent页签,填写Agent名称。Agent 设置在右上角单击“Agent 设置”,选择上一步配置好的模型进行使用。Function Call 模式会报错,实际使用代理模型,下图为 Agent 设置示意图编排提示词配置在“编排”页面的“提示词”文本框,输入以下信息。你是一位乐于助人的AI助手。在回答用户问题时,你需要遵循以下原则: 1. 始终使用自然语言解释你将要采取的行动 2. 在调用工具之前,说明你要使用哪个工具以及原因 3. 在获取信息的过程中,清晰地描述你正在做什么 4. 永远不要返回空的回复 - 确保用自然语言解释你的每个步骤 举例说明: 当用户询问今日热点新闻时,你应该这样回复: "让我使用新闻搜索工具为您查询今日热点新闻..." 然后再进行具体的工具调用。 重要提示: - 先表达你的理解和计划 - 再使用相应的工具 - 每次回复都必须包含对用户的清晰解释 基于以上原则,请根据用户的问题,给出相应的回答。编排工具配置在“编排”页面的“工具”区域右侧,单击“添加”,按需添加工具并与模型进行对话调用。Dify内置有丰富的插件,同时支持自定义工具的创建调试Agent我们可以进行调试和预览。使用Agent我们可以通过网页的方式,直接与Agent对话,也可以通过API的方式,将Agent集成到其他系统中。总结通过本案例,我们了解了如何使用ModelArts Studio平台和开源Agent框架Dify.AI构建个性化聊天助手。ModelArts Studio提供了丰富的开源大模型资源,支持一键部署模型服务并通过API调用。Dify.AI则是一个功能强大的Agent开发框架,通过可视化的工作流编排方式,让开发者能够快速构建聊天助手、知识库、Agent等智能应用,大幅提升AI应用开发效率。最重要的开发者空间为我们提供了便捷的开发环境,让我们更专注于业务开发。参考文档ModelArts用户指南(Studio)Dify.AI 文档开发者空间案例中心我正在参加【案例共创】第1期 书写云产品应用构建开发最佳实践/评测,共创官方文档https://bbs.huaweicloud.com/forum/thread-0217170307934787108-1-1.html
-
llama的启动指令不是py,而是bash。具体启动指令是:bash run_distribute.sh /user/config/jobstart_hccl.json ../configs/llama/run_llama_7b.yaml [0,8] finetune然后我查了一下文档,在训练作业中执行.sh文件的方法如下:然后我试了一下,但是一直显示找不到路径,有人知道是怎么回事吗?感谢!!!我的训练作业配置如下:按照官网给的文档,我的test.py文件配置如下:报错如下:显示找不到这个文件,但是我检查了我的路径,我的路径是对的。这是我OBS里面的文件位置:有人知道怎么回事吗?感谢!!!
-
不太好。斯坦福大学最新研究表明,在他们最新提出的Putnam-AXIOM测试集上,仅仅是更换一下原题目的变量名称、变量取值范围,模型的准确率就直线下降。也就是说,大模型的数学推理能力并不是真正掌握了解题逻辑,很可能只是检索已存储的题目……即使是表现最好的o1-preview,它的成绩也从50%下降到了33.96%,GPT-4o、Claude、Deepseek、Qwen等模型也几乎是全军覆没。要知道,模型推理能力的稳健性可是非常重要的指标,能代表他们是否真正掌握了解决方法:有网友锐评到:o1的o不会是overfitting的o吧?(doge)还有热心网友做了解释,他认为模型的搜索空间会随着深度指数级增长,搜索时间越长,搜索的难度也会更高。
-
虽然说是开源了,但是得多少硬件配置才能跑起来呢?总参数是671B,就是6710亿个参数。虽然激活是37B,但是激活之前,总要全部加载先吧~
-
1. 神经元(Neuron)概念:神经元是人工神经网络的基本单元,负责接收输入、处理数据并产生输出。它的核心功能是对输入信号进行加权求和,并通过激活函数决定是否输出信号。作用:神经元的作用是整合输入信息,做出“决策”。每个神经元接收多个输入信号,每个信号都有一个权重,神经元将这些信号加权求和,再加上一个偏置,最后通过激活函数处理,输出一个值。类比:神经元就像一个“小决策器”。比如,你要决定是否出门,可能会考虑天气、心情、是否有事等因素。神经元就是把这些因素综合起来,做出一个决定。2. 连接(Connection)概念:连接是神经元之间的桥梁,每个连接都有一个权重,表示信号传递的强度。作用:连接的作用是传递信号,并通过权重调整信号的重要性。权重越大,表示该输入对神经元的影响越大。类比:连接就像是你对不同因素的重视程度。比如,你可能更看重天气,所以天气这个输入的权重就比较大。3. 权重(Weight)概念:权重是连接上的一个数值,表示输入信号对神经元的重要性。权重可以是正数、负数或零,正数表示增强信号,负数表示抑制信号,零表示忽略信号。作用:权重的作用是调整输入信号的影响力。神经网络的训练过程就是不断调整权重,使得网络的输出更接近预期结果。类比:权重就像是你对不同因素的“重视程度”。比如,天气的权重是0.8,心情的权重是0.3,表示你更看重天气。4. 偏置(Bias)概念:偏置是神经元中的一个常数,用于调整神经元的激活阈值。它可以理解为神经元的“偏好”。作用:偏置的作用是让神经元更容易或更难被激活。它可以增加模型的灵活性,帮助神经网络更好地拟合数据。类比:偏置就像是你做决定时的“倾向性”。比如,你天生喜欢宅在家里,那么即使天气很好,你可能也不太愿意出门。这个“倾向性”就是偏置的作用。5. 激活函数(Activation Function)概念:激活函数是神经元中的一个数学函数,用于决定神经元是否应该被“激活”,即是否输出信号。作用:激活函数的作用是引入非线性,使得神经网络可以学习复杂的模式。如果没有激活函数,神经网络就只能学习线性关系,无法处理复杂问题。常见激活函数:Sigmoid:将输入压缩到0和1之间。ReLU(Rectified Linear Unit):如果输入大于0,输出输入值;否则输出0。Tanh:将输入压缩到-1和1之间。类比:激活函数就像是你做决定时的“门槛”。比如,只有当综合评分超过某个值时,你才会决定出门。这个“门槛”就是激活函数的作用。6. 完整流程输入信号:神经元接收多个输入信号((x_1, x_2, …, x_n))。加权求和:每个输入信号乘以对应的权重((w_1, w_2, …, w_n)),然后相加,再加上偏置((b))。公式为:[z = w_1x_1 + w_2x_2 + … + w_nx_n + b]激活函数:将加权求和的结果 (z) 输入激活函数 (f),得到神经元的输出:[y = f(z)]输出信号:输出 (y) 会传递到下一层神经元,作为它们的输入。7. 总结神经元是决策器,负责整合输入信号并输出结果。连接是神经元之间的桥梁,通过权重调整信号的重要性。偏置是神经元的“倾向性”,帮助调整激活阈值。激活函数是决策的门槛,引入非线性,使神经网络能够学习复杂模式。整体关系:输入信号通过连接传递到神经元,每个信号被权重调整。神经元对加权输入求和,加上偏置,得到中间结果。中间结果通过激活函数处理,得到最终输出。输出信号传递到下一层神经元,重复上述过程。举个例子假设你要决定是否出门,考虑以下因素:天气((x_1)):权重 (w_1 = 0.8)(你很看重天气)心情((x_2)):权重 (w_2 = 0.3)(心情影响较小)是否有事((x_3)):权重 (w_3 = 0.5)(有一定影响)偏置 (b = -0.5)(你天生喜欢宅在家里)计算过程:加权求和:[z = w_1x_1 + w_2x_2 + w_3x_3 + b = 0.8x_1 + 0.3x_2 + 0.5x_3 - 0.5]通过激活函数(比如ReLU):[y = \text{ReLU}(z)]如果 (z > 0),则 (y = z),表示决定出门;否则 (y = 0),表示不出门。这其中,最基本的就是神经元。就是下图中的圈圈。它可以理解为一个初始值、一个最终的输出、也可以理解成一个函数。
推荐直播
-
GaussDB管理平台TPOPS,DBA高效运维的一站式解决方案
2024/12/24 周二 16:30-18:00
Leo 华为云数据库DTSE技术布道师
数据库的复杂运维,是否让你感到头疼不已?今天,华为云GaussDB管理平台将彻底来改观!本期直播,我们将深入探索GaussDB管理平台的TPOPS功能,带你感受一键式部署安装的便捷,和智能化运维管理的高效,让复杂的运维、管理变得简单,让简单变得可靠。
回顾中 -
DTT年度收官盛典:华为开发者空间大咖汇,共探云端开发创新
2025/01/08 周三 16:30-18:00
Yawei 华为云开发工具和效率首席专家 Edwin 华为开发者空间产品总监
数字化转型进程持续加速,驱动着技术革新发展,华为开发者空间如何巧妙整合鸿蒙、昇腾、鲲鹏等核心资源,打破平台间的壁垒,实现跨平台协同?在科技迅猛发展的今天,开发者们如何迅速把握机遇,实现高效、创新的技术突破?DTT 年度收官盛典,将与大家共同探索华为开发者空间的创新奥秘。
回顾中
热门标签