-
云养猪 - 猪只关键点检测关键点检测可用于猪只骨架提取、姿态识别、体重估计等多方面的研究,本文将基于ModelArts和ModelBox开发一个猪只关键点检测的AI应用,并将其部署到RK3568开发板上。视频链接:cid:link_4模型训练首先我们使用YOLOX训练了一个猪只目标检测模型,YOLOX是YOLO的无锚版本,设计更简单,且性能更好!它旨在弥合研究界和工业界之间的差距,详细内容可以参考Arxiv。我们使用猪只目标检测数据集进行训练,训练前对该数据集进行了图像增强,包含两类图像piglet、swine,拥有3065张jpg图像数据以及对应的xml标签文件,训练日志如下:之后利用TensorFlow开发一个猪只关键点检测模型,使用预训练网络MobileNetV2作为卷积基提取图像特征,模型训练与转换教程可以参考我们发布的Notebook:应用开发1、在VS Code中使用Remote-SSH远程连接RK3568开发板(算力:0.8Tops)2、下载ModelBox SDK插件安装运行3、查看技能模板,下载技能模板:single_hand_pose_yolox_mbv24、使用模板创建工程:single_pig_pose4.1、推理功能单元使用我们自己导出的模型进行替换并修改模型配置文件:4.2、修改条件功能单元的代码:4.3、修改通用功能单元代码和配置文件:4.4、修改模型配置文件并替换为我们自己开发的猪只关键点检测模型4.5、修改猪只关键点检测后处理功能单元和配置文件4.6、修改绘图功能单元代码5、查看流程图开启性能统计6、在bin/mock_task.toml配置输入输出,使用提前准备好的视频进行推理,选择推流到本地,执行bin/main.sh运行应用查看性能统计文件我们开发的应用平均每次推理(batch_size:4)耗时193 / 4 = 48ms,视频测试的帧率为1000 / 48 = 21fps,基本满足摄像头实时检测的要求。复现本案例所需资源(代码、模型、测试数据等)均可从single_pig_pose.zip获取。
-
我的配置如下所示,batch_size设置为了32。[graph] graphconf = """ digraph model_inference { ... model_infer [ type=flowunit flowunit=infer device=cpu batch_size="32" ]然后用并发为32的请求对推理容器做压测,在容器内打印batch size时发现长度只有16。为什么不能如设置的一样是大于16的batch呢?
-
1、ModelBox简介:(100分)完成截图:2、Windows开发套件环境准备:①安装Git for Windows(20分)②安装Python (20分)③安装Vscode(20分)已完成④设备注册(40分)完成截图:3、第一个应用(100分)4、推理功能单元:(100分)5、Steam数据功能单元(100分)6、展开/收拢功能单元:(100分)7、MNIST手写数字识别(200分)模型训练完成截图ModelArts训练:程序运行效果截图8、手写汉字识别(100分)9、验证码识别(200分)10、视频字幕识别(100分)11、AI倒车(200分)
-
1、ModelBox简介:(100分)完成截图:2、Windows开发套件环境准备:①安装Git for Windows(20分)②安装Python (20分)③安装Vscode(20分)已完成④设备注册(40分)完成截图:3、第一个应用(100分)4、推理功能单元:(100分)5、Steam数据功能单元(100分)6、展开/收拢功能单元:(100分)7、MNIST手写数字识别(200分)模型训练完成截图ModelArts训练:程序运行效果截图8、手写汉字识别(100分)9、验证码识别(200分)10、视频字幕识别(100分)11、AI倒车(200分)
-
modelarts和昇腾有什么区别
-
使用hilens在 rk3588s开发板上进行部署,在最后一步,./bin/main.sh。后遇到报错debain os need load libgomp,Try modelbox -h for more information.已经试了debian系统和ubuntu系统,都是同样的错误。
-
按照这个教程进行,https://blog.csdn.net/aa2528877987/article/details/129701716?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522169293387216800213012751%2522%252C%2522scm%2522%253A%252220140713.130102334..%2522%257D&request_id=169293387216800213012751&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~all~sobaiduend~default-2-129701716-null-null.142。【愚公系列】华为云系列之基于ModelBox搭建的AI寻车系统到3)如下图依次点击,进行ModelBox设备注册时卡住。在Power Shell修改权限后出现的问题,一开始是禁止在设备上运行脚本。修改后CurrentUser的权限为RemoteSigned。但是修改后又出现了【运行Agent失败。原因: 无法将“xxx”项识别为 cmdlet、函数、脚本文件或可运行程序的名称。请检查名称的拼写,如果包括路径,】的问题这里的xxx指的是.modelbox的路径,为xxx/.modelbox。是要添加环境变量吗?按照网上的结局方法,修改powershell权限后仍不成功。Agent日志为:Get-Content : 找不到接受实际参数“hilens\log\hda\hdad.log”的位置形式参数。
-
这个报错怎么解决?yolox推理出来,buffer为空?
-
通过官网https://modelbox-ai.com/modelbox-book/environment/container-usage.html,使用开发镜像方式,拉取了:modelbox/modelbox-develop-mindspore_1.9.0-cann_6.0.1-d310p-ubuntu-aarch64modelbox/modelbox-develop-mindspore_1.6.1-cann_5.0.4-ubuntu-aarch64都报同样的问题。按照文档的安装流程,安装上ModelBox后,正确的在浏览器中打开editor,并能用vscode远程访问。但是在新建项目中选择mnist-mindspore示例,并运行时,报错:request invalid, job config is invalid, Not found, build graph failed, please check graph config. -> create flowunit 'mnist_infer' failed. -> current environment does not support the inference type: 'mindspore:cpu'查看python,提示mindspore 安装成功:>>> import mindspore>>> mindspore.run_check()MindSpore version: 1.9.0MindSpore running check failed.Ascend kernel runtime initialization failed.----------------------------------------------------- Ascend Error Message:----------------------------------------------------EE8888: Inner Error! Unsupport flags, flags=4[FUNC:StreamCreate][FILE:api_error.cc][LINE:300] rtStreamCreateWithFlags execute failed, reason=[feature not support][FUNC:FuncErrorReason][FILE:error_message_manage.cc][LINE:49] Solution: Please contact support engineer.----------------------------------------------------- Framework Error Message: (For framework developers)----------------------------------------------------Create stream failed, ret:207000----------------------------------------------------- C++ Call Stack: (For framework developers)----------------------------------------------------mindspore/ccsrc/plugin/device/ascend/hal/device/ascend_kernel_runtime.cc:425 Initmindspore/ccsrc/plugin/device/ascend/hal/device/ascend_stream_manager.cc:96 CreateStreamWithFlags>>> mindspore.set_context(device_target='Ascend')>>> mindspore.run_check()MindSpore version: 1.9.0MindSpore running check failed.Ascend kernel runtime initialization failed.----------------------------------------------------- Ascend Error Message:----------------------------------------------------EE8888: Inner Error! Unsupport flags, flags=4[FUNC:StreamCreate][FILE:api_error.cc][LINE:300] rtStreamCreateWithFlags execute failed, reason=[feature not support][FUNC:FuncErrorReason][FILE:error_message_manage.cc][LINE:49] Solution: Please contact support engineer.----------------------------------------------------- Framework Error Message: (For framework developers)----------------------------------------------------Create stream failed, ret:207000----------------------------------------------------- C++ Call Stack: (For framework developers)----------------------------------------------------mindspore/ccsrc/plugin/device/ascend/hal/device/ascend_kernel_runtime.cc:425 Initmindspore/ccsrc/plugin/device/ascend/hal/device/ascend_stream_manager.cc:96 CreateStreamWithFlags>>> mindspore.set_context(device_target='CPU')>>> mindspore.run_check()MindSpore version: 1.9.0The result of multiplication calculation is correct, MindSpore has been installed successfully!在容器中执行npu-smi正常:[root@e45619086c67 runtime]$ npu-smi info+--------------------------------------------------------------------------------------------------------+| npu-smi 22.0.3 Version: 22.0.3.2.b030 |+-------------------------------+-----------------+------------------------------------------------------+| NPU Name | Health | Power(W) Temp(C) Hugepages-Usage(page) || Chip Device | Bus-Id | AICore(%) Memory-Usage(MB) |+===============================+=================+======================================================+| 0 310P3 | OK | NA 39 15 / 15 || 0 0 | 0000:01:00.0 | 0 3363 / 21527 |+===============================+=================+======================================================+请问,这是什么问题,该如何解决?
-
rk3568接入hilens平台求助是使用什么协议进行传输的?
-
modelbox中我怎么让一些功能单元只需执行一次?modelbox中我怎么让一些功能单元只需执行一次?
-
modelbox与华为云IOT结合,用MQTT协议数据属性上报,触发告警,能够实现吗?
-
求问modelbox,最后的rtsp推流,只能推流到自己的pc端吗,能否推流到安卓端,如果安卓端有拉流应用的话?
-
这种报错改怎么解决呀?
上滑加载中
推荐直播
-
OpenHarmony应用开发之网络数据请求与数据解析
2025/01/16 周四 19:00-20:30
华为开发者布道师、南京师范大学泰州学院副教授,硕士研究生导师,开放原子教育银牌认证讲师
科技浪潮中,鸿蒙生态强势崛起,OpenHarmony开启智能终端无限可能。当下,其原生应用开发适配潜力巨大,终端设备已广泛融入生活各场景,从家居到办公、穿戴至车载。 现在,机会敲门!我们的直播聚焦OpenHarmony关键的网络数据请求与解析,抛开晦涩理论,用真实案例带你掌握数据访问接口,轻松应对复杂网络请求、精准解析Json与Xml数据。参与直播,为开发鸿蒙App夯实基础,抢占科技新高地,别错过!
回顾中 -
Ascend C高层API设计原理与实现系列
2025/01/17 周五 15:30-17:00
Ascend C 技术专家
以LayerNorm算子开发为例,讲解开箱即用的Ascend C高层API
回顾中
热门标签