• [工具链] 【MDS编译zmq通讯库】MDS软件编译C++文件失败,但是在终端里可以
    【C++中用ZMQ通讯】【操作步骤&问题现象】1、在本地笔记本和mdchost中,用终端指定动态库-lzmq编译带有ZMQ通讯模块的C++文件,来生成main.o文件,进而执行,都是成功的。见图一2、可是在mdc development studio中编译带有ZMQ通讯功能的MDC工程不能成功,显示编译失败。见图二【截图信息】图一图二 【日志信息】(可选,上传日志内容或者附件)
  • [技术干货] c++stl
    lower_bound,upper_bound和equal_range函数初识    lower_bound.(k)    返回一个迭代器,指向第一个值不小于k的元素upper_bound(k)    返回一个迭代器,指向第一个值大于k的元素equal_range(k)    返回一个迭代器pair,表示值等于k的元素的范围。若k不存在,pair两个成员均等于end()–尾迭代器    上面三个函数多用于容器中使用,但是对于普通的数组也是可以使用的,下面会讲到.    如果所查找值在容器中,lower_bound返回的迭代器将指向第一个具有给定值的元素,而upper_bound返回的迭代器指向最后一个匹配给定值的元素之后的位置。    如果元素不在容器中,则lower_bound和upper_bound会返回相等的迭代器----指向一个不影响排序的值插入位置    因此,用相同的值调用lower_bound和upper_bound会得到一个迭代器的范围,表示具有该关键字的元素范围。    当然,这两个操作返回的迭代器可能是容器的尾后迭代器。如果我们查找的元素具有容器中最大值,则此关键字的upper_bound返回尾后迭代器。如果关键字不存在,且大于容器中任何关键字,则lower_bound返回的也是尾后迭代器.
  • [硬件整机] 【ZMQ.h库】C++中ZMQ通讯安装 不上
    【功能模块】C++工程中ZMQ通讯库 的  安装 ,安装不上,请求协助【操作步骤&问题现象】1、各种 版本错误2、【截图信息】【日志信息】(可选,上传日志内容或者附件)
  • [其他] 用C++ 和OpenCV 实现视频目标检测(YOLOv4模型)
    据说,现在很多小区都上线了AI抓拍高空抛物的黑科技,可以自动分析抛物轨迹,用来协助检查很多不文明行为。你想不想知道,这类检测视频中目标物的黑科技是怎么实现的呢?虽然不同场景下的目标检测模型训练不同,但底层技术都是一样的。思路:读取视频流,载入模型,执行推理,找出所有目标及其位置,最后绘制检测结果。步骤略。总结:YOLOv4的检测精度优于YOLOv4-tiny。经GPU 加速后,模型推理速度明显提升,YOLOv4 的推理速度提高了约10倍,YOLOv4-tiny的推理速度提高了约4.8倍。
  • [问题求助] 运行官方例程detection_video(C++)遇到错误
    【功能模块】参考网址:https://blog.csdn.net/qq_44527435/article/details/114794546【操作步骤&问题现象】1、在MindStudio中运行的时候,遇到以下问题2、【截图信息】【日志信息】(可选,上传日志内容或者附件)
  • [技术干货] http 报文协议参考 C++
    http报文参考协议 开源代码参考 Simple and fast HTTP request, response and urls parser written in C++.参考链接:https://github.com/nekipelov/httpparser
  • [新手课堂] C++链表排序(归并法+快速排序)
    我们可以试用归并排序解决:对链表归并排序的过程如下。找到链表的中点,以中点为分界,将链表拆分成两个子链表。寻找链表的中点可以使用快慢指针的做法,快指针每次移动 2 步,慢指针每次移动 1步,当快指针到达链表末尾时,慢指针指向的链表节点即为链表的中点。对两个子链表分别排序。将两个排序后的子链表合并,得到完整的排序后的链表上述过程可以通过递归实现。递归的终止条件是链表的节点个数小于或等于 1,即当链表为空或者链表只包含 1 个节点时,不需要对链表进行拆分和排序。class Solution {public:    ListNode* sortList(ListNode* head) {        return sortList(head, nullptr);    }    ListNode* mergesort(ListNode* head, ListNode* tail) {        if (head == nullptr) {            return head;        }        if (head->next == tail) {            head->next = nullptr;            return head;        }        ListNode* slow = head, * fast = head;        while (fast != tail) {            slow = slow->next;            fast = fast->next;            if (fast != tail) {                fast = fast->next;            }        }         return merge( mergesort(head, slow),  mergesort(slow, tail));    }    ListNode* merge(ListNode* head1, ListNode* head2) {        ListNode* dummyHead = new ListNode(0);        ListNode* temp = dummyHead, * temp1 = head1, * temp2 = head2;        while (temp1 != nullptr && temp2 != nullptr) {            if (temp1->val <= temp2->val) {                temp->next = temp1;                temp1 = temp1->next;            }            else {                temp->next = temp2;                temp2 = temp2->next;            }            temp = temp->next;        }        if (temp1 != nullptr) {            temp->next = temp1;        }        else if (temp2 != nullptr) {            temp->next = temp2;        }        return dummyHead->next;    }};快速排序不能随机选取节点,时间复杂度太高所以会超时class Solution {    public static ListNode sortList(ListNode head) {        return quickSort(head ,null);    }    public static ListNode quickSort(ListNode head ,ListNode end){        if(head ==end || head.next ==end) return head;        ListNode lhead = head ,utail = head ,p = head.next;        while (p != end){            ListNode next = p.next;            if(p.val < head.val){//头插                p.next = lhead;                lhead = p;            }            else { //尾插                utail.next = p;                utail = p;            }            p = next;        }        utail.next = end;        ListNode node = quickSort(lhead, head);        head.next =  quickSort(head.next, end);        return node;    }}
  • [其他问题] 【兼容性严重问题】mindspore依赖的海思run子包与cann不一致,导致昇腾310芯片 c++推理没法用
    mindspore依赖的海思run子包与cann不一致,导致昇腾310芯片  c++推理没法用。包括mindspore1.1.1,mindspore1.2.0。不仅c++无法推理,python推理也报错,很多警告版本不兼容。希望mindspore发布的依赖包以昇腾社区 (huawei.com) 这个网址为准。确保依赖包版本一致。
  • [其他问题] mindspore 1.2.0版本官网c++文档没有更新,与1.2.0库不一致
    mindspore 1.2.0版本官网c++文档没有更新,与1.2.0库不一致
  • [问题求助] 【Atlas200DK产品】【c++ face_detection_camera】样例运行出错
    【操作步骤&问题现象】1、样例地址:https://gitee.com/ascend/samples/tree/master/cplusplus/level2_simple_inference/2_object_detection/face_detection_camera2、修改样例,这里使用了atlasutil库:https://gitee.com/ascend/samples/tree/master/cplusplus/common/atlasutil3、运行样例第1次运行,报错corrupted size vs. prev_size.第2次运行,报错Segmentation fault.第3次运行,没有报错。附件中是,三次运行,终端的打印信息。请问,报错的原因是什么,如何解决?
  • [技术干货] Atlas 200DK跑通华为官方例程detection_video(C++)
    本Application支持运行在Atlas 200 DK,实现了对yolov3目标检测网络的推理功能。 最近两天都在尝试跑通objectdetection_video,无奈官方gitee上的教程要么不完整,要么网页链接过期,要么暗坑一大堆,因此在查阅大量资料并修复了各种bug之后,决定自己整理一份完整通用的教程。 本人开发环境 (PC) 和运行环境 (Atlas 200) 都为Ubuntu 18.04,toolkit版本为20.0.RC1 下面正式开始教程: 一、 环境搭建 该步骤主要目的是搭建好开发环境与运行环境,实现互通并跑通一个简单的官方例程。 已经搭建好可以跳过。还未搭建的朋友可以参考: https://blog.csdn.net/Hello_yes112/article/details/107546041?spm=1001.2014.3001.5501 (五讲四美好壮年) 二、 软件准备 运行此Sample前,需要按照此章节获取源码包:(注:以下步骤在开发环境进行) 1. 获取源码包 ```java cd $HOME/AscendProjects wget https://c7xcode.obs.cn-north-4.myhuaweicloud.com/code_Ascend/objectdetection_video.zip unzip objectdetection_video.zip 2. 获取原始网络模型 下载原始网络模型及权重文件至ubuntu服务器任意目录,如:$HOME/yolov3 mkdir -p $HOME/yolov3 wget -P $HOME/yolov3 https://c7xcode.obs.cn-north-4.myhuaweicloud.com/models/yolov3/yolov3.caffemodel wget -P $HOME/yolov3 https://c7xcode.obs.cn-north-4.myhuaweicloud.com/models/yolov3/yolov3.prototxt wget -P $HOME/yolov3 https://c7xcode.obs.myhuaweicloud.com/models/yolov3/aipp_bgr.cfg 3. 模型转换 该步骤将原始网络模型转换为适配昇腾AI处理器的模型。 设置环境变量 cd $HOME/yolov3 export install_path=$HOME/Ascend/ascend-toolkit/20.0.RC1/x86_64-linux_gcc7.3.0 export PATH=/usr/local/python3.7.5/bin:${install_path}/atc/ccec_compiler/bin:${install_path}/atc/bin:$PATH export PYTHONPATH=${install_path}/atc/python/site-packages/te:${install_path}/atc/python/site-packages/topi:$PYTHONPATH export LD_LIBRARY_PATH=${install_path}/atc/lib64:$LD_LIBRARY_PATH export ASCEND_OPP_PATH=${install_path}/opp 模型转换 将原始网络模型转换为适配昇腾AI处理器的模型: atc --model=yolov3.prototxt --weight=yolov3.caffemodel --framework=0 --output=yolov3 --soc_version=Ascend310 --insert_op_conf=aipp_bgr.cfg 4. 添加模型 将转换好的模型文件(.om文件)上传到源码所在路径下的“objectdetection_video/model”目录下: cp ./yolov3.om $HOME/AscendProjects/objectdetection_video/model/ ``` 三、环境准备 注:服务器上已安装OpenCV、PresentAgent、交叉编译工具可跳过此步骤。 基本官网教程所有的坑都集中在这一步,尤其是在安装PresentAgent时需要安装的Protobuf,这是暗坑的重灾区,建议在后续编译和运行有报错的朋友可以重点看下笔者这一步的教程。 1. 交叉编译工具 sudo apt-get install -y g++-aarch64-linux-gnu g++-5-aarch64-linux-gnu 1 2. OpenCV + ffmpeg 参考教程:https://gitee.com/ascend/samples/tree/47ca9bc97b3d28de4169f620c9610380d7166de2/common/install_opencv/for_atlas200dk 3. Presenter Agent 参考文章:https://blog.csdn.net/qq_44527435/article/details/114793324?spm=1001.2014.3001.5501 四、编译 上一步所有的依赖安装完成之后,便可以开始编译。 1. 修改Presenter Server的ip 首先在MindStudio中打开objectdetection_video工程。 执行命令 ifconfig 查看开发环境PC的虚拟网卡 (USB) 的ip地址: ![image.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/202104/06/094234fpwwrkgkson5vfkl.png) 2. 将script/object_detection.conf中的presenter_server_ip、presenter_view_ip、presenter_agent_ip修改为虚拟网卡的ip地址: ![image.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/202104/06/094257katjnk7wftcprhwi.png) 3. 将src/object_detect.cpp中的 param.host_ip 修改为Mind Studio所在Ubuntu服务器的虚拟网卡的ip地址: ![image.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/202104/06/094313xtwjijxibrnbl0xx.png) 2. 开始编译 在工具栏中点击Build>Edit Build Configuration,选择如图所示的配置后进行编译: ![image.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/202104/06/094325zfnpbp14pgz0z7yv.png) 编译完成后目录下生成build和out文件夹: ![image.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/202104/06/094342cd2pypcmwuqibu2t.png) 3. 启动Presenter Server 打开Mind Studio工具的Terminal,执行如下命令: bash script/run_presenter_server.sh & 如图所示,表示presenter_server的服务启动成功: ![image.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/202104/06/094401bebm411ds9jwlgw8.png) 五、运行 在工具栏中点击 Run > Edit Configurations,在Command Arguments 中添加运行参数 …/data/detection.mp4(输入视频的路径) ![image.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/202104/06/0944198t6qxonx1l4mifun.png) 点击 Run > Run ‘objectdetection_video’,运行成功后如下图所示: ![image.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/202104/06/094446kqfl83oh30ueh9wp.png) 原文链接:https://blog.csdn.net/qq_44527435/article/details/114794546?utm_medium=distribute.pc_relevant_download.none-task-blog-baidujs-7.nonecase&depth_1-utm_source=distribute.pc_relevant_download.none-task-blog-baidujs-7.nonecase
  • [技术干货] 华为Atlas 200DK
    因为我像打不完的地老鼠一样不停的散布贬低甲方管理能力的负能量,甲方某人找我谈话的时候想拿华为的项目质量做对比。作为一个技术人员的我,回答说:“没接触过华为的项目,我不能做评价“。折腾了Atlas 200DK两星期后,现在我可以说:“至少就Atlas 200DK来说,当前的项目质量是不能让人满意的“一步一坑编译重写的face-detection一步一坑Failed to import te.platform.log_util.按照"Atlas 200 DK 开发者套件(20.1)"文档的描述一步一步的去配置开发机的话,在atc命令行转换模型的时候会发生报错ModuleNotFoundError: No module named '_struct'ATC run failed, Please check the detail log, Try 'atc --help' for more informationE40000: Failed to import te.platform.log_util.此时把/usr/local/python3.7.5/bin加在PATH的最前面就行了连不上的摄像头开发板上电启动完毕后,要按一下板上的复位键,否则摄像头不能被认出盖不上的上盖开发板的盖子就不要盖了,敞开着让它吃灰吧。开发板有四个指示灯,上电时依次点亮表明不同的状态,复位时两个指示灯表示重启状态。上盖一旦盖上,就很难看清是哪个灯在闪,所以盖子就是个摆设。。。其实不是,它有非常重要的用途,见下一条颠倒的摄像头观察一下树莓派Zero的摄像头和排线,非常自然。淘宝上买的大路货支架工作的挺好再看一下200DK的摄像头,一个夜视,一个普通,两个支架都得倒着才行。既然文档里用的摄像头就是树莓派兼容版,难道华为的人们就没有发现淘宝上销量最大的摄像头支架非得倒着才能用吗?这就是上面提到的上盖的用处,倒过来的摄像头支架正好靠在上面风扇永不眠开发板的风扇一旦上电就永不停歇,噪音奇大,但据论坛上说这已经是改进过的了该死的ada如果使用Mind Studio远程部署的话,每次开发板重启后都要手工kill掉/var/ada进程,然后在重启此进程,否则部署会统统失败编程实践不友好的开发板配置如果编译时带sanitizer的话,开发板上运行会报==4489==ERROR: AddressSanitizer failed to allocate 0x200001000 (8589938688) bytes at address ffffff000 (errno: 12)==4489==ReserveShadowMemoryRange failed while trying to map 0x200001000 bytes. Perhaps you're using ulimit -vAborted这是因为制卡脚本会把开发板上的/proc/sys/vm/overcommit_memory的值设置为2,这样会内存不够。在root下,echo 0 > /proc/sys/vm/overcommit_memory就好了错误的网关值制卡时可以指定两个网卡的地址,但是脚本不会更改对应的网关,改了和默认不同的网段后,你大约依旧连不上不能带参数执行如果用Mind Studio的话,当程序带参数运行时会报错。因为MindStudio-ubuntu/tools/run.py会生成在开发板上运行的run.sh,然后run.sh中参数生成的地方错了if [ ! -z "$result" ];then  echo "[INFO]  pmupload exists."  pmupload $currentdir/workspace_mind_studio_objectdetection_cvwithaippelse  export SLOG_PRINT_TO_STDOUT=0  $currentdir/workspace_mind_studio_objectdetection_cvwithaippfi ARGS_AT_WRONG_PLACE #<<<<<<<<<<<<<<<修改MindStudio-ubuntu/tools/run.py就行了,如果你能忍受Mind Studio的话opencv打不开视频文件开发板上安装libv4l-dev然后重新编译opencv就行了,好像没有文档提到这一点。而且官方安装opencv的文档中python路径之类的也和20.1的200DK文档对不上接显示器是不可能的我几十块钱的树莓派Zero都可以接显示器,你几千块钱的200DK没有视频输出?现在有什么开发板不带视频输出吗?!曾经ssh一登陆就报input/output error然后闪退,弄得我完全没有办法,只能重新制卡。例程完全谈不上代码质量官方的face detection中,camera.cpp,第122行bool Camera::IsOpened(int channelID){    if(1 < channelID)        return false;    return isOpened_[channelID]; // uninitialized before reading}当时我在改完全不相干的代码,然后发现运行时摄像头不打开了,然后发现这个bug,然后被gcc的undefined sanitizer确认/home/HwHiAiUser/romote/src/camera.cpp:122:31:runtime error: load of value 170, which is not a valid value for type 'bool'这说明这些代码完全没有经过工具检查,也就是说没有任何值得一提的CI/CD我以为这是C++接口acl的API里到处是Create/Destroy, Load/Unload之类的调用,对不起,我以为这是C++接口呢。C++相对C的最重大的改进,就是RAII,我们不需要关心资源释放问题,因为语言本身会帮我们处理。看到ACL的API,我不由得怀疑,这究竟是道德的沦丧还是人性的扭曲,不对,到底是想赶一个过时的时髦,还是压根不知道C++应该怎么写?这堆C样子的C++接口给我们增加了多少开发成本,究竟这帮家伙有没有概念?另外,如果用到摄像头的话,链接时会报libmedia_mini.so中的函数找不到,你会非常奇怪路径什么的都是正确的。其实,你只要做如下操作就好了extern "C" {#include "peripheral_api.h"}任何文档都没告诉你Media库其实是C链接的,而不是C++重写的face-detection官方的face detection,相同的功能,重写了一遍,可以进一步重构,但是我实在是丧失兴趣了https://github.com/mo-xiaoming/atlas200dk-face-detection-cpp编译我是用了conan,配置的方法参见conan.io官方文档。2021年的C++项目应该使用包管理器,而不是手工折腾第三方库。很遗憾opencv的一个依赖目前在arm下编译有问题,所以opencv只能依赖手工编译的方式。不过这个项目也不用opencv。当然如果你觉得时间太多的话,也可以手工编译spdlog和fmt记得更改src/CMakeLists.txt中的include和lib路径cd buildconan install .. --build missingcmake .. -DCMAKE_BUILD_TYPE=Release -DCMAKE_C_COMPILER=/usr/bin/aarch64-linux-gnu-gcc-10 -DCMAKE_CXX_COMPILER=/usr/bin/aarch64-linux-gnu-g++-10make -j⚠️ 我是用了gcc 10,因为我想用最新的编译器,因为它能提供更高的优化,更简练的代码,更…,这是2021年,没有理由卡在老编译器版本上。如果有人告诉你需要担心“不兼容的问题“的话,你就有相当的理由怀疑它的产品质量。另外CMakeLists.txt里用了C++20的标准,如果你不想安装新编译器的话,需要把它改成17以下。并且有些地方会编译不过,例如main.cpp里,gcc7不支持std::from_chars,你必须改成std::strtol之类的。至于为什么要用更新的std::from_chars?因为它的性能更好,如前所述。再一次的说,现在是2021年了,不要写C风格的C++了,除非你知道在做什么;要用包管理器,除非你在公司有“严谨”的流程;要用新编译器,除非你的项目有“历史的沉淀”。运行运行前需要在另一台机器上打开presenter,./script/run_presenter_server.sh。当然需要配置好./data/param.conf,一如原始文档所示cd ../out./main 0./main后面跟摄像头的channel,默认是0CLionBTW,我用的CLion做IDE,远程ssh的方式直接开发。如果上面的一堆"如果使用Mind Studio的话"还没有把你劝退的话,理由还有一个:在2021年,作为C++的IDE,Mind Studio弱爆了。而且我也不想升级/编译一次,得捣鼓两台机器的so/h/a之类的东西————————————————原文链接:https://blog.csdn.net/u011241498/article/details/112445287
  • [技术干货] Atlas 200DK跑通华为官方例程detection_video(C++)
    本Application支持运行在Atlas 200 DK,实现了对yolov3目标检测网络的推理功能。最近两天都在尝试跑通objectdetection_video,无奈官方gitee上的教程要么不完整,要么网页链接过期,要么暗坑一大堆,因此在查阅大量资料并修复了各种bug之后,决定自己整理一份完整通用的教程。本人开发环境 (PC) 和运行环境 (Atlas 200) 都为Ubuntu 18.04,toolkit版本为20.0.RC1下面正式开始教程:一、 环境搭建该步骤主要目的是搭建好开发环境与运行环境,实现互通并跑通一个简单的官方例程。已经搭建好可以跳过。还未搭建的朋友可以参考:https://blog.csdn.net/Hello_yes112/article/details/107546041?spm=1001.2014.3001.5501 (五讲四美好壮年)二、 软件准备运行此Sample前,需要按照此章节获取源码包:(注:以下步骤在开发环境进行)1. 获取源码包cd $HOME/AscendProjectswget https://c7xcode.obs.cn-north-4.myhuaweicloud.com/code_Ascend/objectdetection_video.zipunzip objectdetection_video.zip2. 获取原始网络模型下载原始网络模型及权重文件至ubuntu服务器任意目录,如:$HOME/yolov3mkdir -p $HOME/yolov3wget -P $HOME/yolov3 https://c7xcode.obs.cn-north-4.myhuaweicloud.com/models/yolov3/yolov3.caffemodelwget -P $HOME/yolov3 https://c7xcode.obs.cn-north-4.myhuaweicloud.com/models/yolov3/yolov3.prototxtwget -P $HOME/yolov3 https://c7xcode.obs.myhuaweicloud.com/models/yolov3/aipp_bgr.cfg3. 模型转换该步骤将原始网络模型转换为适配昇腾AI处理器的模型。设置环境变量cd $HOME/yolov3export install_path=$HOME/Ascend/ascend-toolkit/20.0.RC1/x86_64-linux_gcc7.3.0export PATH=/usr/local/python3.7.5/bin:${install_path}/atc/ccec_compiler/bin:${install_path}/atc/bin:$PATHexport PYTHONPATH=${install_path}/atc/python/site-packages/te:${install_path}/atc/python/site-packages/topi:$PYTHONPATHexport LD_LIBRARY_PATH=${install_path}/atc/lib64:$LD_LIBRARY_PATHexport ASCEND_OPP_PATH=${install_path}/opp模型转换将原始网络模型转换为适配昇腾AI处理器的模型:atc --model=yolov3.prototxt --weight=yolov3.caffemodel --framework=0 --output=yolov3 --soc_version=Ascend310 --insert_op_conf=aipp_bgr.cfg14. 添加模型将转换好的模型文件(.om文件)上传到源码所在路径下的“objectdetection_video/model”目录下:cp ./yolov3.om $HOME/AscendProjects/objectdetection_video/model/1三、环境准备注:服务器上已安装OpenCV、PresentAgent、交叉编译工具可跳过此步骤。基本官网教程所有的坑都集中在这一步,尤其是在安装PresentAgent时需要安装的Protobuf,这是暗坑的重灾区,建议在后续编译和运行有报错的朋友可以重点看下笔者这一步的教程。1. 交叉编译工具sudo apt-get install -y g++-aarch64-linux-gnu g++-5-aarch64-linux-gnu12. OpenCV + ffmpeg参考教程:https://gitee.com/ascend/samples/tree/47ca9bc97b3d28de4169f620c9610380d7166de2/common/install_opencv/for_atlas200dk3. Presenter Agent参考文章:https://blog.csdn.net/qq_44527435/article/details/114793324?spm=1001.2014.3001.5501四、编译上一步所有的依赖安装完成之后,便可以开始编译。1. 修改Presenter Server的ip首先在MindStudio中打开objectdetection_video工程。执行命令 ifconfig 查看开发环境PC的虚拟网卡 (USB) 的ip地址:将script/object_detection.conf中的presenter_server_ip、presenter_view_ip、presenter_agent_ip修改为虚拟网卡的ip地址:将src/object_detect.cpp中的 param.host_ip 修改为Mind Studio所在Ubuntu服务器的虚拟网卡的ip地址:2. 开始编译在工具栏中点击Build>Edit Build Configuration,选择如图所示的配置后进行编译:编译完成后目录下生成build和out文件夹:3. 启动Presenter Server打开Mind Studio工具的Terminal,执行如下命令:bash script/run_presenter_server.sh &1如图所示,表示presenter_server的服务启动成功:五、运行在工具栏中点击 Run > Edit Configurations,在Command Arguments 中添加运行参数 …/data/detection.mp4(输入视频的路径)点击 Run > Run ‘objectdetection_video’,运行成功后如下图所示:在Terminal中启动Presenter Server服务时提示的URL登录 Presenter Server 网站等待Presenter Agent传输数据给服务端,单击“Refresh“刷新,当有数据时相应的Channel 的Status变成绿色,如下图所示。单击上图右侧video链接查看结果参考:https://gitee.com/ascend/samples/tree/8bc36c38508bdfb31533bf630d9a3e48c3cecdee/objectdetection_video/for_atlas200dk_1.7x.0.0_c++https://blog.csdn.net/Hello_yes112/article/details/107757336?spm=1001.2014.3001.5501————————————————原文链接:https://blog.csdn.net/qq_44527435/article/details/114794546
  • [产品讨论] 使用S3的C++ SDK的系统如何迁移到OBS?
    某软件对接了AWS S3,该系统C++开发;使用AWS S3 C++ SDK; 若该系统迁移到OBS需要做哪些改动? 有没有参考方案或者指导?
  • [问题求助] [C/C++] 鲲鹏服务器编译openvswitch内核模块报错
    现象:开源2.9.1版本openvswitch编译不过,但是开源2.11.4版本可以编译通过,我们想在2.9.1 ovs编译,帮忙看看怎么解决呢?十分感谢编译环境,服务器 鲲鹏服务器操作系统:ARM centos内核:4.14.131openvswitch版本:2.9.1内核报错信息如下:make rpm-fedora-kmodld: unrecognized option '-Wl,-z,relro'ld: use the --help option for usage informationmake[2]: *** [/root/ovs/rpm/rpmbuild/BUILD/openvswitch-2.10.0/datapath/linux/reciprocal_div.o] Error 1make[2]: *** Waiting for unfinished jobs....
总条数:310 到第
上滑加载中