-
我下载了modelzoo里面的ATC retinaface(FP16)模型,https://www.hiascend.com/zh/software/modelzoo/detail/1/7270b02a457d4c4ab262277a646517f9解压得到了里面的retinaface_bs1.om和retinaface_bs16.om。模型的输入格式如下:同时参考了Ascend/samples里面的人脸检测案例,使用人脸检测模型对树莓摄像头中的即时视频进行人脸检测,https://gitee.com/ascend/samples/tree/master/python/level2_simple_inference/2_object_detection/face_detection_camera将retinaface_bs1.om和retinaface_bs16.om模型放到了model文件夹下。将src/main.py中的模型做了替换。第4行的face_detection.om换成了retinaface_bs1.om第5、6行的数值改为了1000试跑了scripts/sample_run.sh报错如下在192.168.1.2:7007中,灯是绿的,但view中没有东西官方的案例测试成功,能正常显示请问retinaface模型是否能这样操作,我应该如何使用retinaface模型对视频流数据做推理。
-
【功能模块】https://gitee.com/ascend/samples/blob/master/cplusplus/level2_simple_inference/n_performance/1_multi_process_thread/face_recognition_camera/README_CN.md【操作步骤&问题现象】1、根据 https://bbs.huaweicloud.com/forum/forum.php?mod=viewthread&tid=184545&ordertype=2&page=1 准备好环境,并分别在开发和运行分设环境的x86主机 MindStdio编译,运行;以及在 开发与运行合设的200DK环境运行 命令行的编译,运行。2、【截图信息】(1)在开发和运行分设环境的x86主机 MindStdio编译,运行。编译成功:运行报错:(2)在 开发与运行合设的200DK环境运行 命令行的编译,运行编译:运行:好像是摄像头出错。具体是什么问题,还烦请专家协助。代码应该都是一套。只是分别在开发环境使用了交叉编译,以及在运行环境直接进行编译。【日志信息】(可选,上传日志内容或者附件)
-
【功能模块】【操作步骤&问题现象】1、为啥这个样例会把我识别成我的同学,识别不到是我。【截图信息】【日志信息】(可选,上传日志内容或者附件)
-
【功能模块】开发环境:Ubuntu18.04,MindStudio3.0.4运行环境:Atlas200DK【操作步骤&问题现象】1、命令行运行人脸识别样例报错。2、MindStudio运行让脸识别样例报错。3、报错都是线程错误。【截图信息】重启Atlas还是报这个错。
-
【功能模块】Atlas200DK【操作步骤&问题现象】1、MindStudio运行face_recognition_camera样例报错‘路径中存在特殊字符’。2、Mappings是默认路径,没有改过。请问是哪个路径出问题了?
-
【功能模块】人脸识别ArcFace无法正常作为loss函数使用。Model0Zoo的研究网络中有个人脸识别的ArcFace方法。在使用的时候,可能是我操作问题无法正常使用。【操作步骤&问题现象】1、定义resnet50的网络,19分类。net = resnet50(19)2、自己定义一个loss类。步骤是先将网络输出与标签输入到ArcFace中,然后再将ArcFace的结果输入到SoftMaxCE中,将SoftMaxCE的结果作为loss值返回。class ArcFaceLoss(LossBase): def __init__(self, s=30.0, m=0.5): super(ArcFaceLoss, self).__init__() self.margin_softmax = ArcFace(world_size=0) self.loss = SoftMaxCE(world_size=0) def construct(self, logits, labels): logits = self.margin_softmax(logits, labels) return self.loss(logits, labels)# loss函数实例化loss = ArcFaceLoss(0)3、优化器选择optimizer = nn.Adam(params=net.trainable_params(), learning_rate=0.001)4、实例化模型model = Model(net, loss, optimizer=optimizer, metrics={"Accuracy":nn.Accuracy()})5、模型训练 model.train(config["epochs"], train_ds, callbacks=[eval_cb, TimeMonitor()], dataset_sink_mode=config["dataset_sink_mode"])6、训练的过程中就出现不正常的返回---------- Epoch 1/200 ---------- train Loss: [-266.57397] val Acc: 0.05357142857142857 epoch time: 28326.837 ms, per step time: 1770.427 ms之后训练继续epoch,但train Loss和val Acc一直不变。我不知道自己操作哪里有问题,希望有大佬能够帮助解答下疑问。
-
【操作步骤&问题现象】执行样例为人脸检测样例模型转换后准备在开发板上运行,执行bash sample_run.sh出现了以下报错。【截图信息】【日志信息】(可选,上传日志内容或者附件)
-
作为全球排名最高的国产团队Linux发行版,昨日晚间,深度操作系统(deepin)20.5正式发布,升级Stable内核至5.15.24,修复底层漏洞,进一步提升系统兼容性和安全性。转载于CSDN 微信公众号
-
随着人工智能技术的成熟和普及,人脸识别也越来越被广泛运用到生活的方方面面,但随之而来的却是不断有人用照片戏耍人脸识别系统,没想到这项高科技却在群众的智慧面前败下阵来,主要原因还是人脸识别技术中,未加入防御照片图像等伪造人脸的技术,在此背景下高阶版的活体检测技术从幕后走上了台前。简单来说活体检测就是算法判断镜头捕捉到的人脸,究竟是真实人脸还是伪造的人脸,一般在安全性等级要求高的应用场景下,会使用人脸识别+活体检测相结合的方式来进行身份核验,通过配合使用活体检测后,弥补了单一人脸识别的不足,能够有效的识别照片、视频、面具等伪造人脸行为,最大程度杜绝欺诈行为的发生。而通过天眼数聚接口平台的人脸身份证比对接口和活体检测接口,就可以进行更高安全标准的身份核验,大致核验流程如下:1、人像信息采集通过SDK、H5页面、微信小程序等应用场景获取被核验人人脸信息、证件信息,用户上传证件照片,系统使用证件OCR识别技术自动提取信息,用户拍摄活体视频上传进行比对核验。2、云端活体判定云端使用语音识别、唇语识别、活体判断等技术自动对视频进行检测,判断入镜的你是否为真实的活体并高质量提取视频中人像图像上传。3、云端核验云端将人像图像、姓名、身份证号信息加密并传输到天眼数聚数据服务平台上公安授权的接口,然后自动与公安数据库中的人像图像、姓名、身份证号进行权威比对核验。4、输出核验结果经过天眼数聚核验接口验证后,返回核验结果,核验一致默认通过审核,不一致则返回认证首页,让用户重新操作。
-
【功能模块】【操作步骤&问题现象】1、SDK运行,如何导入人脸库2、如何比对识别【截图信息】【日志信息】(可选,上传日志内容或者附件)
-
【功能模块】按照教程尝试样例https://gitee.com/ascend/samples/tree/master/python/level2_simple_inference/2_object_detection/face_detection_camera可以显示Presenter Server但是摄像头报错【操作步骤&问题现象】1、如图摄像头0报错2、按照教程https://gitee.com/ascend/samples/tree/master/cplusplus/level1_single_api/5_200dk_peripheral/ascendcamera是可以成功拍照的,但是这里摄像头报错,有没有可能是摄像头帧率的问题?【截图信息】【日志信息】(可选,上传日志内容或者附件)
-
现在,面部识别已成为生活中的一部分。因此,在介绍主题之前我们先看看实时面部识别示例。我们在手机、平板电脑等设备中使用人脸信息进行解锁的时候,这时就要求获取我们的实时面部图像,并将其储存在数据库中以进一步表明我们的身份。 通过对输入图像进行迭代和预测可以完成这个过程。同样,实时人脸识别可与OpenCV框架python的实现配合使用。再将它们组合在一个组合级别中,以实现用于实时目的的模型。 人脸识别 “面部识别”名称本身就是一个非常全面的定义,面部识别是通过数字媒体作为输入来识别或检测人脸的技术执行过程。人脸识别的准确性可以提供高质量的输出,而不是忽略影响其的问题因素。在这里,要确保运行我们的模型,必须确保在本地系统中安装了库。pip install face_recognition如果在 face_recognition库的安装过程中遇到一些问题或错误,可以点击以下链接:https://www.youtube.com/watch?v=xaDJ5xnc8dc人脸识别本身无法提供清晰的输出,因此出现了OpenCV实现的概念。OpenCV OpenCV是python中一个著名的库,用于实时应用程序。OpenCV在计算机世界中就像树的根一样非常重要。face_recognition中的OpenCV对我们训练为输入的面部图像进行聚类和特征提取。它以图像中的地标为目标,以迭代方式在计算机视觉的深度学习方法中训练它们。在本地系统中安装OpenCVpip install opencv-python使用深度学习算法,OpenCV检测可作为聚类,相似性检测和图像分类的表示。为什么我们使用OpenCV作为实时Face_Recognition中的关键工具? 人类可以轻松检测到面部,但是我们如何训练机器识别面部?OpenCV在这里填补了人与计算机之间的空白,并充当了计算机的愿景。以一个实时的例子为例,当一个人遇到新朋友时,他会记住这些人的脸,以备将来识别。一个人的大脑反复训练后端的人脸。因此,当他看到那个人的脸时,他说:“嗨,约翰!你好吗?”。对面部的识别和可以为计算机提供与人类相同的思维方式。OpenCV是计算机视觉中的重要工具。如果我们使用OpenCV,则遵循以下步骤:• 通过输入提取数据。• 识别图像中的面部。• 提取独特的特征,以建立预测思想。• 该特定人的性格特征,如鼻子,嘴巴,耳朵,眼睛和面部主要特征。• 实时人脸识别中人脸的比较。• 识别出的人脸的最终输出。使用OpenCV python的Face_Recognition: 代码下载:https://github.com/eazyciphers/deep-machine-learning-tutors/tree/master/Real-Time Face RecognitionGitHub导入所有软件包:import face_recognitionimport cv2import numpy as np加载并训练图像:# Load a sample picture and learn how to recognize it. Jithendra_image = face_recognition.load_image_file("jithendra.jpg") Jithendra_face_encoding = face_recognition.face_encodings(Jithendra_image)[0] # Load a sample picture and learn how to recognize it. Modi_image = face_recognition.load_image_file("Modi.jpg") Modi_face_encoding = face_recognition.face_encodings(Modi_image)[0]人脸编码:# Create arrays of known face encodings and their names known_face_encodings = [ Jithendra_face_encoding, Modi_face_encoding, ] known_face_names = [ "Jithendra", "Modi" ]主要方法:当实时人脸识别为true时,它将检测到人脸并按照代码中的以下步骤操作:• 抓取实时视频中的一帧。• 将图像从BGR颜色(OpenCV使用的颜色)转换为RGB颜色(face_recognition使用的颜色)• 在实时视频的帧中找到所有面部和面部编码。• 循环浏览此视频帧中的每个面孔,并检查该面孔是否与现有面孔匹配。• 如果一个人脸无法识别现有人脸,则将输出视为未知或未知。• 识别后,否则在识别出的脸部周围画一个方框。• 用其名称标记识别的面部。• 识别后显示结果图像。退出:# Hit 'q' on the keyboard to quit! if cv2.waitKey(1) & 0xFF == ord('q'): break释放摄像头的手柄:# Release handle to the webcam video_capture.release() cv2.destroyAllWindows()输入和输出 在训练过程中提供给模型的样本输入…。输入用于训练代码的样本图像样本输入图像进行训练输出
-
【功能模块】【操作步骤&问题现象】1、按照教程完成了环境的配置之后,运行样例,presenter上没有出现应有的信息2、【截图信息】参考的环境部署教程里环境变量的配置只更新到3.2.0版本,本人使用3.3.0版本。【日志信息】(可选,上传日志内容或者附件)
-
物联网的发展,与物体感应的能力演进密不可分。从原始的RFID近场识别、读卡模块识别等功能,到现在可以通过无接触红外测温和激光雷达、3D深度摄像头、超声波传感器和气压碰撞传感器等物联传感和感应技术就被广泛应用在自助测温终端、测温人脸识别终端和智能机器人上。以红外线感应为例,红外线分为近红外、中红外、远红外。近红外成像可以实现食品和药品的检测,而中红外则可以应用于测温场景,远红外的能力甚至可以进行工业的加热熔化、医学理疗等。其中,红外测温应用在自助测温终端是我们日常见得最多的防疫设备之一。国内办公楼宇门口使用的人脸识别测温终端值得注意的是,物联网智能设备的技术趋势是无接触化和无介质化。从原来通过RFID标签、磁条卡来进行启动感应的物体,到现在无需通过任何智能硬件设备介质,而是单凭刷脸支付、红外测量体温、3D空间位置感应能力就能实现更多物联网设备功能。天波测温型人脸识别一体机TPS980T就具备人脸识别、温度检测、高温报警、口罩识别、身份证识别等功能。除此之外,天波测温型人脸识别一体机TPS980T还支持4G等联网方式,可以在无网线接入的临时搭建场景和偏远场景实现数据传输,使用场景和安装方式更灵活多样、天波测温型人脸识别一体机TPS980T还具备开放性接口,可支持二次开发,让开发者能实现更多的功能拓展和应用升级。天波人脸测温健康码门禁一体机TPS980T在大型生产园区,通过人工巡逻费时费力,效率较低,而应用安防巡逻机器人和智能配送机器人则除了可以进行自动巡航,还能依靠激光雷达、3D深度摄像头、超声波传感器以及气压碰撞传感器等物联网感应模块,实现自动避障、语音交互等功能,实现AI智能巡检甚至园区无人配送等功能,提升园区维护效率和运营体验。智能硬件厂商将人工智能算法、智能感应模块、物联感知能力等各种新技术结合在一起,从而研发制造出更多适合多元化场景使用的智能硬件设备。
-
大赛详情地址:https://competition.huaweicloud.com/information/1000041288/introduction作者昵称:老老刘参加了华为云API入门学习赛,按照大赛给的指导流程一步步来做。首先当然是报名然后开通人脸检测服务接着我们去找一张美女图根据指导说明上传调试最后将调试结果截图打包上传就ok啦,很简单
推荐直播
-
OpenHarmony应用开发之网络数据请求与数据解析
2025/01/16 周四 19:00-20:30
华为开发者布道师、南京师范大学泰州学院副教授,硕士研究生导师,开放原子教育银牌认证讲师
科技浪潮中,鸿蒙生态强势崛起,OpenHarmony开启智能终端无限可能。当下,其原生应用开发适配潜力巨大,终端设备已广泛融入生活各场景,从家居到办公、穿戴至车载。 现在,机会敲门!我们的直播聚焦OpenHarmony关键的网络数据请求与解析,抛开晦涩理论,用真实案例带你掌握数据访问接口,轻松应对复杂网络请求、精准解析Json与Xml数据。参与直播,为开发鸿蒙App夯实基础,抢占科技新高地,别错过!
回顾中 -
Ascend C高层API设计原理与实现系列
2025/01/17 周五 15:30-17:00
Ascend C 技术专家
以LayerNorm算子开发为例,讲解开箱即用的Ascend C高层API
回顾中
热门标签