• [问题求助] python版本的人脸识别案例部署失败
    我DK环境中,opencv安装的4.2.0,而python版本的人脸识别案例部看错误的提示其一些依赖包的应该是4.1.0的版本,要是不重新安装4.1.0版本的opencv,请问该怎么样改动呢?
  • [问题求助] 人脸识别技术
    我想问一下能够用modelarts和Android studio能够连接起来实现在手机上进行人脸识别吗?
  • [问题求助] 部署人脸识别应用时,执行Deploy common libs 一直被卡住
    之前已部署成功的人脸识别应用,现再次部署时,执行Deploy common libs ... 一直被卡住,请问如何解决?
  • [华为动态] HDC.Cloud@智慧园区 | 为什么玩人脸codelab的人更多?
    昨天,我们推送了codelabs畅玩第一期,得到了读者朋友们的大力支持,他们赶紧来到活动主帖,开始了codelabs畅玩之旅。很快,论坛主帖下面就排起了长队,满满都是参与者的胜利成果!我们一起来围观一下!【通过园区BO快速搭建视频应用】【通过平台资产快速搭建园区AI应用】同样是codelabs,比起第一个视频应用,玩第二个人脸识别的开发者显然更多!这是为什么呢?而且,这些活动成果,渐渐地跑偏了~看了这些作品,我们不禁感叹现在的开发者们不仅有技术能力,还有满满的文艺才华!而且,评论里也出现了不少对本次活动的好评,让我们大受鼓舞。保温杯如此诱人,动动手指10分钟就到手了!畅玩codelabs的开发者越来越多,数显保温杯一只一只地在减少。还没开始参与的开发者抓紧时间了,我们继续开放活动链接,在华为云@智慧园区,等你!点击这里即可参加!
  • [内容拦截申诉] 【论坛】+【已解决】人脸识别项目-检测框无法对齐人脸 / facial recognition
    发帖内容:发文的版块名:问题求助发文的标题名:【已解决】人脸识别项目-检测框无法对齐人脸 / facial recognition帖子内容链接:https://bbs.huaweicloud.com/forum/thread-27302-1-1.html
  • [问题求助] 我尝试python编写人脸检测,无法检测到人脸,推理出的结果为None
    问题描述:我根据示例项目密集人群数目统计的Python示例(项目链接为https://gitee.com/Atlas200DK/sample-crowdcounting-python),尝试构建自己的人脸检测Python程序(完整项目在附件,测试视频为1.mp4, 因为上传文件大小限制,没有上传),但是无法检测到人脸,推理出的结果为None,模型推理结果为None,输入为inputTensorList是有数值的,类似为<hiai.nntensor_list.NNTensorList object at 0xfffef30795d0>但是经过resultList = graphHandle.proc(inputTensorList)resultList为None , 查看log如下图所示,详情见附件。这个问题,我在尝试示例头部姿势识别python时也遇到过(项目链接为https://gitee.com/Atlas200DK/sample-README/tree/master/sample-headposeestimation-python),也是无法检测到人脸,查看log得到的错误也是类似,好象是model inference fail 和input size错误,不知道怎么回事?请帮忙看一下,谢谢。
  • [问题求助] Mind Studio上拖拽图形编程的时候,推理出来的参数如何传递给后面?
    Mind Studio上拖拽图形编程的时候,推理出来的参数如何传递给后面呢?比如在人脸识别项目中,人脸检测得到的人脸的坐标如何传递给图片预处理模型,使其能根据坐标剪裁出人脸呢?
  • [问题求助] 人脸识别实时問題
    尝试了人脸识别案例(https://github.com/Atlas200dk-test/sample-facedetection)分析, 但presenter显示的画面和camera会有5到10秒的时间差, 照理说应该是实时realtime的没错吧?研究很久都找不到原因, 请问有没有什么可以加速推理的模块可参考,我使用的是atlas 200dk
  • [问题求助] 人脸识别案例环境部署报错
    执行人脸识别https://gitee.com/Atlas200DK/sample-facedetection案例,部署环境bash deploy.sh 192.168.1.2 internet时报错ERROR: install python3 libs failed, please check your env.
  • [技术干货] 抢抓AI主导权,欧盟出台《人工智能白皮书》
    欧盟日前在布鲁塞尔公布了一系列数字转型计划,并出台了两份关于如何使欧洲适应数字时代总体规划的文件《人工智能白皮书》与《欧洲数据战略》。该规划旨在促进欧洲在人工智能领域的创新能力,推动道德和可信赖人工智能的发展。此前有媒体透露“草案建议3至5年内禁止人脸识别技术应用于公共场所,目的是留出更多时间评估技术风险”。同时,欧盟将对AI应用进行监管,包括对企业利用AI技术监督的方式。这将对许多行业产生重大影响,特别是谷歌、Face book和苹果等在AI技术上投入巨大的科技巨头,这也导致硅谷企业高层密集前往布鲁塞尔与欧盟高官会谈。AI白皮书据了解,《人工智能白皮书》由政策框架和未来监管框架要素两部分组成。白皮书指出,面对AI带来的机遇和挑战,欧盟需要坚持欧洲价值观,以自己独特的方式推动AI的发展和部署。欧盟委员会致力于推动AI科技创新,保持欧盟AI科技的领先地位,确保新技术为全欧洲服务,在提升人们生活质量的同时尊重相关权益。分析人士指出,欧盟此举不仅是为了补充科技短板,也是为了抢抓数字时代的全球规则主导权。《人工智能白皮书》中构建了一个卓越的、可信赖的人工智能体系框架,围绕“卓越生态系统”和“信任生态系统”两个方面的建设展开。此前媒体透露的,3至5年人脸识别应用限制条款并未出现在正式版的白皮书中。欧盟规划通过公私部门合作调动整个产业链资源,建立正确的激励机制,以加快人工智能部署。并表示,欧洲需要大幅提高人工智能研究和创新领域的投资水平,目标将在未来10年中,每年帮助欧盟吸引200亿欧元的AI技术研发和应用资金。但由于人工智能系统非常复杂,某些情况下可能存在重大风险,对于投资的监管路径设立双重目标:一是推动AI进步;二是应对在使用AI过程中产生的相关风险。欧盟认为建立信任至关重要,在一些高风险领域需要清晰的规则。欧盟将继续执行严格的消费者保护规则,以解决不公平的商业行为,并保护个人数据和隐私。欧洲数据战略欧盟委员会发布文件表示,合理地使用数字技术将使企业和民众在多方面受益,在未来的5年的数字化转型方面,欧盟委员会将聚焦三个目标:让技术为人服务、公平和有竞争力的经济环境以及开放、民主、可持续发展的社会。欧洲数据战略的长期目标是确保欧盟成为“数据赋能”社会的榜样和领导者。为了实现这一目标,欧盟计划建立统一的数据市场,解锁尚未得到利用的数据,使数据能够在欧盟范围内流动,实现产业、学术、政府等部门共享。同时结合人工智能发展中带来的机遇,欧洲将加强产业和技术能力建设,并采取相应措施使得欧洲成为全球数据中心,将欧洲打造成为成为世界上最具吸引力、最安全、最动态的数据经济体。写在最后随着人工智能的不断进步,道德标准与创新之间的矛盾也逐渐达到峰顶。谷歌CEO曾表示:“AI太过重要,必须受到监管,人们非常担心AI造成的潜在负面后果,公司不能仅仅建立新技术,而放任市场力量来决定如何使用它。”相反的是,莫斯科则选择采用俄罗斯NtechLab公司提供的人脸识别技术,在城市间“大规模”部署了实时人脸识别系统。AI技术是当下全球科技竞争主动权的重要砝码,也是推动科技发展、生产力整体提升的关键战略。但我们也应该清楚,风筝是因为有束缚,才能飞的更高。
  • VTuber表情捕捉开发指南(HuaWeiARFace/Unity)
    1.   开发环境准备1.1 硬件环境准备(1)一部支持HUAWEI AR Engine的手机,对于FaceAR需要使用Mate20/30 Pro带有深度相机的手机。1.2 软件环境准备(1)手机EMUI版本9.0以上。(2)Unity 2017.4LTS 及以上版本。(3)前往华为开发者网站下载最新版本的UnitySDK,其格式为:Huawei_AR_Engine_UnitySDK_v*.unitypackage。(4)在华为应用市场搜索“华为AR Engine”并下载安装。 2. 基于HUAWEI AR Engine Unity SDK开发AR应用2.1 导入unitypackage新建unity项目,导入HUAWEI AR Engine Unity SDK_vx.x.x.unitypackage,可参考Unity SDK接口说明书进行开发。连接地址如下:https://developer.huawei.com/consumer/cn/doc/overview/HUAWEI_AR2.2 FaceARHUAWEI AR Engine在支持的设备上可以实时识别人脸,人脸的微表情以及人脸模型。当应用为ARSession配置 HuaweiARUnitySDK.ARFaceTrackingConfig ,引擎将实时检测并返回预览中的人脸HuaweiARUnitySDK.ARFace。 目前仅支持单个人脸的检测。  1)会话管理关于会话的启动、暂停、恢复和停止,请参考WorldAR中的 会话管理 。 ARFaceTrackingConfig的创建方式如图:                                                  ARFaceTrackingConfig的配置面板如下:   应用在使用时,需要设置EnableDepth,在支持的手机上,启动深度以便实现人脸识别和跟踪。关于手机是否支持的判断,请参考 HuaweiARUnitySDK.ARSession.Config(ARConfigBase)的使用.ARFace获取的关键代码如下: ARFrame.GetTrackables<ARFace>(m_newFaces, ARTrackableQueryFilter.NEW);for(int i=0;i< m_newFaces.Count; i++){    GameObject faceObject = Instantiate(facePrefabs, Vector3.zero, Quaternion.identity, transform);    faceObject.GetComponent<FaceVisualizer>().Initialize(m_newFaces[i]);}2)ARFace主要类说明关于ARFace的数据获取和使用详情请参考 HuaweiARUnitySDK.ARFace。 类 HuaweiARUnitySDK.ARFace 继承关系图如下: 类ARFace中的主要数据结构说明enum BlendShapeLocation定义了64个华为AR Engine所支持的微表情;包含:眉毛,眼皮,眼球,脸颊,嘴巴,舌头,下巴等的动作捕捉。 类ARFace中的主要成员函数说明GetBlendShape()获取人脸的微表情,返回人脸的微表情和值的字典。GetBlendShapeWithBlendName()获取人脸的微表情,返回人脸微表情字符串和值的字典。GetFaceGeometry() 返回人脸的3D Mesh。该Mesh基于一个人脸坐标系,该坐标系的原点位于人头模型的中央。GetPose( 获取到 该原点在Unity相机坐标系下的位姿。  2.3 获取ARFace的数据传到Unity人物模型在上述工程中找到Assets->Examples->Common->Visualizer->FaceVisualizer.cs文件;在 “FaceVisualizer.cs”文件中定义StringBuilder sb = new StringBuilder();在update函数中var blendShapes = m_face.GetBlendShapeWithBlendName();语句下面加入以下代码,拿到人脸表情的数据: foreach(var bs in blendShapes){  sb.Append(bs.Key);  sb.Append(": ");  sb.Append(bs.Value);  sb.Append("\n");                } 自己动手编写Socket Client函数将上述sb发送给自己的VTuber Server端,同时也是Socket Server端。VTuber Server接收到表情的BlendShapeName及Value后,将对应的BlendShape值赋给自己模型脸部上对应的BlendShape上。复制语句残参考如下代码:skinnedMeshRenderer.SetBlendShapeWeight(pair.Key, pair.Value); 备注:Socket Client端代码、Socket Sever端代码需要自己来写
  • [热门活动] 华为摄像机X2221-CL人脸识别问题求助
    使用C60 SDK,做人脸识别考勤系统,识别人脸成功后的回调信息中,carId域的信息为**,以前C20 SDK就有正确的值。请问怎样获得正确的carId值?
  • [问题求助] 关于人脸检测模型ssh的转换问题
    我在部署人脸检测模型ssh时在模型转换的时候遇到了一些问题如图:出错的层的配置如下:我之前看论坛,有人说现在Deconvolution层转换只能支持group参数为1,不知道是不是这个原因,求解答。
  • [问题求助] 关于人脸检测网络MTCNN遇到的问题(续)
    我现在转换模型时关闭了aipp,如图:然后使用opencv对图片进行预处理,代码如图推理代码如下:但是当我将预处理得到的图像金字塔输入时,我查看LOG,发现报错为:意思是输入尺度和模型要求的尺度不一致,我该如何修改,才能让转换的模型支持多个尺度的图片。
  • [问题求助] 部署人脸检测模型MTCNN碰到的问题
    我在处理MTCNN的第一个级联网络时,需要将输入图片resize成不同尺度和规模的图片金字塔进行输入,我使用mind studio对第一个网络进行模型转换,参数配置如下图:我对图片继续预处理时,处理代码如图:但我在模型推理的时候,发现我只有将图片的宽设置成128,高设置成16,也就是图中转换的时候YUV420_U8对应的大小,才能正常计算,否则其他的尺寸会报输入尺寸与模型需要的尺寸不匹配。我的网络在caffe框架下结构如下:这个网络全部由卷积层构建,我在caffe下使用时,只要输入图片大小宽和高都大于等于12,就可以输出不同大小的feature map,我想问,在altas 200Dk上怎么才能支持多种尺度的图片输入。