• [问题求助] 视频 IVR DEMO
    问题来源】    公司内部使用【问题简要】    视频IVR的DEMO【问题类别】【必填】    【IVR(gsl)】【AICC解决方案版本】【必填】    【AICC 8.15.0】    【ICDV300R008C20SPC002】【期望解决时间】    尽快【问题现象描述】       有没有视频IVR的demo提供下,在华为的学习网看视频中有演示用的demo,但是下载下来的pdf只是个图标,没有附件,这边能不能提供下。
  • [问题求助] 视频 IVR 无法播放视频
    【问题来源】    公司内部调试视频IVR【问题简要】    制作视频 IVR 没有播放指定视频【问题类别】【必填】    【IVR(gsl)】【AICC解决方案版本】【必填】    【AICC 8.15.0】    【ICDV300R008C20SPC002】【期望解决时间】    尽快【问题现象描述】       制作视频 IVR 时,在媒体能力=3的时候,使用“播放输入V10.0”cell用来播放视频,在was配置流程后,拨打号码,直接走的失败出口。在媒体能力=1,就是我直接拨打电视,不使用视频ivr的时候可以正常调用语音流程。拨打电话的软件使用的时 OpenEye。 【日志或错误截图】       
  • [问题求助] 现在需要支持视频 IVR,请问下需要的环境去哪下载
    公司以前一直只做语音 IVR,现在需要做视频 IVR,发现业务开发环境中没有选择视频的 Cell,所以这个视频 IVR 支撑的环境版本应该是多少的。如果换成了 AICC 的环境还能不能正常编辑以前的 IVR,现在很多线上的 IVR,怕有影响。
  • [问题求助] 现在需要支持视频 IVR,请问下需要的环境去哪下载
    公司以前一直只做语音 IVR,现在需要做视频 IVR,发现业务开发环境中没有选择视频的 Cell,所以这个视频 IVR 支撑的环境版本应该是多少的。
  • [问题求助] 前端开发登录后无法获取cookie传到其他接口操作
    使用ajax post “https://ip:18531/loginInfo/login/v1.0”接口,在浏览器查看网络是能看到响应标头的cookie,但使用请求成功里的let headers = xhr.getAllResponseHeaders().toLowerCase() 其他响应头的值都有了,就没有看得到set-cookie值。查看了登录响应标头里有httponly,这个值的存在,是不允许前端获取cookie的,进而后面存cookie到浏览器无法存,再往后保活接口和获取实时RTSP都没法做了,因为会提示用户名不存在或登录超时。这是否说前端开发没法做这些接口的使用?请各位大神帮解答下!实际上我测试postcam是正常获取的,但postcam其实是内置了浏览器,会自动取到cookie和存cookie,可我纯前端没法做啊。post登录success:function(result, status, xhr)了但js没法获取到cookie!
  • [经验分享] 使用MindStudio进行FOMM模型推理全流程详解
    使用MindStudio进行FOMM模型推理使用MindStudio对FOMM模型进行ONNX推理本次实验使用MindStudio开发工具进行SSH远程连接、编译、开发等操作,MindStudio的安装配置请参照:cid:link_0MindStudio提供了AI开发所需的一站式开发环境,支持模型开发、算子开发以及应用开发三个主流程中的开发任务。依靠模型可视化、算力测试、IDE本地仿真调试等功能,MindStudio能够帮助您在一个工具上就能高效便捷地完成AI应用开发。MindStudio采用了插件化扩展机制,开发者可以通过开发插件来扩展已有功能。一、模型简介FOMM模型最早是Aliaksandr Siarohin等人在发表的《First Order Motion Model for Image Animation》一文中提到的用于图像动画化(image animation)的模型。图像动画化任务是指给定一张原图片和一个驱动视频,通过视频合成,生成主角为原图片,而动画效果和驱动视频一样的视频。以往的视频合成往往依赖于预训练模型来提取特定于对象的表示,而这些预训练模型是使用昂贵的真实数据注释构建的,并且通常不适用于任意对象类别。而FOMM的提出很好的解决了这个问题。FOMM主要依赖于两个模型:kp detector和generator。顾名思义,第一个模型的作用是关键点检测,第二个模型的作用是视频生成。而本次FOMM模型推理实验也是主要围绕这两个模型来进行。本文详细介绍了在310P(昇腾显卡)和T4(nvidia显卡)两种机器上,使用MindStudio对FOMM模型进行onnx模型推理的具体步骤。二、MindStudio项目初始化1 新建项目首先在Name一栏输入项目名:然后我们需要配置项目的CANN工具包依赖。尤其是我们第一次使用MindStudio的时候,这一步是不可省略的。选择CANN Version一栏后面的Change选项,配置我们项目的CANN工具包依赖。在该界面,首先选择我们的项目开发所使用的服务器,然后选择服务器上CANN工具包的安装路径,最后点击Finish,保存配置。MindStudio在创建新项目这一界面为我们提供了一个昇腾APP应用Pyhton框架空工程,这能帮助我们更加方便地管理和开发我们的应用,即下图中的ACL Project(Python),我们选择这一项,点击Finish。2 下载github源码仓进入项目界面后在底部选择“终端”,执行如下命令:git clone cid:link_2等待下载完成这里为了方便,我们将下载下来的源码从first-order-model文件夹中提出来,直接放在FOMM1(我们的项目目录)下,并删除空的first-order-model文件夹。3 配置conda环境,安装项目所需依赖源码仓的readme建议使用pip install -r requirements.txt安装项目所需依赖。但由于其依赖版本过低,所以此处不建议直接使用源码仓中的requirements.txt进行安装。具体依赖和版本如下:依赖名称版本cloudpickle2.1.0cycler0.11.0dask2022.2.0decorator5.1.1imageio2.21.0imageio-ffmpeg0.4.7kiwisolver1.4.4matplotlib3.3.2mmcv-full1.5.0networkx2.7.1numpy1.21.5onnx1.12.0onnxruntime1.12.1opencv-python4.6.0.66pandas1.3.5pillow9.2.0pycparser2.21pyparsing3.0.9python3.7pytz2022.1pytorch1.11.0pywavelets1.3.0pyyaml6.0scikit-image0.18.0scikit-learn1.0.2scipy1.7.3six1.16.0skl2onnx1.12sympy1.10.1toolz0.12.0torchaudio0.11.0torchvision0.12.0tqdm4.64.0其中需要注意的是,scikit-image的版本必须低于0.19.0。另外,根据源码仓readme,需要额外从github上下载一些依赖包:在我们的项目目录下运行如下命令:git clone https://github.com/1adrianb/face-alignmentcd face-alignmentpython setup.py installcd ..git clone --recursive https://github.com/AliaksandrSiarohin/pose-evaluationgit clone https://github.com/facebookresearch/maskrcnn-benchmarkcd maskrcnn-benchmarkpython setup.py install4 下载数据集为了方便下载,这里提供了已经预处理好的taichi数据集(.mp4格式)。cid:link_4提取码:mind下载整个taichi文件夹,将下载后的taichi文件夹放入FOMM1/data/。三、配置远程服务器1 添加SSH配置点击左上角file,选择setting在左侧选择tools,在下拉菜单中选择SSH Configurations,点击“+”在新建的空白配置页面输入服务器ip,用户名,密码;勾选save password保存密码;点击test connection测试是否能连接服务器;最后点击下面的ok配置完成。配置好SSH服务器后回到项目界面,点击上方菜单栏中的tools,在下拉菜单中点击start SHH session,选择刚才配置好的SSH连接,即可成功连接SSH服务器,并弹出远程操作终端:2 管理CANN工具包如果我们在使用过程中需要更换我们所要使用的CANN工具,则可按照以下步骤更换。首先,如下图所示,点击MindStudio界面上端的CANN manager按钮,打开CANN管理界面:按下图所示,先在弹出的界面选择change CANN,然后在新弹出的界面选择我们使用的远程服务器:然后如下图所示,选择服务器上CANN工具包安装的目录,我这里是/home/infname46/Ascend/ascend-toolkit/5.1.RC2,选择好后点击ok:最后点击finish,等待部署完毕即可:配置好后,重启MindStudio。3 部署项目至服务器在顶部菜单栏选择Tools,在下拉菜单中选择Deployment,再选择Configuration:在弹出的配置页面中,首先点击“+”,输入配置名称,点击OK:然后在右侧SSH configuration处选择项目部署的服务器,之后同样点击test Connection测试连接是否成功,然后选择Mappings配置项目映射目录:在mapping中配置路径映射关系,配置好后点击ok提交:最后,完成了服务器的一切配置之后,需要将项目部署到服务器上。在MindStudio项目界面,右键选择我们的项目,选择Deployment,Upload to,选择目标服务器:文件开始上传:最后,我们可以通过“Tools—Deployment—Automatic Upload”来设置自动部署。设置好自动部署后,每当我们在本地对程序进行修改后,按“Ctrl + S”保存,MindStudio便会自动将编辑过的文件自动上传至服务器。4 配置远程SSH解释器该步骤的目的是可以在本地的windows系统上使用MindStudio运行/调试在远程服务器上运行的程序。首先点击MindStudio右上角的齿轮,在弹出的列表中选择Project Structure:在弹出的设置界面,选择左侧菜单栏的SDK,点击“+”,选择Add Python SDK:在弹出的界面选择SSH Interpreter;选择项目部署的服务器;选择服务器上所使用的conda虚拟环境的安装路径;最后点击OK保存配置:5 设置项目的默认python环境首先进入project structure界面,左侧然后左侧选择project,再project的SDK选项下选择我们要使用的python环境,具体如下图:然后再选择project structure界面中的modules,在该界面配置modules SDK,额然后点击ok保存配置即可:四、模型转换1 生成onnx模型 在项目中创建以下目录:checkpointtaichi-onnxtaichi-onnx/oms然后根据作者提供的链接下载所需的.pth.tar格式的模型参数文件,保存在checkpoint文件夹中。模型参数文件的链接如下:cid:link_1编写将.pth.tar格式的checkpoint转化为onnx模型的程序get_onnx_bs1.py,放在项目根目录下。实现思路很简单,用源码仓提供的模型加载函数加载checkpoint模型,然后用torch.onnx.export导出onnx模型。代码中用到的util.load_checkpoints是从项目源码中提取出来的一个函数,其主要内容见下图:此外,因为目前onnx对某些pytorch中的算子还不支持,此项目中所涉及到的onnx不支持的算子包括:torch.inverse和torch.nn.functional.grid_sample。这两个算子需要我们用onnx支持的算子重新实现。其中inverse算子我们用自己实现的inverse_without_cat.py中的invmat函数代替;grid_sample算子用point_grid_my.py中的bilinear_grid_sample函数代替。inverse_without_cat.py和point_grid_my.py的具体内容如下:编辑好后将这两个程序放在项目目录下。导出onnx之前需要对以下python文件进行修改:将modules/dense_motion.py中的下图所示位置代码替换为:jacobian = torch.matmul(kp_source['jacobian'], invmat(kp_driving['jacobian']))将modules/dense_motion.py中下图所示位置的代码替换为:sparse_deformed = bilinear_grid_sample(source_repeat, sparse_motions)将modules/generator.py中的下图所示位置的代码替换为:return bilinear_grid_sample(inp, deformation, align_corners=True)修改完成后,使用onnx模型转换程序导出onnx模型。首先我们要在MindStudio上配置get_onnx_bs1.py的运行环境,点击进入编辑配置界面:进入编辑配置界面后,点击“+”,选择Ascend App,首先在界面上方的Name一栏输入程序名称,然后在Deployment一栏选择项目部署的配置,即我们在“第三章第3节 部署项目至服务器”中配置的服务器。在Executable处选择get_onnx_bs1.py:然后在Parameters一栏输入如下参数配置:--config config/taichi-256.yaml --checkpoint checkpoint/taichi-cpk.pth.tar --outdir taichi-onnx --genname taichi-gen-bs1 --kpname taichi-kp-bs1最后点击ok保存程序配置。这样配置好以后就可以实现在本地的MindStudio上调试远程服务器上运行的python程序了。点击MindStudio上方工具栏的绿色三角按钮,运行该程序即可导出onnx模型。2 onnx模型转换成om模型首先如下图所示,点击MindStudio界面上端的model converter按钮,在弹出的界面中首先选择服务器上onnx模型的位置,然后等待模型加载完毕后,继续在target soc version一栏选择自己的昇腾服务器的芯片类型,我这里用的是Ascend310P3,最后选择om模型的输出位置,然后点next即可。然后这里直接点next:最后第三个页面直接点finish,开始模型转换:稍等片刻,模型转换成功:五、模型推理1 配置推理环境将aclruntime-0.0.1-cp37-cp37m-linux_x86_64.whl下载下来,放在项目目录下,并上传至服务器。下载链接:cid:link_5提取码:mind下载推理程序包,在本地的终端执行以下命令:git clone https://gitee.com/ascend/tools.git等待下载完成,然后将下载好的tools包上传至服务器(也可以直接在服务器的终端输入上条命令clone到服务器上)然后在远程服务器终端上执行以下命令,安装aclruntime包:pip install aclruntime-0.0.1-cp37-cp37m-linux_x86_64.whl(若是在普通用户下执行需要加上--user参数)2 数据预处理首先修改config/taichi-256.yaml,将其中dataset_params:下的root_dir:修改为data/taichi。参考FOMM1/reconstruction.py,编写数据预处理程序如下:然后需要修改run.py。首先将下图中所示的代码修改为:parser.add_argument("--mode", default="train", choices=["train", "reconstruction", "animate", "pre"])然后在run.py的最后添加代码: elif opt.mode == 'pre': print("pre processing...") pre_processing(config, generator, kp_detector, opt.checkpoint, log_dir, dataset, opt.data_type)然后修改logger.py中下图所示的那行代码,将其改为:checkpoint = torch.load(checkpoint_path, map_location=torch.device('cpu'))打开Run/Debug Configurations界面:配置好run.py的mode为预处理的运行参数和环境:点击运行run.py。等待程序执行完毕:运行结束后在终端查看预处理后的数据的保存目录,保存结果如下所示:3 模型推理首先是在昇腾服务器上推理om模型:这里为了后续使用数据方便一些我们将tools/ais-bench_workload/tool/ais_infer/ais_infer.py中下图所示位置的代码修改成:if args.output != None: # timestr = time.strftime("%Y_%m_%d-%H_%M_%S") output_prefix = args.output # os.mkdir(output_prefix, 0o755) logger.info("output path:{}".format(output_prefix))else: output_prefix = None然后我们需要配置服务器上的环境变量:首先在服务器终端执行命令:vim ~/.bashrc然后在文件的最后添加如下内容:source /usr/local/Ascend/ascend-toolkit/set_env.shsource /etc/profile然后即可开始进行模型推理。首先配置Ascend App程序:其中Executable为:项目目录/tools/ais-bench_workload/tool/ais_infer/ais_infer.py运行参数为:--model /home/ltm/fomm/taichi-onnx/oms/taichi-kp-bs1.om --input /home/ltm/fomm/infer_out/d/ --output /home/ltm/fomm/infer_out/kpd/ --outfmt NPY然后按同样的方式,再配置一个名为infer kps的运行参数为如下内容的Ascend App程序:--model /home/ltm/fomm/taichi-onnx/oms/taichi-kp-bs1.om --input /home/ltm/fomm/infer_out/d/ --output /home/ltm/fomm/infer_out/kpd/ --outfmt NPY配置好后点击运行按钮运行程序:等待代码运行完毕即可。程序运行完后,下图中所标示的值便是我们测出来的性能指标:之后,需要运行apart_kp_out.py,对推理kp模型输出的数据进行简单处理,以便之后使用。首先配置apart_kp_out.py的运行环境:配置好后运行该程序:待程序运行结束,即可开始gen模型的推理,同样先配置Ascend App程序:其中Executable为:项目目录/tools/ais-bench_workload/tool/ais_infer/ais_infer.py运行参数为:​​​​​​​--model /home/ltm/fomm/taichi-onnx/oms/taichi-gen-bs1.om --input /home/ltm/fomm/infer_out/s/,/home/ltm/fomm/infer_out/kpdv/,/home/ltm/fomm/infer_out/kpdj/,/home/ltm/fomm/infer_out/kpsv/,/home/ltm/fomm/infer_out/kpsj/ --output /home/ltm/fomm/infer_out/out/ --outfmt NPY配置好后点击运行,等待程序运行结束即可。至此,在310P上推理om模型就完成了。接下来要在T4机器上推理模型,由于目前TensorRT不支持FOMM里的用到的很多算子,故此次推理使用线上推理。首先要写一个线上推理用的python程序:推理程序的实现思路很简单,用python的time包记录模型从输入到输出所花费的平均时间然后把平均时间代到性能的计算公式里即可。这部分功能我写在online_infer.py里,其核心代码如下:然后修改run.py,首先修改其下图中所示的代码:将这句修改为:parser.add_argument("--mode", default="train", choices=["train", "reconstruction", "animate", "pre", "infer", "ori_re"])然后在最后加上如下代码:elif opt.mode == 'infer': print("Infer ...") infer(config, generator, kp_detector, opt.checkpoint, log_dir, dataset)改好后,进入运行配置界面,配置推理程序:配置好后运行该程序,等待程序运行结束即可:程序运行结果如下:4 精度测试此处需要对源码中的FOMM1/reconstruction.py进行较大修改:然后配置run.py的mode为reconstruction的运行参数的环境:然后点击运行,运行run.py,等待程序运行结束:Reconstruction的结果保存在./checkpoint/reconstruction/下:然后配置pose-evaluation/extract.py的两个运行环境,如下所示:其中参数为:--in_folder ../data/taichi/test/ --out_file out/akd_gt.pkl --is_video --type body_pose --image_shape 256,256和--in_folder ../checkpoint/reconstruction/png/ --out_file out/akd_gen.pkl --is_video --type body_pose --image_shape 256,256配置好后依次运行两个程序:等待程序运行完毕。两个程序运行结束后,分别可以得到一个.pkl格式的文件,最后,配置精度计算的程序:然后运行该程序,即可得到FOMM模型的精度指标:至此,一整个FOMM模型推理过程就结束了。六、其他问题如果在开发过程中遇到其他问题或者是不明白的地方,我们可以登录昇腾官方论坛进行求助。昇腾论坛链接如下:cid:link_3在这里,我们可以找到很多经验帖、总结帖,亦可以在昇腾论坛发帖求助技术人员,帮助我们解决问题。七、FAQ问题一:转onnx模型的时候出现“Exporting the operator inverse to ONNX opset version 11 is not supported”的报错。分析:出现这个错误的原因是因为onnx目前还不支持Pytorch的部分算子,比如我在项目中遇到的torch.inverse和torch.nn.functional.grid_sample这两个算子,都是onnx现在还不支持的算子,如果模型中有使用到这两个算子的话,则会在转onnx模型的时候报上述的错误。解决方法:用onnx支持的算子实现onnx不支持的算子的功能,或者寻找替代的算子。问题二:使用Model Converter的时候CANN Machine一栏无法更改。解决方法:Model Converter界面中的CANN Machine一栏的内容无法在Model Converter界面修改,想要修改的应该点击CANN Manager,在此界面更改项目的CANN工具依赖。
  • [问题求助] mxStreamManager.DestroyAllStreams();接口死锁问题
    华为视频转码服务器,接口死锁问题。
  • [技术干货] 【昇腾众智】MindStudio优秀案例分享,快来get一波实践经验!
    应用开发【基于MindStudio的MindX SDK应用开发全流程】【MindStudio基于AscendCL应用开发流程】模型开发【MindSpore模型开发使用MindInsight进行调优】【使用X2MindSpore迁移PyTorch训练脚本】【TensorFlow环境搭建与TensorFlow模型开发主流程】【使用Mindstudio连接ModelArts资源进行模型训练】算子开发【PyTorch 框架 AICPU 算子开发全流程】【MindStudio进行专家系统自定义算子调优】【第一期丨基于MindStudio进行MindSpore模型开发,并使用MindInsight进行调优】准备ing 敬请期待~~
  • [公告] 【好望学堂—9月16日直播预告】HoloSens算法上线流程详解!
  • [技术干货] 【SDC算法 & IVS1800算法】算法上车精度问题定位!
           目前有不少的算法厂家有遇到算法上车问题,其中问题出现较多的是算法精度问题,针对当前算法精度问题的排查,如下做一个小结,希望能够给出一下排查方向,使得算法能够快速上车。正常情况下,算法移植中,出现精度问题较多的按照模块分,一般是前期的模型转换和后期的模型移植部分,下面将简单做一个说明:1:关于模型转换部分排查首要部分是模型转换部分,首先需要关注如下三点:a:原始模型转换为caffe模型,以caffe模型进行推理结果是否正常,精度是否异常。这个是定位所有精度问题的前提,无法保证结果正常,则后面的定位无任何意义。b:caffe模型转换为NNIE模型时,两者的精度是否正常,最终结果的余弦相似度是否是99%c:转换过程中,训练模型的通道顺序是怎样的,bgr和rgb,是否做归一化,转换输出的模型的格式YUV_420SP还是U8,这些转换过程中需要注意。2:关于模型移植部分一般情况下,在保证caffe结果正常,caffe转nnie时精度可达99%,基本上可以确定模型转换过程中,没有问题,这时即可进行模型移植部分上图是整个demo的流程图,针对当前demo移植中可能出现的问题,已做出了说明,如下是重点关注部分:a:关于条目4,需重点模型的参数的是否需要做调整,针对已YOLOV3为基座的模型,需要关注模型的anchor,类别数信息b:关于条目5,建议将送入模型的数据保存到本地,如果是yuv数据则保存成对应格式,可以使用yuv数据工具打开(如:7yuv,亲测好用)c:关于条目5,同样数将送入模型的数据保存,如果是rgb格式,需要注意的是,该rgb格式和是和正常数据有区别,保存及观察需要做调整,详见附录1:d:关于条目6,一般基于yolov3结构的模型,后处理部分不需要做任何改动,是已经调整好的,如果后续需要优化,可以考虑将模型结构中加sigmoid操作,这个时候后处理部分需要去掉sigmoid操作e:关于条目7,建议做条目7的尝试3.一些常用的小tricka:正常情况下,由于实际上编译好的文件是一个可执行文件,该可执行二进制文件是可以直接运行的,这就意味着,调测过程中,实际上不需要打包成rpm包,而是直接把依赖文件拷进设备,直接快速调测b:demo运行过程中,建议使用图片数据测试,保证结果的一致性,如果同一副图的结果不一样,要么是送入模型的数据不一样,要么是模型参数初始化部分有异常c:当出现检出结果一直不出现,可以先试着调整检出阈值,或是直接调整为最低的0.1或是0.0001,看看现在框都画在了什么地方;4: 常见FAQ答疑:Q1:感觉模型精度有问题,目标框不准,当前要怎么排查A1:再把上面的文档看一遍,提供相应的信息,1:模型精度正常证明;2:送入模型前数据,3:模型参数更新部分4:模型送入数据分辨率,5:后处理部分,6:当前画出的检出框 Q2:基本上提供Q1的问题是能够做出定位,已经排查了,仍然有问题,是否是哪里没改全?A:2:如下是一个小伙伴由于定位过程中未修改完全部分参数,导致结果异常,该值需要做调整:该值等于= 4 (框回归信息x,y,w) + 1 (前景概率值) + 80 (类别数, 假设80类)Q3:为什么我把同一副送进模型,输出结果会不一样?A3:参见模块3,trick b的回答,除此之外,结果异常,建议调整模型输入分辨率,建议调整为32的倍数附录1:正常opencv读入的数据和NNIE送入的bgr数据的差异如下图所示,正常图片是按照通道顺序的数据(planner),b|g|r| b|g|r| b|g|r| b|g|r|而送入NNIE送入模型的数据的是(package):b|b|b g|g|g r|r|r
  • [公告] 【ISV必看】算法上线审核checklist,服务商发布商品需要注意点!
    后台发布商品,内容基本要求(注意点):算法发布:https://marketplace.huaweicloud.com/markets/holosensstore/usercenter/algorithm_upload.html1.图片或各类文字描述中涉及脸部、人名、地名、车牌、其他公司信息等,须得到授权许可,否则请打马赛克或模糊化处理。2.描述中不能出现相关敏感词。(具体词汇请咨询运营)3.图片或视频内容如是摄像机拍摄画面,必须为华为摄像机拍摄,需完整、清晰、美观,不可出现其他公司logo、公司名、二维码等。4.商品场景(最多父级5个)、算法分类、适用平台请选择相关,规格说明处,摄像机型号,SDC OS软件版本需与手册保持一致,请按实际适配情况及规范填写信息。基本信息填写规范:一、算法名称1.名词组+动词(组)的形式,如安全帽检测、秸秆焚烧识别(D系列的命名,以-SDC D系列的形式展现)。2.名称应描述准确,与内容相符,软件与软件著作权证书中软件名称相符。3.名称应与业界命名规范一致,不可以出现拼写错误,如:将wordpress拼成wordpess。4.名称不能扩大宣传,不可以直接借助华为名义,如:命名为“华为XXX解决方案”。5.名称仅用于对商品命名,介绍、价格、版本等与命名无关内容,请勿出现在商品名称中。6.长度为3到25个字符。7.相同公司相同算法名的商品不能重复上架,如果需要修订更新商品包,之前的需要下架不再展示出来。8.子市场审核通过前可修改名称。二、算法描述1.清晰的介绍算法场景功能,不要夸大效果,例如检测精度100%和实际用户手册中的描述不符合(手册是测试过的),不要过分夸大,90字以内,描述文字要清晰易懂。(算法描述里面不允许出现大篇幅的营销广告内容)。2.算法描述尽可能表达算法的应用效果与核心功能,使用户能感知算法的作用。3.字体要一致,排版要规范,保持整齐美观,请勿出现大量无故换行。4.不建议放入二维码或链接等类似跳转信息。5.不应出现通过其他方式获取商务等描述,如:商务申请或详细价格请咨询xxx。6.如果商品还不能交易,不能简单使用联系我们之类的方式。应给出明确的可上市交易的时间计划。(后台“商品管理——算法基本信息——算法描述”处添加文案)。                                         参考文案:产品暂未商用,预计上市时间:xxxx年xx月xx日,给您带来不便之处,敬请谅解!(如字符长度限制,“给您带来”及后的文案可不加)三、算法LOGO1.推荐分辨率为120*120px,比例1:1,超出部分会被自动裁剪,大小不超过5M。2.图片支持JPG/JEPG/PNG/GIF格式。图片需显示完整。3.涉及到车牌、脸部等隐私相关内容,需要提供相应的书面授权文件,必要时需通过打码的方式处理。有些打码直接涂黑影响整体美观的需要审视。4.涉及到人物的图片需避开脸部正面照。好望商城商品logo规范:https://bbs.huaweicloud.com/forum/forum.php?mod=viewthread&tid=49347&page=1&extra=四、算法封面1.推荐分辨率为800*600px,比例4:3,超出部分会被自动裁剪,大小不超过5M。2.图片支持JPG/JEPG/PNG/GIF格式。图片需显示完整。3.涉及到车牌、脸部等隐私相关内容,需要提供相应的书面授权文件,必要时需通过打码的方式处理。4.封面上的算法名称要和实际算法名称保持一致,修改算法名称时需要同时修改。5.图片内容如是摄像机拍摄画面截图,需确认是华为摄像机的截图(从画面的OSD是可以识别的)。6.不能出现非华为产品也非伙伴产品的其他厂商产品信息。7.重复图片建议删除。商品配图规范:https://bbs.huaweicloud.com/forum/forum.php?mod=viewthread&tid=49346&page=1&extra=五、多媒体介绍1.图片显示完整,应当反映算法在关键场景下的使用片段。2.图片露出不允许出现友商或者其他公司的LOGO、文字等与产品无关的信息,图片要与算法内容相关;3.最多上传5张图片。(视频第一帧为封面,且只允许上传一个视频)。4.视频第一帧的算法名称要和实际算法名称保持一致。5.视频需无背景杂音,如配音需和视频内容相关。六、使用手册1.算法的使用手册,用于商品详情页的展示,指导用户使用算法。2.请选择.rar/.zip/.doc/.docx/.pdf/.ppt/.pptx格式文件,≤20M。3.仅支持上传一个,手册不可出现敏感词、脸部图片,其他公司信息等,适配规格、软件版本与详情页一致。七、商品优势标题:1~25个字符,体现竞争力核心,解决了什么行业难点,预见未来趋势,如:落地案例。描述:1~80个字符,描述对应标题的具体竞争力、行业难点、未来趋势,不可体现敏感信息,项目落地数量、落地案例,数据真实,不可夸大。八、场景约束1.最多支持上传10个,标题最多10个字,描述最多80个字,不能出现敏感信息,表述商品的约束场景。2.对环境、硬件设备的要求应通过浅显易懂的语言描述清楚。比如:高抛算法,对硬件要求门槛明示清楚,楼高、安装距离、像素、天气、能见度、风力等级数字化呈现,避免让人感觉算法效果描述是全场景可实现。3.避免用专业晦涩的语言。如果为了专业需要,可以同时提供专业和大白话两种方式,互为印证,帮助客户理解。九、图文介绍1.参见提示文字的标题与文本格式输入具体的应用解决方案,并删除占位文字与图片。2.文字与图片合计字符长度在 0 到 2500 个字符之间。3.图片支持JPG/JEPG/PNG/GIF格式,最多上传3张图片,每张大小不超过5M。4.涉及到车牌、脸部等隐私相关内容,需要提供相应的书面授权文件,必要时需通过打码的方式处理。5.不可使用外链,如使用图片,需是原创。十、关联商品1.采用本算法的解决方案:(支持填写和选择)选择:选择本公司已上线的解决方案,解决方案需与算法、应用在详情页相互关联。填写要求:名称最多25个字,描述最多90个字,无敏感信息,如还未上线,需一个月内上线解决方案2.配套应用:(严选商品必须华为侧应用闭环,华为侧闭环及自闭环时,优先展示华为侧闭环应用)支持已有(选择)和暂无(填写)选择:可选已经在售的相关应用填写要求:名称最多25个字,描述最多90个字,无敏感信息,一个月内上线相关应用需要填写明确的闭环应用,比如:iClient S100 等云市场审核:(卖家中心操作)1.是否公开销售:一般选择“是”,如产品快速上线,用于项目交付,或者产品质量问题暂无法商用,请选择“否”。2.商品标签,必选“机器视觉”,其他相关选填。3.合同名称,必须选择对应公司的合同名称才能发布,如为新合作伙伴,请联系运营生成合同。4.计费方式,要求必须同时配置以下两种计费方式:a、免费体验包:算法试用场景,使用该计费方式。套餐包配额,只能填写为“5”或者“10”,表示支持试用的路数。价格(元):固定为“0”。b、按次:算法正式销售时,使用该计费方式。请根据使用路数设置价格。5.软件著作权证书,软件商品须上传与商品名称相符的软件著作权证书,且著作权人须与发布商品公司主体一致。a、不能没有软著上架b、合作伙伴可以提供一个通用的软著,再出一个承诺函,然后一起打包上传来代替单一算法的软件著作书文件大小不超过20M。最多支持上传5个。6.支持范围,必须包含:服务电话、邮箱,服务时间,服务内容(实际服务描述具体清晰)好望商城(算法、应用、硬件、解决方案等):https://marketplace.huaweicloud.com/markets/holosensstore/好望云服务官网:https://www.huaweicloud.com/product/ivm.html
  • [公告] 【严选来袭】好望商城严选认证申请流程指导——好望严选,品质精选!
    严选政策到底是什么?又传递了哪些利好?对用户、服务商、经销商有哪些福利?严选申请流程如何走?让我们一起了解一下详细情况吧!严选商品定义严选商品是根据行业需求,严格筛选符合客户需求和服务质量要求的产品、服务等。开放合作由合作伙伴提出申请,华为侧根据一定规则(如行业地位影响力,质量要求,性能要求等)进行审批。严选类商品可以由华为侧直销(官网/线下直销),或者推荐华为经销商进行销售。华为和经销商有定价权,销售价格不低于好望商城/云市场严选伙伴设置的底价。严选商品,在通用商品基础上,从功能、性能、易用性、市场表现和评价等维度综合考虑,同类产品中的优质商品进入严选。严选商品利好对客户而言,客户可以在好望商城轻松选择更优质(价格更低/质量更好/功能更全面)的产品(算法/应用/硬件等),无忧购物。对服务商而言,点亮严选标识后,商业变现能力增强。多渠道同步分发为严选商品带来海量流量和更多销售机会,有利于提升基于好望商城的销售业绩。对经销商(一线、客户经理、华为分销、代表处、金牌等)而言,丰富了可销售商品,严选商品定价模式灵活,且有充足的差价利润,经销商可通过项目或者转推荐严选商品获得商业利益(业绩、实际收入等)。对好望商城而言,客户、服务商、经销商充分参与到好望商城的生态建设,有利于促进商城生态圈进一步发展,做大流量,做强生态,实现商城以及“智能感知终端+AI算法\应用”的商业模式的成功。商品品质上:严选商品经过严苛的品质把关,经过严格的测试(伙伴自测报告+华为测试报告),相比普通市场的商品,质量和服务更具保证。销售过程中:通用商品的售前、售后服务责任由合作伙伴承担。而严选商品,由华为直销或经销商承担产品售前服务的职责,云市场合作伙伴承担交付和售后责任,交易全程监管。变现能力上:好望严选升级变现渠道。开放线下直销、渠道经销商代销模式,由经销商或华为销售人员向客户提供华为云严选商品销售服务。好望商城/云市场提供佣金激励。— —普通商品,一线没有业绩;严选商品计算销售团队业绩,华为庞大的业务团队优先推荐严选商品。所以服务商、一线的伙伴们,一起努力严选吧!严选商品申请流程申请流程总览:好望商城严选相关资料准备过程如下,供参考:1.参考《HoloSens严选商品申请门槛checklist V2.0 - 6.30 (定版)》进行自检材料准备,并将相关准备材料按目录归档到:“01 严选门槛自检材料”文件夹— —需达到必选门槛和可选门槛(最低需满足60分,相关证明材料完善)。2.提供第一步中准备的资料,发送给好望商城运营进行初审。3.初审通过后,准备会审资料,包括:《附件2.0 XX公司XX产品严选商品申请汇报模板V3.2_202104》、《【自测试】xx伙伴-xx算法-测试报告模板-v1.0修改版-算法》、《华为云严选商品配置-报价-功能清单模板V2.0-附SKU样例(应用)》、《华为云严选报价模板(算法)V1.0》4.同时准备会签材料,需要包括上市相关资料:《附件3.1  XXXXX华为云联合解决方案模板V3.0》、《附件3.2 -XX产品销售指导书V2.0》、《附件3.4-严选商品一页宣传纸方案模板V2.0》 步骤相关指导链接注册账号cid:link_3入驻云市场cid:link_0发布商品(ISV 发布时打机器视觉标签)cid:link_1认证严选cid:link_4上架严选cid:link_2备注:整个流程和上线云市场类似,关键注意发布商品时需要打机器视觉标签,这块具体操作,可联系好望商城运营支撑。好望商城(算法、应用、硬件、解决方案等):cid:link_5好望云服务官网:cid:link_6
  • [问题求助] 【vcn3000】【rtsp视频流获取】调用IVS_SDK_GetRtspURL获取视频URL地址有效期为30s,如何延长时间
    【功能模块】eSDK IVS 1.1.RC1.SPC39调用IVS_SDK_GetRtspURL获取视频URL有效期为30S,如何延长有效期【操作步骤&问题现象】视频流格式:rtsp://5.2.3.115:554/00902262863241180101?DstCode=01&ServiceType=1&ClientType=0&StreamID=1&SrcTP=2&DstTP=2&SrcPP=1&DstPP=1&MediaTransMode=0&BroadcastType=0&SV=0&Token=f3LeGWfbh3kti6yowk2vl9YT2kSCAD22&DomainCode=bfd896f7ebb74e258c9620e7cd86ee84&UserId=1&【截图信息】【日志信息】(可选,上传日志内容或者附件)
  • [热门活动] 好望商城6.18年中钜惠
    好望商城6.18大促活动页:https://marketplace.huaweicloud.com/markets/holosensstore/activity/0618.html好望云服务官网:https://www.huaweicloud.com/product/ivm.html好望商城(算法、应用、解决方案):https://marketplace.huaweicloud.com/markets/holosensstore/
  • [热门活动] 好望护学堂,一起梦飞扬!
    好望云服务官网:https://www.huaweicloud.com/product/ivm.html好望商城(算法、应用、解决方案):https://marketplace.huaweicloud.com/markets/holosensstore/
总条数:70 到第
上滑加载中