• [问题求助] 引入 #include <jpeglib.h> ,报 fatal error: 'jpeglib.h' file not found,要配置哪些相关项
    项目业务需要在OpenHarmony 3.1 Release 源码的v4l2_buffer.cpp 的头部添加#include <jpeglib.h>, 报 fatal error: 'jpeglib.h' file not found。(v4l2_buffer.cpp 位置:drivers\peripheral\camera\hal\adapter\platform\v4l2\src\driver_adapter\src\v4l2_buffer.cpp)我目前已经在其drivers\peripheral\camera\hal\adapter\platform\v4l2\src\driver_adapter\BUILD.gn 中添加,请问还需要配置些什么才能引入jpeglib成功。
  • [分享交流] 狂野少女
    A river of misty water shines in the clear haze, and people on both sides of the river connect the painted eaves to protect the lotus cluster from a period of light in autumn
  • [问题求助] altlas500如何读取h265的摄像头流
    altlas500如何读取h265的摄像头流
  • [问题求助] altas500华为库读取的图片转成opencv是多少字节
    altas500华为库读取的图片转成opencv是多少字节
  • [热门活动] simpie but warm family
  • [问题求助] Atlas 200 Dk+ARM+ubuntu18.04+Mxvision-2.0.3,想对RTSP视频流进行推理,一直没找到合适的例子,streamManagerApi.GetResult()里面是要传什么参数呢?
    对RTSP流进行推理一直报错,RTSP流是没问题的,自己用VLC看了是有的,有什么合适的例子吗,看帖子里面的很多链接都过期了,自己找了半天也没找到合适的例子用的Yolov5-5.0版本Log line format: [IWEF]mmdd hh:mm:ss.uuuuuu threadid file:line] msg W1018 09:12:42.802793  7965 ConfigUtil.h:105] [1016][Object, file or other resource doesn't exist] Fail to read (CHECK_MODEL) from config, default is: 1 W1018 09:12:44.958891  8025 DvppWrapper.cpp:266] channelId:0 frameId:2 decode failed W1018 09:12:44.961475  8025 DvppWrapper.cpp:266] channelId:0 frameId:3 decode failed W1018 09:12:44.998505  8025 DvppWrapper.cpp:266] channelId:0 frameId:4 decode failed W1018 09:12:45.077029  8025 DvppWrapper.cpp:266] channelId:0 frameId:5 decode failed W1018 09:12:45.117029  8025 DvppWrapper.cpp:266] channelId:0 frameId:6 decode failed W1018 09:12:45.157472  8025 DvppWrapper.cpp:266] channelId:0 frameId:7 decode failed W1018 09:12:45.198191  8025 DvppWrapper.cpp:266] channelId:0 frameId:8 decode failed W1018 09:12:45.239210  8025 DvppWrapper.cpp:266] channelId:0 frameId:9 decode failed W1018 09:12:45.269130  8025 DvppWrapper.cpp:266] channelId:0 frameId:10 decode failed W1018 09:12:45.271580  8025 DvppWrapper.cpp:266] channelId:0 frameId:11 decode failed W1018 09:12:45.310590  8025 DvppWrapper.cpp:266] channelId:0 frameId:12 decode failed W1018 09:12:45.392566  8025 DvppWrapper.cpp:266] channelId:0 frameId:13 decode failed W1018 09:12:45.433604  8025 DvppWrapper.cpp:266] channelId:0 frameId:14 decode failed W1018 09:12:45.473387  8025 DvppWrapper.cpp:266] channelId:0 frameId:15 decode failed W1018 09:12:45.514204  8025 DvppWrapper.cpp:266] channelId:0 frameId:16 decode failed W1018 09:12:45.555334  8025 DvppWrapper.cpp:266] channelId:0 frameId:17 decode failed W1018 09:12:45.594554  8025 DvppWrapper.cpp:266] channelId:0 frameId:18 decode failed W1018 09:12:45.597002  8025 DvppWrapper.cpp:266] channelId:0 frameId:19 decode failed W1018 09:12:45.635776  8025 DvppWrapper.cpp:266] channelId:0 frameId:20 decode failed W1018 09:12:45.718045  8025 DvppWrapper.cpp:266] channelId:0 frameId:21 decode failed W1018 09:12:45.757290  8025 DvppWrapper.cpp:266] channelId:0 frameId:22 decode failed W1018 09:12:45.798099  8025 DvppWrapper.cpp:266] channelId:0 frameId:23 decode failed W1018 09:12:45.839401  8025 DvppWrapper.cpp:266] channelId:0 frameId:24 decode failed W1018 09:12:45.880497  8025 DvppWrapper.cpp:266] channelId:0 frameId:25 decode failed W1018 09:12:45.911729  8025 DvppWrapper.cpp:266] channelId:0 frameId:26 decode failed W1018 09:12:45.913880  7965 MxsmStream.cpp:829] Failed to send custom eos to the Stream. W1018 09:12:45.914935  7965 MxsmStream.cpp:841] Failed to flush the Stream data. W1018 09:12:45.922997  8025 DvppWrapper.cpp:266] channelId:0 frameId:27 decode failed W1018 09:12:45.958940  8025 DvppWrapper.cpp:266] channelId:0 frameId:28 decode failed 
  • [经验分享] 使用MindStudio进行FOMM模型推理全流程详解
    使用MindStudio进行FOMM模型推理使用MindStudio对FOMM模型进行ONNX推理本次实验使用MindStudio开发工具进行SSH远程连接、编译、开发等操作,MindStudio的安装配置请参照:cid:link_0MindStudio提供了AI开发所需的一站式开发环境,支持模型开发、算子开发以及应用开发三个主流程中的开发任务。依靠模型可视化、算力测试、IDE本地仿真调试等功能,MindStudio能够帮助您在一个工具上就能高效便捷地完成AI应用开发。MindStudio采用了插件化扩展机制,开发者可以通过开发插件来扩展已有功能。一、模型简介FOMM模型最早是Aliaksandr Siarohin等人在发表的《First Order Motion Model for Image Animation》一文中提到的用于图像动画化(image animation)的模型。图像动画化任务是指给定一张原图片和一个驱动视频,通过视频合成,生成主角为原图片,而动画效果和驱动视频一样的视频。以往的视频合成往往依赖于预训练模型来提取特定于对象的表示,而这些预训练模型是使用昂贵的真实数据注释构建的,并且通常不适用于任意对象类别。而FOMM的提出很好的解决了这个问题。FOMM主要依赖于两个模型:kp detector和generator。顾名思义,第一个模型的作用是关键点检测,第二个模型的作用是视频生成。而本次FOMM模型推理实验也是主要围绕这两个模型来进行。本文详细介绍了在310P(昇腾显卡)和T4(nvidia显卡)两种机器上,使用MindStudio对FOMM模型进行onnx模型推理的具体步骤。二、MindStudio项目初始化1 新建项目首先在Name一栏输入项目名:然后我们需要配置项目的CANN工具包依赖。尤其是我们第一次使用MindStudio的时候,这一步是不可省略的。选择CANN Version一栏后面的Change选项,配置我们项目的CANN工具包依赖。在该界面,首先选择我们的项目开发所使用的服务器,然后选择服务器上CANN工具包的安装路径,最后点击Finish,保存配置。MindStudio在创建新项目这一界面为我们提供了一个昇腾APP应用Pyhton框架空工程,这能帮助我们更加方便地管理和开发我们的应用,即下图中的ACL Project(Python),我们选择这一项,点击Finish。2 下载github源码仓进入项目界面后在底部选择“终端”,执行如下命令:git clone cid:link_2等待下载完成这里为了方便,我们将下载下来的源码从first-order-model文件夹中提出来,直接放在FOMM1(我们的项目目录)下,并删除空的first-order-model文件夹。3 配置conda环境,安装项目所需依赖源码仓的readme建议使用pip install -r requirements.txt安装项目所需依赖。但由于其依赖版本过低,所以此处不建议直接使用源码仓中的requirements.txt进行安装。具体依赖和版本如下:依赖名称版本cloudpickle2.1.0cycler0.11.0dask2022.2.0decorator5.1.1imageio2.21.0imageio-ffmpeg0.4.7kiwisolver1.4.4matplotlib3.3.2mmcv-full1.5.0networkx2.7.1numpy1.21.5onnx1.12.0onnxruntime1.12.1opencv-python4.6.0.66pandas1.3.5pillow9.2.0pycparser2.21pyparsing3.0.9python3.7pytz2022.1pytorch1.11.0pywavelets1.3.0pyyaml6.0scikit-image0.18.0scikit-learn1.0.2scipy1.7.3six1.16.0skl2onnx1.12sympy1.10.1toolz0.12.0torchaudio0.11.0torchvision0.12.0tqdm4.64.0其中需要注意的是,scikit-image的版本必须低于0.19.0。另外,根据源码仓readme,需要额外从github上下载一些依赖包:在我们的项目目录下运行如下命令:git clone https://github.com/1adrianb/face-alignmentcd face-alignmentpython setup.py installcd ..git clone --recursive https://github.com/AliaksandrSiarohin/pose-evaluationgit clone https://github.com/facebookresearch/maskrcnn-benchmarkcd maskrcnn-benchmarkpython setup.py install4 下载数据集为了方便下载,这里提供了已经预处理好的taichi数据集(.mp4格式)。cid:link_4提取码:mind下载整个taichi文件夹,将下载后的taichi文件夹放入FOMM1/data/。三、配置远程服务器1 添加SSH配置点击左上角file,选择setting在左侧选择tools,在下拉菜单中选择SSH Configurations,点击“+”在新建的空白配置页面输入服务器ip,用户名,密码;勾选save password保存密码;点击test connection测试是否能连接服务器;最后点击下面的ok配置完成。配置好SSH服务器后回到项目界面,点击上方菜单栏中的tools,在下拉菜单中点击start SHH session,选择刚才配置好的SSH连接,即可成功连接SSH服务器,并弹出远程操作终端:2 管理CANN工具包如果我们在使用过程中需要更换我们所要使用的CANN工具,则可按照以下步骤更换。首先,如下图所示,点击MindStudio界面上端的CANN manager按钮,打开CANN管理界面:按下图所示,先在弹出的界面选择change CANN,然后在新弹出的界面选择我们使用的远程服务器:然后如下图所示,选择服务器上CANN工具包安装的目录,我这里是/home/infname46/Ascend/ascend-toolkit/5.1.RC2,选择好后点击ok:最后点击finish,等待部署完毕即可:配置好后,重启MindStudio。3 部署项目至服务器在顶部菜单栏选择Tools,在下拉菜单中选择Deployment,再选择Configuration:在弹出的配置页面中,首先点击“+”,输入配置名称,点击OK:然后在右侧SSH configuration处选择项目部署的服务器,之后同样点击test Connection测试连接是否成功,然后选择Mappings配置项目映射目录:在mapping中配置路径映射关系,配置好后点击ok提交:最后,完成了服务器的一切配置之后,需要将项目部署到服务器上。在MindStudio项目界面,右键选择我们的项目,选择Deployment,Upload to,选择目标服务器:文件开始上传:最后,我们可以通过“Tools—Deployment—Automatic Upload”来设置自动部署。设置好自动部署后,每当我们在本地对程序进行修改后,按“Ctrl + S”保存,MindStudio便会自动将编辑过的文件自动上传至服务器。4 配置远程SSH解释器该步骤的目的是可以在本地的windows系统上使用MindStudio运行/调试在远程服务器上运行的程序。首先点击MindStudio右上角的齿轮,在弹出的列表中选择Project Structure:在弹出的设置界面,选择左侧菜单栏的SDK,点击“+”,选择Add Python SDK:在弹出的界面选择SSH Interpreter;选择项目部署的服务器;选择服务器上所使用的conda虚拟环境的安装路径;最后点击OK保存配置:5 设置项目的默认python环境首先进入project structure界面,左侧然后左侧选择project,再project的SDK选项下选择我们要使用的python环境,具体如下图:然后再选择project structure界面中的modules,在该界面配置modules SDK,额然后点击ok保存配置即可:四、模型转换1 生成onnx模型 在项目中创建以下目录:checkpointtaichi-onnxtaichi-onnx/oms然后根据作者提供的链接下载所需的.pth.tar格式的模型参数文件,保存在checkpoint文件夹中。模型参数文件的链接如下:cid:link_1编写将.pth.tar格式的checkpoint转化为onnx模型的程序get_onnx_bs1.py,放在项目根目录下。实现思路很简单,用源码仓提供的模型加载函数加载checkpoint模型,然后用torch.onnx.export导出onnx模型。代码中用到的util.load_checkpoints是从项目源码中提取出来的一个函数,其主要内容见下图:此外,因为目前onnx对某些pytorch中的算子还不支持,此项目中所涉及到的onnx不支持的算子包括:torch.inverse和torch.nn.functional.grid_sample。这两个算子需要我们用onnx支持的算子重新实现。其中inverse算子我们用自己实现的inverse_without_cat.py中的invmat函数代替;grid_sample算子用point_grid_my.py中的bilinear_grid_sample函数代替。inverse_without_cat.py和point_grid_my.py的具体内容如下:编辑好后将这两个程序放在项目目录下。导出onnx之前需要对以下python文件进行修改:将modules/dense_motion.py中的下图所示位置代码替换为:jacobian = torch.matmul(kp_source['jacobian'], invmat(kp_driving['jacobian']))将modules/dense_motion.py中下图所示位置的代码替换为:sparse_deformed = bilinear_grid_sample(source_repeat, sparse_motions)将modules/generator.py中的下图所示位置的代码替换为:return bilinear_grid_sample(inp, deformation, align_corners=True)修改完成后,使用onnx模型转换程序导出onnx模型。首先我们要在MindStudio上配置get_onnx_bs1.py的运行环境,点击进入编辑配置界面:进入编辑配置界面后,点击“+”,选择Ascend App,首先在界面上方的Name一栏输入程序名称,然后在Deployment一栏选择项目部署的配置,即我们在“第三章第3节 部署项目至服务器”中配置的服务器。在Executable处选择get_onnx_bs1.py:然后在Parameters一栏输入如下参数配置:--config config/taichi-256.yaml --checkpoint checkpoint/taichi-cpk.pth.tar --outdir taichi-onnx --genname taichi-gen-bs1 --kpname taichi-kp-bs1最后点击ok保存程序配置。这样配置好以后就可以实现在本地的MindStudio上调试远程服务器上运行的python程序了。点击MindStudio上方工具栏的绿色三角按钮,运行该程序即可导出onnx模型。2 onnx模型转换成om模型首先如下图所示,点击MindStudio界面上端的model converter按钮,在弹出的界面中首先选择服务器上onnx模型的位置,然后等待模型加载完毕后,继续在target soc version一栏选择自己的昇腾服务器的芯片类型,我这里用的是Ascend310P3,最后选择om模型的输出位置,然后点next即可。然后这里直接点next:最后第三个页面直接点finish,开始模型转换:稍等片刻,模型转换成功:五、模型推理1 配置推理环境将aclruntime-0.0.1-cp37-cp37m-linux_x86_64.whl下载下来,放在项目目录下,并上传至服务器。下载链接:cid:link_5提取码:mind下载推理程序包,在本地的终端执行以下命令:git clone https://gitee.com/ascend/tools.git等待下载完成,然后将下载好的tools包上传至服务器(也可以直接在服务器的终端输入上条命令clone到服务器上)然后在远程服务器终端上执行以下命令,安装aclruntime包:pip install aclruntime-0.0.1-cp37-cp37m-linux_x86_64.whl(若是在普通用户下执行需要加上--user参数)2 数据预处理首先修改config/taichi-256.yaml,将其中dataset_params:下的root_dir:修改为data/taichi。参考FOMM1/reconstruction.py,编写数据预处理程序如下:然后需要修改run.py。首先将下图中所示的代码修改为:parser.add_argument("--mode", default="train", choices=["train", "reconstruction", "animate", "pre"])然后在run.py的最后添加代码: elif opt.mode == 'pre': print("pre processing...") pre_processing(config, generator, kp_detector, opt.checkpoint, log_dir, dataset, opt.data_type)然后修改logger.py中下图所示的那行代码,将其改为:checkpoint = torch.load(checkpoint_path, map_location=torch.device('cpu'))打开Run/Debug Configurations界面:配置好run.py的mode为预处理的运行参数和环境:点击运行run.py。等待程序执行完毕:运行结束后在终端查看预处理后的数据的保存目录,保存结果如下所示:3 模型推理首先是在昇腾服务器上推理om模型:这里为了后续使用数据方便一些我们将tools/ais-bench_workload/tool/ais_infer/ais_infer.py中下图所示位置的代码修改成:if args.output != None: # timestr = time.strftime("%Y_%m_%d-%H_%M_%S") output_prefix = args.output # os.mkdir(output_prefix, 0o755) logger.info("output path:{}".format(output_prefix))else: output_prefix = None然后我们需要配置服务器上的环境变量:首先在服务器终端执行命令:vim ~/.bashrc然后在文件的最后添加如下内容:source /usr/local/Ascend/ascend-toolkit/set_env.shsource /etc/profile然后即可开始进行模型推理。首先配置Ascend App程序:其中Executable为:项目目录/tools/ais-bench_workload/tool/ais_infer/ais_infer.py运行参数为:--model /home/ltm/fomm/taichi-onnx/oms/taichi-kp-bs1.om --input /home/ltm/fomm/infer_out/d/ --output /home/ltm/fomm/infer_out/kpd/ --outfmt NPY然后按同样的方式,再配置一个名为infer kps的运行参数为如下内容的Ascend App程序:--model /home/ltm/fomm/taichi-onnx/oms/taichi-kp-bs1.om --input /home/ltm/fomm/infer_out/d/ --output /home/ltm/fomm/infer_out/kpd/ --outfmt NPY配置好后点击运行按钮运行程序:等待代码运行完毕即可。程序运行完后,下图中所标示的值便是我们测出来的性能指标:之后,需要运行apart_kp_out.py,对推理kp模型输出的数据进行简单处理,以便之后使用。首先配置apart_kp_out.py的运行环境:配置好后运行该程序:待程序运行结束,即可开始gen模型的推理,同样先配置Ascend App程序:其中Executable为:项目目录/tools/ais-bench_workload/tool/ais_infer/ais_infer.py运行参数为:​​​​​​​--model /home/ltm/fomm/taichi-onnx/oms/taichi-gen-bs1.om --input /home/ltm/fomm/infer_out/s/,/home/ltm/fomm/infer_out/kpdv/,/home/ltm/fomm/infer_out/kpdj/,/home/ltm/fomm/infer_out/kpsv/,/home/ltm/fomm/infer_out/kpsj/ --output /home/ltm/fomm/infer_out/out/ --outfmt NPY配置好后点击运行,等待程序运行结束即可。至此,在310P上推理om模型就完成了。接下来要在T4机器上推理模型,由于目前TensorRT不支持FOMM里的用到的很多算子,故此次推理使用线上推理。首先要写一个线上推理用的python程序:推理程序的实现思路很简单,用python的time包记录模型从输入到输出所花费的平均时间然后把平均时间代到性能的计算公式里即可。这部分功能我写在online_infer.py里,其核心代码如下:然后修改run.py,首先修改其下图中所示的代码:将这句修改为:parser.add_argument("--mode", default="train", choices=["train", "reconstruction", "animate", "pre", "infer", "ori_re"])然后在最后加上如下代码:elif opt.mode == 'infer': print("Infer ...") infer(config, generator, kp_detector, opt.checkpoint, log_dir, dataset)改好后,进入运行配置界面,配置推理程序:配置好后运行该程序,等待程序运行结束即可:程序运行结果如下:4 精度测试此处需要对源码中的FOMM1/reconstruction.py进行较大修改:然后配置run.py的mode为reconstruction的运行参数的环境:然后点击运行,运行run.py,等待程序运行结束:Reconstruction的结果保存在./checkpoint/reconstruction/下:然后配置pose-evaluation/extract.py的两个运行环境,如下所示:其中参数为:--in_folder ../data/taichi/test/ --out_file out/akd_gt.pkl --is_video --type body_pose --image_shape 256,256和--in_folder ../checkpoint/reconstruction/png/ --out_file out/akd_gen.pkl --is_video --type body_pose --image_shape 256,256配置好后依次运行两个程序:等待程序运行完毕。两个程序运行结束后,分别可以得到一个.pkl格式的文件,最后,配置精度计算的程序:然后运行该程序,即可得到FOMM模型的精度指标:至此,一整个FOMM模型推理过程就结束了。六、其他问题如果在开发过程中遇到其他问题或者是不明白的地方,我们可以登录昇腾官方论坛进行求助。昇腾论坛链接如下:cid:link_3在这里,我们可以找到很多经验帖、总结帖,亦可以在昇腾论坛发帖求助技术人员,帮助我们解决问题。七、FAQ问题一:转onnx模型的时候出现“Exporting the operator inverse to ONNX opset version 11 is not supported”的报错。分析:出现这个错误的原因是因为onnx目前还不支持Pytorch的部分算子,比如我在项目中遇到的torch.inverse和torch.nn.functional.grid_sample这两个算子,都是onnx现在还不支持的算子,如果模型中有使用到这两个算子的话,则会在转onnx模型的时候报上述的错误。解决方法:用onnx支持的算子实现onnx不支持的算子的功能,或者寻找替代的算子。问题二:使用Model Converter的时候CANN Machine一栏无法更改。解决方法:Model Converter界面中的CANN Machine一栏的内容无法在Model Converter界面修改,想要修改的应该点击CANN Manager,在此界面更改项目的CANN工具依赖。
  • [技术干货] 应用服务版块各种应用教程贴之汇总贴
    1.Windows CMD常用命令大全简述:Windows CMD常用命令大全中各种CMD命令的使用方法。https://bbs.huaweicloud.com/forum/thread-150473-1-1.html2.Windows CMD常用命令大全简述:Windows CMD常用命令大全中各种CMD命令的使用方法。https://bbs.huaweicloud.com/forum/thread-150474-1-1.html3.【开发者最佳实践挑战】第3关任务:使用Redis实现排行榜功能简述:使用Redis实现排行榜功能。https://bbs.huaweicloud.com/forum/thread-69861-1-1.html4.K8S--运行nginx容器简述:K8S运行nginx容器各种操作步骤的详细介绍。https://bbs.huaweicloud.com/forum/thread-130733-1-1.html5.K8S--部署博客系统简述:K8S部署博客系统步骤详解。https://bbs.huaweicloud.com/forum/thread-130732-1-1.html6.零代码美食分类模型开发简述:零代码美食分类模型开发的详细介绍。https://bbs.huaweicloud.com/forum/thread-98696-1-1.html7.APIG体验Demo指导简述:APIG体验Demo指导。此Demo主要用于演示API网关的使用,通过一键式操作,介绍一个具备“HTTP回显”功能的API的创建、发布以及绑定流控等操作,最终您可以调试或直接调用这个API。https://bbs.huaweicloud.com/forum/thread-69859-1-1.html8.教你怎么才能把mpeg格式视频转换为mp4格式简述:教你怎么才能把mpeg格式视频转换为mp4格式的详细讲解。https://bbs.huaweicloud.com/forum/thread-25842-1-1.html9.如何在笔记本电脑上录制音频简述:如何在笔记本电脑上录制音频的详细讲解。现在的录音软件有很多,特别是现在的手机都自带录音功能,可是笔记本电脑要怎样录音?我们生活工作当中难免会用到笔记本电脑,因此遇到需要录制声音的时候应该怎么办?那么如何在笔记本电脑上录制音频?可以用什么录音软件?https://bbs.huaweicloud.com/forum/thread-25765-1-1.html10.怎么把vob格式的视频转换成mp4格式简述:怎么把vob格式的视频转换成mp4格式的详细讲解。可能很多人都知道DVD光盘,但是也许大家并不知道DVD中的文件格式为vob,vob将数字视频、数字音频、字幕、DVD菜单和导航等多种内容复用在一个流格式中。vob格式中的文件可以被加密保护。所以想要直接播放vob格式似乎并不太可能。那么就只能把vob格式的视频转换成mp4格式了。https://bbs.huaweicloud.com/forum/thread-25762-1-1.html以上就是部分应用服务版块中各种应用教程帖子的汇总。
  • [热门活动] 音视频技术如何做到全球一张网?华为云产品经理这样说……
    当我们翻开自己的手机不难发现,无论是社交、购物还是游戏、学习,各式各类软件都已经自带了直播功能。直播,已经成为企业数字化转型和内容营销的必备场景。而与企业需求呼应的,是如何优化用户端的使用体验。 以常见的直播电商场景举例:有时我们在直播间进行抢购,主播推送优惠券后十几秒,用户仍然没有接收,不仅导致用户无法下单,甚至还会在直播间发泄负面情绪,影响正常电商售卖活动,因此,用户实时互动体验一直是B端重点关心的问题。 随着5G时代的到来,网络条件得到提升,低时延技术就在此时应运应时而生。通过低时延直播不仅大大提升边看边买的体验,也让秒杀、抽奖等对时效要求高的营销玩法有了更强的底层支撑,优化了直播转换率。 那么,在华为云上,低时延技术架构与业务发展的如何?华为云用户如何体验和使用低时延技术?华为云的SparkRTC全球一张网是如何做到的? 2022年4月18日 19点,华为云SparkRTC产品经理Luke将为你一一直播解答! 直播主题:全球低时延一张网的技术与业务RTC全球一张网介绍 直播时间:2022年4月18日 19:00-20:00 直播嘉宾:Luke华为云SparkRTC产品经理 华为云媒体服务资深产品专家,长期负责视频领域工作,现负责华为云SparkRTC产品规划与项目研发工作,在媒体网络演进、竞争力落地和解决网络拥塞导致卡顿等问题有丰富的经验。 直播简介:1.SparkRTC全球一张网2.低时延技术架构与业务组合介绍→→点击报名
  • [讲座&活动公告] 音视频技术如何做到全球一张网?华为云产品经理这样说……
    当我们翻开自己的手机不难发现,无论是社交、购物还是游戏、学习,各式各类软件都已经自带了直播功能。直播,已经成为企业数字化转型和内容营销的必备场景。而与企业需求呼应的,是如何优化用户端的使用体验。 以常见的直播电商场景举例:有时我们在直播间进行抢购,主播推送优惠券后十几秒,用户仍然没有接收,不仅导致用户无法下单,甚至还会在直播间发泄负面情绪,影响正常电商售卖活动,因此,用户实时互动体验一直是B端重点关心的问题。 随着5G时代的到来,网络条件得到提升,低时延技术就在此时应运应时而生。通过低时延直播不仅大大提升边看边买的体验,也让秒杀、抽奖等对时效要求高的营销玩法有了更强的底层支撑,优化了直播转换率。 那么,在华为云上,低时延技术架构与业务发展的如何?华为云用户如何体验和使用低时延技术?华为云的SparkRTC全球一张网是如何做到的? 2022年4月18日 19点,华为云SparkRTC产品经理Luke将为你一一直播解答! 直播主题:全球低时延一张网的技术与业务RTC全球一张网介绍 直播时间:2022年4月18日 19:00-20:00 直播嘉宾:Luke华为云SparkRTC产品经理 华为云媒体服务资深产品专家,长期负责视频领域工作,现负责华为云SparkRTC产品规划与项目研发工作,在媒体网络演进、竞争力落地和解决网络拥塞导致卡顿等问题有丰富的经验。 直播简介:1.SparkRTC全球一张网2.低时延技术架构与业务组合介绍→→点击报名
  • [行业资讯] Firefox将支持AV1硬件加速
    根据Bugzilla上的一则帖子,Mozilla准备在Firefox中正式加入AV1视频格式的硬件加速支持。AV1是 AOMedia在2018年发布的开源免专利费编解码器,其4K UHD视频压缩率高于竞争的编码器。Mozilla开发者计划在Firefox 100中实现AV1硬件解码支持,该版本计划在2022年5月3日发布。Google和微软是在2020年底在各自的浏览器Chrome和Edge中支持AV1硬件加速。Mozilla没有匆忙跟随,原因是AV1硬件加速支持需要相应硬件的普及。转载于CSDN公众号
  • [行业资讯] 为什么说视频技术可以开采千亿物联网市场,成功的秘密在哪里?
    来源:智库(iot101)物联网智库 原创转载请注明来源和出处导读“我不知道啥是物联网、云计算,但我知道我赚钱了”,正值双十一,在网上经营宠物用品的老张又笑的合不拢嘴了,“现在的‘铲屎官’对宠物用品的要求很高,像智能猫砂盆、自动喂食器、宠物饮水机等一些智能化的宠物产品特别好卖。”今年双十一首日,宠物智能化用品频频传来开门红战报,京东发布前十分钟战报显示,宠物智能用品成交额同比增长了1000%!天猫公布数据,如霍曼、有陪、小佩等数十余种品牌在开售1小时内就取得了销售额超去年双十一全阶段的成绩,部分品牌销售额同比增速甚至达到1000%以上。随着人们物质生活水平日益提升,科技赋能美好生活的愿景和需求也越发突出。事实上,宠物设施的升级换代仅仅是传统产业数字化转型的一处缩影。基于此,云服务商作为物联网产业信息技术发展和服务模式创新的集中体现,如何利用自身技术优势深度触及行业核心业务层转型就成为解决问题的关键。萤石开放平台作为制造商、品牌商的合作伙伴,提供完整的端云一体、软硬结合的智能化解决方案,帮助企业实现新品开发及新业务领域探索。智能化升级,不只是简单的加个摄像头宠物经济近年来在消费领域突然火了起来。日本当代作家村上春树曾说过:“我与幸福的距离,只差一只猫”。如今在大城市中奋斗的上班族,大多也都希望通过饲养猫、狗等宠物作为陪伴和消遣,来满足内心更高层次的精神追求。宠物的功能正从原来“看家护院”转变为“心灵呵护”,“猫主子”、“狗主子”和“铲屎官”这类名称的兴起正是这种关系变化的体现。伴随着这些变化,宠物主人对待宠物的方式也发生了全新的变化,大多数宠物如今都被视为“亲人”一般,宠物主人不仅要把宠物“养活”,还要“养好”。但是,对于每天朝九晚六的上班族而言,想拥有自己的“主子”谈何容易?“担忧多,陪伴少”成了上班族喂养宠物时的真实写照,假如碰上出差或旅游不在家,宠物饿肚子怎么办?忙里偷闲想念自家“主子”怎么办?害怕狗子拆家,想要随时监控怎么办?担心宠物健康状态,时时牵挂怎么办?想要给同事、朋友分享自家主子日常,又该怎么办……因而这让打着视频通话、自动喂食、自动喂水、宠物检测等功能的宠物智能用品成了解决操碎了心的铲屎官们心中忧虑的关键。然而,宠物用品可视化、智能化绝非简单增加一个拍照或者录制功能,真正贴合用户需求的升级需要依托AI视觉技术,来使能智能宠物用品有价值的高科技加成。消费者对宠物智能用品要求的提升,使得产品制造商纷纷从试水转变为投入精力打造门面产品、爆款产品来迎合宠物用品消费升级的趋势。不过,产品制造商快速实现产品升级的道路并非一蹴而就的,一个关键的问题摆在面前,即大部分仍旧专注在产品本身的设计和制造,对于新型IT产业的积累并不够,比如AI能力、无线通信、视觉算法、控制器件、云平台以及全端安全等相关环节,尤其在针对市场智能化、可视化需求提升的同时所面临着视频技术链路长、技术复杂、投入大等难点,需要引入核心的供应链环节促成其业务上的创新。针对于此,萤石在去年基于全球化物联服务平台萤石云,面向第三方产品接入推出了萤石IoT开放平台(以下简称“EZIoT”),通过多年在连接、数据运营以及AI算法方面的沉淀,面向全行业开放涵盖视觉、听觉等传感的多模态感知能力。尤其视觉算法方面,萤石将核心的视频能力开放出来,使硬件企业能够基于萤石的视频SDK和视频模组软硬件能力进行应用层的业务开发。如针对宠物用品行业面临的智能化趋势,萤石提供了视频模组、联网模组、APP控制端、物联云平台等一系列智能化组件。在端侧,萤石可面向各种类成品硬件产品提供定制化视频模组方案,支持本地AI算法,致力实现“视觉+硬件”的完美匹配;在云侧,基于EZIoT可将视频能力、安全能力和AI能力等诸多核心技术分享给行业客户,从而塑造更前沿的智能养宠方式。除此之外EZIoT具有一站式、多组件、低成本、全球化、高安全、快服务部署等六大优势,其不仅为第三方产品注入了智慧实现了全新应用价值,同时还进一步加速了万物智联的到来。正如开篇所说,宠物用品智能化仅仅是社会消费升级和需求升级的一处缩影,类似的场景需求正在儿童、照明、家电等领域源源不断的爆发。比如针对儿童学习场景的学习桌,近年来也出现可视化和智能化的需求,家长们不再满足孩子们学习时使用的桌椅是否符合人体工学,学习环境是否舒适,更多的需求开始侧重于如何能不在孩子身边时纠正他们的坐姿;如何记录孩子的学习时长,了解其学习过程中的点点滴滴;如何更多陪伴孩子学习成长……业务探索进入深水区,数据愈显重要万物智联激活了智能硬件经济,但这还只是物联网赋能传统产业业务升级的第一步。物联网产业早已形成了一个共识,即物联网时代的原油是数据,随着企业进一步发展,企业竞争也将从渠道、价格上升到数字化层面。而这背后,需要的正是基于数据对业务模型进行价值分析,进而探索平台型商业模式。比如照明电工行业在目前的发展阶段,通常为了快速响应业务,企业基于短期投入、IT运维等能力,都会优先选择落地公有云方案。而当企业面对进一步的发展需求,以及更具竞争力的智能化产品被寄予厚望时,企业就越发期望平台及数据的私有化,进行数据分析和商业模式的创新,以及降低规模设备接入运营成本,实现企业更高的经营目标。另外,像畜牧行业也面临类似的现代化经营难题,当前企业都在尝试或落地数字化,实现智能化养殖、运输、屠宰、销售等,但转型过程中碰到的主要问题在于物联网、AI、大数据等技术与业务的融合。养殖场需要部署大量,包括智能IPC、环控设备、饲喂器、传感器等。这些设备产生的海量数据都分布在不同的分公司或养殖场中,导致了集团内部信息孤岛、系统整合难度大、业务复用度低等诸多困难,而难以使信息汇聚到集团内部做统一的业务分析、业务建模和业务决策。萤石云打造全栈开放的云服务平台,推出了基于云原生技术的PaaS平台-萤石物联云,以视频流媒体应用为核心,可部署在企业自身的基础设施或私有、公有、混合云等多云环境之上,为企业客户提供设备接入、AI、数据分析、消息传输等PaaS服务能力。不止在畜牧行业,萤石还在电工照明、畜牧养殖、地产建筑、零售连锁等行业拓展,帮助企业搭建了私有化数据中台,满足企业全球化海量视频及非视频设备接入,大幅降低设备接入带宽成本,并实现统一管控数据内容,通过平台不仅支撑其业务系统应用,同时通过数据分析驱动决策,使企业管理效率、运营效率及盈利能力得到了有效提升。小结万物智联时代,设备上云、业务上云、企业上云,是物联网发展过程中的必由之路,也是企业数字化转型,提升创新能力、业务实力和发展水平的重要一步。萤石作为全球化的云服务商,正通过海量的物联网设备接入能力和并发能力,实现设备与用户、设备与设备之间的互联互通,高效实现设备的互联网化,这为传统产业的转型升级铺设出了一条广阔的通往新时代的路。
  • [技术干货] 【技术长文】为什么说视频技术可以开采千亿物联网市场,成功的秘密在哪里?
    转自于:https://iot.ofweek.com/2021-11/ART-132216-8500-30536992.html导读“我不知道啥是物联网、云计算,但我知道我赚钱了”,正值双十一,在网上经营宠物用品的老张又笑的合不拢嘴了,“现在的‘铲屎官’对宠物用品的要求很高,像智能猫砂盆、自动喂食器、宠物饮水机等一些智能化的宠物产品特别好卖。”今年双十一首日,宠物智能化用品频频传来开门红战报,京东发布前十分钟战报显示,宠物智能用品成交额同比增长了1000%!天猫公布数据,如霍曼、有陪、小佩等数十余种品牌在开售1小时内就取得了销售额超去年双十一全阶段的成绩,部分品牌销售额同比增速甚至达到1000%以上。随着人们物质生活水平日益提升,科技赋能美好生活的愿景和需求也越发突出。事实上,宠物设施的升级换代仅仅是传统产业数字化转型的一处缩影。基于此,云服务商作为物联网产业信息技术发展和服务模式创新的集中体现,如何利用自身技术优势深度触及行业核心业务层转型就成为解决问题的关键。萤石IoT开放平台作为制造商、品牌商的合作伙伴,提供完整的端云一体、软硬结合的智能化解决方案,帮助企业实现新品开发及新业务领域探索。智能化升级,不只是简单的加个摄像头宠物经济近年来在消费领域突然火了起来。日本当代作家村上春树曾说过:“我与幸福的距离,只差一只猫”。如今在大城市中奋斗的上班族,大多也都希望通过饲养猫、狗等宠物作为陪伴和消遣,来满足内心更高层次的精神追求。宠物的功能正从原来“看家护院”转变为“心灵呵护”,“猫主子”、“狗主子”和“铲屎官”这类名称的兴起正是这种关系变化的体现。伴随着这些变化,宠物主人对待宠物的方式也发生了全新的变化,大多数宠物如今都被视为“亲人”一般,宠物主人不仅要把宠物“养活”,还要“养好”。但是,对于每天朝九晚六的上班族而言,想拥有自己的“主子”谈何容易?“担忧多,陪伴少”成了上班族喂养宠物时的真实写照,假如碰上出差或旅游不在家,宠物饿肚子怎么办?忙里偷闲想念自家“主子”怎么办?害怕狗子拆家,想要随时监控怎么办?担心宠物健康状态,时时牵挂怎么办?想要给同事、朋友分享自家主子日常,又该怎么办……因而这让打着视频通话、自动喂食、自动喂水、宠物检测等功能的宠物智能用品成了解决操碎了心的铲屎官们心中忧虑的关键。然而,宠物用品可视化、智能化绝非简单增加一个拍照或者录制功能,真正贴合用户需求的升级需要依托AI视觉技术,来使能智能宠物用品有价值的高科技加成。消费者对宠物智能用品要求的提升,使得产品制造商纷纷从试水转变为投入精力打造门面产品、爆款产品来迎合宠物用品消费升级的趋势。不过,产品制造商快速实现产品升级的道路并非一蹴而就的,一个关键的问题摆在面前,即大部分仍旧专注在产品本身的设计和制造,对于新型IT产业的积累并不够,比如AI能力、无线通信、视觉算法、控制器件、云平台以及全端安全等相关环节,尤其在针对市场智能化、可视化需求提升的同时所面临着视频技术链路长、技术复杂、投入大等难点,需要引入核心的供应链环节促成其业务上的创新。针对于此,萤石在去年基于全球化物联服务平台萤石云,面向第三方产品接入推出了萤石IoT开放平台(以下简称“EZIoT”),通过多年在连接、数据运营以及AI算法方面的沉淀,面向全行业开放涵盖视觉、听觉等传感的多模态感知能力。尤其视觉算法方面,萤石将核心的视频能力开放出来,使硬件企业能够基于萤石的视频SDK和视频模组软硬件能力进行应用层的业务开发。如针对宠物用品行业面临的智能化趋势,萤石提供了视频模组、联网模组、APP控制端、物联云平台等一系列智能化组件。在端侧,萤石可面向各种类成品硬件产品提供定制化视频模组方案,支持本地AI算法,致力实现“视觉+硬件”的完美匹配;在云侧,基于EZIoT可将视频能力、安全能力和AI能力等诸多核心技术分享给行业客户,从而塑造更前沿的智能养宠方式。除此之外EZIoT具有一站式、多组件、低成本、全球化、高安全、快服务部署等六大优势,其不仅为第三方产品注入了智慧实现了全新应用价值,同时还进一步加速了万物智联的到来。正如开篇所说,宠物用品智能化仅仅是社会消费升级和需求升级的一处缩影,类似的场景需求正在儿童、照明、家电等领域源源不断的爆发。比如针对儿童学习场景的学习桌,近年来也出现可视化和智能化的需求,家长们不再满足孩子们学习时使用的桌椅是否符合人体工学,学习环境是否舒适,更多的需求开始侧重于如何能不在孩子身边时纠正他们的坐姿;如何记录孩子的学习时长,了解其学习过程中的点点滴滴;如何更多陪伴孩子学习成长……业务探索进入深水区,数据愈显重要万物智联激活了智能硬件经济,但这还只是物联网赋能传统产业业务升级的第一步。物联网产业早已形成了一个共识,即物联网时代的原油是数据,随着企业进一步发展,企业竞争也将从渠道、价格上升到数字化层面。而这背后,需要的正是基于数据对业务模型进行价值分析,进而探索平台型商业模式。比如照明电工行业在目前的发展阶段,通常为了快速响应业务,企业基于短期投入、IT运维等能力,都会优先选择落地公有云方案。而当企业面对进一步的发展需求,以及更具竞争力的智能化产品被寄予厚望时,企业就越发期望平台及数据的私有化,进行数据分析和商业模式的创新,以及降低规模设备接入运营成本,实现企业更高的经营目标。另外,像畜牧行业也面临类似的现代化经营难题,当前企业都在尝试或落地数字化,实现智能化养殖、运输、屠宰、销售等,但转型过程中碰到的主要问题在于物联网、AI、大数据等技术与业务的融合。养殖场需要部署大量物联网设备,包括智能IPC、环控设备、饲喂器、传感器等。这些设备产生的海量数据都分布在不同的分公司或养殖场中,导致了集团内部信息孤岛、系统整合难度大、业务复用度低等诸多困难,而难以使信息汇聚到集团内部做统一的业务分析、业务建模和业务决策。萤石云打造全栈开放的云服务平台,推出了基于云原生技术的PaaS平台-萤石物联云,以视频流媒体应用为核心,可部署在企业自身的基础设施或私有、公有、混合云等多云环境之上,为企业客户提供设备接入、AI、数据分析、消息传输等PaaS服务能力。不止在畜牧行业,萤石还在电工照明、畜牧养殖、地产建筑、零售连锁等行业拓展,帮助企业搭建了私有化数据中台,满足企业全球化海量视频及非视频设备接入,大幅降低设备接入带宽成本,并实现统一管控数据内容,通过平台不仅支撑其业务系统应用,同时通过数据分析驱动决策,使企业管理效率、运营效率及盈利能力得到了有效提升。小结万物智联时代,设备上云、业务上云、企业上云,是物联网发展过程中的必由之路,也是企业数字化转型,提升创新能力、业务实力和发展水平的重要一步。萤石作为全球化的云服务商,正通过海量的物联网设备接入能力和并发能力,实现设备与用户、设备与设备之间的互联互通,高效实现设备的互联网化,这为传统产业的转型升级铺设出了一条广阔的通往新时代的路。
  • [其他] 深度上下文视频压缩
    现有的神经视频压缩方法大多采用预测编码框架,该框架首先生成预测帧,然后将其残差与当前帧进行编码。然而,在压缩比方面,预测编码只是一种次优方案,因为它使用简单的减法操作来去除帧间的冗余。在本文中,我们提出了一个深度上下文视频压缩框架,以实现从预测编码到条件编码的范式转换。特别是,我们试图回答以下问题:如何定义、使用和学习条件下的深度视频压缩框架。为了挖掘条件编码的潜力,我们提出使用特征域上下文作为条件。这使我们能够利用高维上下文为编码器和解码器携带丰富的信息,这有助于重建高频内容以获得更高的视频质量。我们的框架也是可扩展的,条件可以灵活设计。实验表明,我们的方法可以显著优于以往的先进的(SOTA)深度视频压缩方法。与x265使用非常慢的预设相比,1080P标准测试视频可以节省26.0%的比特率。 https://www.zhuanzhi.ai/paper/dc8a3c4de86f67bd7da9cc282e6c53bb
  • [热门活动] 硬件配置不够?字幕太多?AI助力,视频剪辑或许没有你想的那么复杂
    短视频时代,内容的质量与效率,仍需要建立在视频数量的基础上,以简短、高质量的短视频打开用户需求,创造流量并吸引留存用户,才有机会在激烈的市场竞争中赢得一席之地。而视频剪辑技术的高效智能,能够帮助用户在更快的时间内打造更多的作品,便于用户在更短的时间内,获取更多的内容信息,迅速形成传播链。华为云云市场联合伙伴推出智影-人工智能在线视频制作平台,致力于为专业的媒体机构及视频创作者打造人工智能短视频中央厨房。作为一款高效的在线智能云剪辑平台,智影-人工智能在线视频制作平台,在云端完成剪辑、审核、分发全链条操作,帮助客户快速高效整合分散的信源,高效完成采编审发全流程。智影-人工智能在线视频制作平台产品特点:精细化视频剪辑(精确到1帧),保证视频剪辑效果自研视频编解码算法自研流媒体播放器实时动态特效渲染通过智影7大功能,提升视频制作效率与质量:1.在线智能云剪辑-视频剪辑可以更轻量对硬件要求低,可以利用云端AI能力帮助剪辑;云端剪辑,任何时间任何地点,拥有一台电脑就能继续你的剪辑工作。剪辑功能包括:视频处理:逐帧剪辑、快慢倍速拉伸、剪切与合成、画面裁切音频处理:音量调节、整体与区间静音、提取音频、多轨音频混音图片处理:全程与指定区间叠加、位置与大小调节、图片旋转、支持动图、马赛克效果叠加文字处理:全程与指定区间叠加、位置调节、文字与特效、动画组合素材处理:支持手机上传素材、上传素材库管理、项目与成片管理其他功能:支持多轨制作、多种转场转场效果(以上为标准版功能)2.语音转字幕-告别人工加字幕的累活语音自动识别,翻译成文字,告别人工输入字幕,减轻工作量。AI打点,一键助力位置校准。3.模块化包装-小白也能做出花式动态字幕压花字幕模板,1分钟添加动态文字效果。字幕模板可定制开发。4.手机微信上传素材你的贴身视频云盘:支持手机端上传素材,无需下载app,在微信公众号内即可上传素材,随时随地上传素材至云端,仿佛拥有贴身视频素材小管家。5.团队协作-云端一站式流水工作组建你的在线视频剪辑团队,和团队共享素材和文件,在线完成剪辑、审核、分发一站式工作,顺畅如流水。6.一键全网分发-收割全网曝光值依托全网合作的媒体渠道,实现全网一键分发,流量端口一网打尽,让你的作品能被全世界看见。文中提到的商品链接:智影-人工智能在线制作平台【华为云云市场,助您上云无忧】