-
请问,华为的OCR,支持用户自定义模板吗?
-
1.开通服务使用OCR文字识别服务“增值税发票识别”、“发票验真”接口之前,必须先申请并开通服务。① 登录后跳转至控制台页面,点击左上角服务列表按钮,下拉找到【人工智能】,在【人工智能】栏下找到【文字识别OCR】,点击进入文字识别OCR服务控制台,如下图: ② 区域默认显示“华北-北京四”,实验中无需修改。(注:实际生产使用时,请根据各服务的部署区域选择对应区域,开通与调用的服务必须在同一个区域。) ③ 在“总览”页,根据【开通状态】查看“增值税发票识别”和“发票验真”服务是否已开通,若未开通,则需点击【开通服务】按钮,如下图: 2.获取AK、SK① 华为云控制台页面右上角账号处点击【我的凭证】 ② 依次点击【访问密钥】、【新增访问密钥】 ③ 完成后会生成credentials.csv文件,点击“立即下载”。3.ECS环境准备收起3.1 新建安全组① 服务列表搜索“ecs”,找到并进入ECS控制台: ② 找到最下方“安全组”标签页 ③ 点击左上角“创建安全组” ④ 名称自定义,模板选择“通用web服务器”,点击“确定”: ⑤ 点击“配置规则”: ⑥ 点击“添加规则”: ⑦ 添加入方向端口8501-8503,点击“确定”完成安全组设置。 8501端口为本次实验开发的web应用所在的端口,要想正常访问该web应用,需开放该端口。3.2 购买ECS① 回到ECS控制台“弹性云服务器”标签页,点击“购买弹性云服务器” ② 计费模式选择“按需计费”,区域选择“华北-北京四”,可用区选“随机分配”: ③ CPU架构选择“x86计算”,规格选择“通用计算增强型”“2vCPUS-8GB内存”: ④ 镜像选择“公共镜像”、“Ubuntu”、“Ubuntu 20.04 server 64bit”,主机安全保持默认配置: ⑤ 系统盘保持默认的“40GB”,点击“下一步:网络配置” ⑥ 网络选择默认的“vpc-default”,如果之前没有创建,可点击下图所示的“前往控制台创建”,创建完成后,刷新后即可看到: ⑦ 安全组选择上一小节创建的自定义安全组: ⑧ 弹性公网IP选择“全动态BGP”,带宽选择“按流量计费”,带宽大小选择“5”,完成后点击“下一步:高级配置”: ⑨ 自定义云服务器名称和root用户密码 ⑩ 其他保持默认,点击“下一步:确认配置”: ⑪ 勾选协议,点击“立即购买”: 提交成功后,如下所示:3.3 环境配置① 回到ECS控制台,找到刚创建的ECS服务器,点击“远程登录” ② 点击“CloudShell”登录 ③ 使用root用户登录,输入密码a3hZJfup%kIrhKT$后,点击“连接”: 连接成功后,进入cloudshell命令行界面: ④ 安装软件环境命令行终端输入如下命令,按回车,输入y,再按回车,即可安装相应软件:sudo apt install python3-testresources命令执行情况如下所示: 命令行终端输入并执行如下命令,安装相应python库pip install -i https://pypi.tuna.tsinghua.edu.cn/simple jinja2==3.1.0 protobuf==3.19.4 streamlit==1.7.0 huaweicloudsdkcore==3.0.80 huaweicloudsdkocr==3.0.80命令执行情况如下所示: 此处共安装了五个库:jinja2、protobuf、streamlit、huaweicloudsdkcore和huaweicloudsdkocr,其中streamlit 为Python的一个简易的web组件库,帮助我们搭建UI界面,jinja2、protobuf是运行streamlit所依赖的库,huaweicloudsdkcore和huaweicloudsdkocr是OCR服务相应的Python SDK。4.增值税验真web应用开发收起4.1 工程代码准备① 下载项目代码命令行终端输入如下命令,下载项目代码:wget https://sandbox-expriment-files.obs.cn-north-1.myhuaweicloud.com/20220408/ocr_project.zip② 解压项目代码unzip ocr_project.zip③ 执行ls命令确认文件是否解压成功 4.2 项目代码解读① 生成OCR请求客户端,需要AK, SK鉴权: ② 增值税识别函数,调用增值税识别API接口: ③ 发票验真函数,调用发票验真API接口: ④ main函数,定义了UI界面以及程序执行过程: 4.3 项目运行测试① 打开凭证下载目录,查看AK/SK信息。执行下面命令,查看此前下载的凭证文件。cd /home/user/Downloads/;ls执行cat credentials.csv |grep ,查看AK/SK的值cat credentials.csv |grep ,② 切换到浏览器,进入cloudshell标签页,点击左侧文件浏览器,定位至root/ocr_project/main.py文件,双击main.py,修改代码,复制修改填入上步骤中的AK/SK信息 复制AK值 修改main.py的AK值 复制SK值 修改main.py的SK值 备注:修改完后,记得保存(快捷键ctrl+s)。③ 启动运行应用:在cloudshell终端输入以下命令,执行main.py,启动应用APP:cd ocr_projectstreamlit run main.py 2>run.log将外部URL地址复制到浏览器,查看页面效果: ④ 下载测试图片: 测试图片链接如下: cid:link_0 将其复制到浏览器,下载至本地 ⑤ 增值税发票验真测试 回到web应用界面,点击“Browse files”: 选择刚下载的测试图片: web页面显示发票图像,继续点击“发票验真”按钮: 显示验真结果: 至此,增值税发票验真H5应用开发完毕,您也可在手机端打开浏览器,输入上面的外部URL地址进行访问。由于该H5应用只部署在单台ECS上,所以能够支持的访问量较小,多人访问会使该页面卡顿。 如您想拥有一个支持大流量访问的H5应用,可以使用华为云云容器实例(Cloud Container Instance,CCI)服务进行应用部署,CCI能提供容器秒级弹性伸缩能力,让您能够轻松应对快速变化的业务访问流量,稳健保障业务高可靠性。
-
大佬们,具体用什么型号的开发板啊
-
Mind SDK -- 财务票据OCR识别参考设计案例1 案例概述1.1 概要描述在本系统中,目的是基于MindX SDK,在昇腾平台上,开发端到端财务票据OCR识别的参考设计,实现对财务票据中的文本信息进行OCR识别的功能,达到功能要求1.2 特性及适用场景本项目适用于票据图片完整清晰,倾斜角度较小的场景,并且建议图片分辨率不超过1280*1280,大小不超过1M。注:由于模型的限制,本项目暂只支持增值税发票、出租车发票和定额发票的识别1.3 模型介绍本项目涉及三种模型,分别是:用于分类的ResNet50模型(Mindspore)、用于文本检测的DBNet模型和用于文本识别的CRNN模型。相关模型文件在此处下载:resnet50、db、crnn1.4 实现流程1、基础环境:Ascend 310、mxVision、Ascend-CANN-toolkit、Ascend Driver 2、模型获取与训练:resnet50、db、crnn的训练 2、模型转换: mindspore模型转昇腾离线模型:resnet50.air --> resnet50.om PyTorch模型转昇腾离线模型:db.onnx --> db.om、crnn.onnx --> crnn.om 3、业务流程编排与配置 4、mxpi_textobjectpostprocessor插件的后处理库开发 5、python推理流程代码开发技术流程图如下所示:1.5 代码地址本项目的代码地址为:cid:link_122 软件方案介绍2.1 技术原理ResNet是ImageNet竞赛中分类问题效果比较好的网络,它引入了残差学习的概念,通过增加直连通道来保护信息的完整性,解决信息丢失、梯度消失、梯度爆炸等问题,让很深的网络也得以训练。参考论文DB(Differentiable Binarization)一种使用可微分二值图来实时文字检测的方法,和之前方法的不同主要是不再使用硬阈值去得到二值图,而是用软阈值得到一个近似二值图,并且这个软阈值采用sigmod函数,使阈值图和近似二值图都变得可学习。参考论文CRNN全称为Convolutional Recurrent Neural Network,是一种卷积循环神经网络结构,用于解决基于图像的序列识别问题,特别是场景文字识别问题。主要用于端到端地对不定长的文本序列进行识别,不用先对单个文字进行切割,而是将文本识别转化为时序依赖的序列学习问题,也就是基于图像的序列识别。参考论文2.2 项目方案架构介绍本系统设计了不同的功能模块。主要流程为:图片传入流中,通过分流插件分别送给分类模块和检测模块,其中分类模块将图像大小调整到224*224,然后利用resnet50分类模型对图片进行分类,将分类结果发送给串流插件;另一边检测模块接收图像传给dbnet模型进行文本检测,输出检测文本框坐标,然后通过坐标对原图像进行抠图,送入识别模块,crnn模型进行文本识别,将识别结果发送给串流插件,最后将结果组装成json输出。表2.2 系统方案中各模块功能:序号子系统功能描述1图像输入调用MindX SDK的appsrc输入图片2分流调用MindX SDK的mxpi_tee,分流给不同模块3图片分类利用resnet50的分类模型,配合后处理插件,得到分类结果4文本检测利用db的检测模型,配合后处理插件,输出检测结果5仿射变换调用MindX SDK的mxpi_warpperspective,根据检测结果进行仿射变换,得到文本框图片6文本识别利用crnn的识别模型,对文本框图片进行识别,配合后处理插件,输出识别结果7串流调用MindX SDK的mxpi_synchronize,将不同分支串流8结构化输出调用MindX SDK的mxpi_dataserialize,将分类、检测和识别结果组成json输出3 开发环境准备3.1 环境依赖说明环境依赖软件和版本如下表:软件名称版本Ubuntu18.04.1 LTSMindX SDK2.0.4Python3.9.2CANN5.0.4numpy1.22.3opencv-python4.5.5PIL8.4.03.2 环境搭建3.2.1 环境变量设置在编译运行项目前,需要设置环境变量:# Mind SDK环境变量: .${SDK-path}/set_env.sh # CANN环境变量: .${ascend-toolkit-path}/set_env.sh # 环境变量介绍 SDK-path:SDK mxVision安装路径 ascend-toolkit-path:CANN安装路径3.3 模型获取、训练与转换3.1 模型获取及训练3.1.1 resnet50训练代码参考链接3.1.2 db参考paddleocr文本检测训练3.1.3 crnn参考paddleocr文本识别训练3.2 模型转换此处提供训练后的中间模型供模型转换使用:resnet50、db、crnn在./models/resnet50目录下执行如下命令atc --model=./resnet.air --framework=1 --output=resnet50 --input_format=NCHW --input_shape="x:1,3,224,224" --enable_small_channel=1 --soc_version=Ascend310 --insert_op_conf="aipp.config"在./models/db目录下执行如下命令atc --model=./db.onnx --framework=5 --output_type=FP32 --output=db --input_format=NCHW --input_shape="x:1,3,-1,-1" --dynamic_image_size="1216,1280;1280,1216;1120,1280;1280,1120;1024,1280;1280,1024;928,1280;1280,928;832,1280;1280,832;736,1280;1280,736;704,1280;1280,704;672,1280;1280,672;640,1280;1280,640;608,1280;1280,608;576,1280;1280,576;544,1280;1280,544;512,1280;1280,512;480,1280;1280,480;448,1280;1280,448" --soc_version=Ascend310 --insert_op_conf=./det_aipp.cfg在./models/crnn目录下执行如下命令atc --model=./crnn.onnx --framework=5 --output_type=FP32 --output=crnn --input_format=NCHW --input_shape="x:1,3,48,320" --soc_version=Ascend310 --insert_op_conf="rec_aipp.cfg"执行完模型转换脚本后,会生成相应的.om模型文件。更多ATC工具细节请参考链接。4 推理流程开发实现4.1 pipeline编排appsrc # 输入 mxpi_imagedecoder # 图像解码 mxpi_tee # 分流 分流1: mxpi_imageresize # 图像缩放 mxpi_tensorinfer # 模型推理(图片分类) mxpi_classpostprocessor # 模型后处理(resnet50) 分流2: mxpi_imageresize # 图像缩放 mxpi_tensorinfer # 模型推理(文本检测) mxpi_textobjectpostprocessor # 模型后处理(db) mxpi_warpperspective # 仿射变换 mxpi_tensorinfer # 模型推理(文本识别) 串流: mxpi_textgenerationpostprocessor# 模型后处理(crnn) mxpi_synchronize # 串流 mxpi_dataserialize # 结构化输出 appsink # 输出4.2 db文本检测后处理库开发参考链接4.3 主程序开发1、初始化流管理。2、加载图像,进行推理。3、获取pipeline各插件输出结果,解析输出结果。4、根据识别结果在图上标出文本框信息和文本内容,根据分类结果创建文件名5、销毁流5 编译与运行步骤1 编译后处理插件DBPostProcess参考链接编译后处理插件,修改部分文件代码,具体如下:# 数字为行号,文件位于src/DBPostProcess/CMakeLists.txt 1 cmake_minimum_required(VERSION 3.5.2) 3 add_definitions(-D_GLIBCXX_USE_CXX11_ABI=0 -Dgoogle=mindxsdk_private) # 数字为行号,文件位于src/DBPostProcess/DBPostProcess.h 72 bool IsValidTensors(const std::vector<TensorBase> &tensors) const;并将编译好的libDBPostProcess.so和libclipper.so放在项目目录./lib下,添加如下环境变量(其中project_path为项目路径)export LD_LIBRARY_PATH={project_path}/lib/:$LD_LIBRARY_PATH进入./lib目录,将编译完的.so文件权限修改为640。步骤2 配置pipeline文件将pipeline中相关模型路径,配置文件路径及插件路径配置正确步骤3 将要识别的票据图片放到./inputs目录下,执行如下命令python3 main.py待执行完毕可在./outputs目录下查看结果结果展示:6 指标验证6.1 精度测试本精度测试在昇腾310芯片上执行测试数据可在此处下载,将下载的数据解压到eval_data目录下,在项目目录下执行python3 eval.py可得精度结果如下所示,其中acc为db+crnn端到端精度,type_acc为resnet50精度精度结果如下表所示模型精度resnet500.99端到端OCR0.95346.2 性能测试npu性能测试采用ais-infer工具,ais-infer工具为华为自研的模型推理工具,支持多种模型的离线推理,能够迅速统计出模型在310P上的性能,支持真实数据和纯推理两种模式,配合后处理脚本,可以实现诸多模型的端到端过程,获取工具及使用方法可以参考推理工具ais-infer官方源码仓。将三个模型的om文件放到ais_infer.py同目录下,执行如下命令可得到三个模型的npu性能python3 ais_infer.py --model model/resnet50.om --batchsize 1 --loop 10python3 ais_infer.py --model model/db.om --batchsize 1 --loop 10 --dymHW 1216,1280python3 ais_infer.py --model model/crnn.om --batchsize 1 --loop 10gpu性能测试采用使用TensorRT,将三种模型的onnx文件放在装有对应gpu卡(T4)的服务器上,执行如下命令得到gpu性能trtexec --onnx=resnet50.onnx --fp16 --shapes=image:1x3x224x224trtexec --onnx=db.onnx --fp16 --shapes=x:1x3x1216x1280trtexec --onnx=crnn.onnx --fp16 --shapes=x:1x3x48x320可得性能如下表所示:模型gpu性能(T4)310性能(4卡)resnet50903.4893 fps1743.1472 fpsdb36.5123 fps45.4676 fpscrnn1159.875 fps1114.392 fps7 常见问题7.1 后处理插件路径问题问题描述:提示libclipper.so: cannot open shared object file: No such file or directory解决方案:这是由于没有将后处理插件的路径配置到环境变量中,添加如下环境变量,project_path为项目路径export LD_LIBRARY_PATH={project_path}/lib/:$LD_LIBRARY_PATH7.2 字体资源问题问题描述:提示cannot open resource解决方案:将字体文件路径正确配置到eval.py中add_text函数中,此处提供字体文件,下载后放置于项目目录下,如下fontstyle = ImageFont.truetype("SIMSUN.TTC", textSize, encoding="utf-8")
-
一、相关模块人工智能 -> EI-OCR -> 华为云EI-OCR服务插件(试用)-> 前置控件-华为云版UI自动化 -> 基于OCR的自动化 -> 基于在线OCR自动化 -> 在线OCR智能表单UI自动化 -> 基于OCR的自动化 -> 基于在线OCR自动化 -> 获取OCR文本二、问题列表获取Token时账密报错详情error(“code”: 401, “message”: “The username or password is wrong”, “title”:”Unauthorized”)解决方案参考视频:cid:link_1 见获取Token时账密报错 2. 连接错误详情ConnectionError(MaxRetryError(\"HTTPSConnectionPool(host='iam.cn-north-4.myhuaweicloud.com', port=443): Max retries exceeded with url: /v3/auth/tokens (Caused by NewConnectionError('<urllib3.connection.HTTPSConnection object at 0x0000021359A315E0>: Failed to establish a new connection: [WinError 10060] 由于连接方在一段时间后没有正确答复或连接的主机没有反应,连接尝试失败。'))解决方案前置控件-华为云版:在参数http代理和https代理中填入你本地引用的网络代理配置;如:http://{user}:{password}@proxy.huawei.com:8080,此处{user},{password}为你的代理账号密码。其他控件在全局变量中添加代理参数:ProxyParameter ,类型为:Object,示例值为:{ "proxy_user": "{user}", "proxy_pwd": "{password}", "proxy_host": "proxy.huawei.com", "proxy_port": 8080 }
-
数据集使用自己的构建的合成数据集,代码的改动仅有数据加载和字典,字典这部分采用中文-英文-符号,但是训练的时候loss一直为0config配置相关修改:训练log情况:数据加载中CaptchaDataset函数的修改:相关的主要修改如上。
-
数据集使用自己的构建的合成数据集,代码的改动仅有数据加载和字典,字典这部分采用中文-英文-符号,但是训练的时候loss一直为0config配置相关修改:训练log情况:数据加载中CaptchaDataset函数的修改:相关的主要修改如上。
-
算法能力描述调用方式接口详细说明通用表格识别提取表格内的文字和所在行列位置信息,适应不同格式的表格。同时也识别表格外部的文字区域。用于各种单据和报表的电子化,恢复结构化信息。POST详细通用文字识别提取图片内的文字及其对应位置信息,并能够根据文字在图片中的位置进行结构化整理工作。POST详细手写文字识别识别文档中的手写文字信息,并将识别的结构化结果返回给用户。POST详细网络图片识别自动识别网络图片内的所有文字及其对应位置信息,并能根据识别出来的结果进行联系人信息的提取,同时可供进一步的数据挖掘后处理操作。POST详细智能分类识别自动检测定位图片上指定要识别的票证,一次扫描即可识别票证的位置坐标、结构化识别的内容以及对应的类别。POST详细
-
政务一网通政务证照类算法模型是隶属于于文字识别(Optical Character Recognition,简称OCR)的一类算法,是指将图片、扫描件或PDF、OFD文档中的打印字符进行检测识别成可编辑的文本格式,以JSON格式返回识别结果。当前证照类算法模型列表如下:算法学习课程算法能力描述调用方式接口详细说明身份证识别识别身份证图片中的文字内容,并将识别的结果以JSON格式返回给用户。支持身份证翻拍检测功能,并可以判断是否是复印件、原件。POST详细行驶证识别识别行驶证图片中主页和副页的文字内容,并将识别的结果以JSON格式返回给用户。POST详细驾驶证识别识别驾驶证图片中主页与副页的文字内容,并将识别的结果以JSON格式返回给用户。POST详细护照识别识别护照首页图片中的文字信息,并以JSON格式返回识别的结构化结果。POST详细银行卡识别识别银行卡上的关键文字信息,并以JSON格式返回识别的结构化结果。POST详细营业执照识别识别营业执照首页图片中的文字信息,并以JSON格式返回识别的结构化结果。POST详细出租车发票识别出租车发票中的文字信息,并以JSON格式返回识别的结构化结果。POST详细增值税发票识别识别增值税发票的类别,并以JSON格式返回识别的结构化结果,支持识别图片、PDF、OFD文件。POST详细火车票识别识别火车票中的文字信息,并以JSON格式返回识别的结构化结果。POST详细飞机行程单识别识别飞机行程单中的文字信息,并以JSON格式返回识别的结构化结果。POST详细
-
Paddle 算法模型如何转换到Atlas200 AI部署基于Paddle Paddle 框架自研的OCR算法模型如何运行到Atlas200 AI边缘盒子
-
https://paddle-lite.readthedocs.io/zh/develop/demo_guides/huawei_ascend_npu.html#id7paddle lite官方指南仅有镜像安装版,没有边缘盒子安装方案。
-
首先,整体上实验进行的还算比较顺利。只是在运行的时候会碰到一个小问题。root@ecs-ocr-app:~/ocr_project# cat run.log Traceback (most recent call last): File "/usr/local/bin/streamlit", line 5, in from streamlit.web.cli import main File "/usr/local/lib/python3.8/dist-packages/streamlit/__init__.py", line 70, in from streamlit.delta_generator import DeltaGenerator as _DeltaGenerator File "/usr/local/lib/python3.8/dist-packages/streamlit/delta_generator.py", line 90, in from streamlit.elements.arrow import ArrowMixin File "/usr/local/lib/python3.8/dist-packages/streamlit/elements/arrow.py", line 21, in from pandas.io.formats.style import Styler File "/usr/local/lib/python3.8/dist-packages/pandas/io/formats/style.py", line 56, in jinja2 = import_optional_dependency("jinja2", extra="DataFrame.style requires jinja2.") File "/usr/local/lib/python3.8/dist-packages/pandas/compat/_optional.py", line 171, in import_optional_dependency raise ImportError(msg) ImportError: Pandas requires version '3.0.0' or newer of 'jinja2' (version '2.11.3' currently installed). root@ecs-ocr-app:~/ocr_project# pip install jinja2@3.0.0 ERROR: Invalid requirement: 'jinja2@3.0.0'通过安装正确版本就可以解决:pip install jinja2==3.0.0效果是这样的:实验时间一般来说是足够的。如果不够可能需要延时,但是延时的话就需要购买实验点的。pip install -i https://pypi.tuna.tsinghua.edu.cn/simple streamlit huaweicloudsdkcore huaweicloudsdkocrwget https://sandbox-expriment-files.obs.cn-north-1.myhuaweicloud.com/20220408/ocr_project.zipstreamlit run main.py 2>run.log项目的安装部署还是比较简单的,主要的命令就是以上的几个。
-
前面也尝试了一下,使用函数流的方式来做文字识别的服务部署。方便是非常的方便,但是感觉处理的时间有点长。所以这里我们来直接使用APIG调试一下看看服务的速度到底怎么样?有点尴尬,region可以选择,但是当发起调试之后却告诉你该region服务没有部署。切换到北京4,根本都不行,我怀疑就是APIG的问题不管是用authToken还是用AK/SK,都是报图中一样的错》。。。
-
准备服务器,配置应用服务软件来部署吗?不。太麻烦了。可以使用函数部署:FunctionGraph 是一项基于事件驱动的函数托管计算服务。使用函数,只需编写业务函数代码并设置运行的条件,无需配置和管理服务器等基础设施,函数以弹性、免运维、高可靠的方式运行。在devstar里,点点鼠标就部署成功了:(当然,代码模板都有了)然后再浏览器里访问那个“访问地址”,就可以上传发票图片进行识别了。不过我试了一下,只支持单张发票的识别,并不支持多张发票混合在一起的识别。确实比较慢:平均6秒
-
感觉新版的还有一点不适应 默认显示是的文档接口说明 点击去调试,才进入调试页面有增值税发票识别、发票验真(增值税发票)需要组合起来当然了也有定额发票识别但是好像没有对应的发票验真
上滑加载中
推荐直播
-
全面解析华为云EI-API服务:理论基础与实践应用指南
2024/11/29 周五 18:20-20:20
Alex 华为云学堂技术讲师
本期直播给大家带来的是理论与实践结合的华为云EI-API的服务介绍。从“主要功能,应用场景,实践案例,调用流程”四个维度来深入解析“语音交互API,文字识别API,自然语言处理API,图像识别API及图像搜索API”五大场景下API服务,同时结合实验,来加深开发者对API服务理解。
回顾中 -
企业员工、应届毕业生、在读研究生共探项目实践
2024/12/02 周一 19:00-21:00
姚圣伟 在职软件工程师 昇腾社区优秀开发者 华为云云享专家 HCDG天津地区发起人
大神带你一键了解和掌握LeakyReLU自定义算子在ONNX网络中应用和优化技巧,在线分享如何入门,以及在工作中如何结合实际项目进行学习
即将直播 -
昇腾云服务ModelArts深度解析:理论基础与实践应用指南
2024/12/03 周二 14:30-16:30
Alex 华为云学堂技术讲师
如何快速创建和部署模型,管理全周期AI工作流呢?本期直播聚焦华为昇腾云服务ModelArts一站式AI开发平台功能介绍,同时结合基于ModelArts 的实践性实验,帮助开发者从理论到实验更好地理解和使用ModelArts。
去报名
热门标签