- 问题描述: 使用ModelArts的AI市场的yolo3_resnet18(Ascend 910训练版本)训练作业,训练完成,显示运行成功,并可以部署在Ascend 310上执行推理,但是日志会在最后部分多次显示 FileNotFoundError: [Errno 2] No such file or directory 如图: [图片] 我觉得这个ERROR应该是不对的,因为训练完成了,而且可以部署到设备上,这样可能让看日志了解训练情况的同学误解。 建议方案: 优化日志显示,建议将这些无关报错删除,日志更多呈现有用的内容。 问题描述: 使用ModelArts的AI市场的yolo3_resnet18(Ascend 910训练版本)训练作业,训练完成,显示运行成功,并可以部署在Ascend 310上执行推理,但是日志会在最后部分多次显示 FileNotFoundError: [Errno 2] No such file or directory 如图: [图片] 我觉得这个ERROR应该是不对的,因为训练完成了,而且可以部署到设备上,这样可能让看日志了解训练情况的同学误解。 建议方案: 优化日志显示,建议将这些无关报错删除,日志更多呈现有用的内容。
- 问题描述: 1. ModelArts降低了AI模型开发难度,成功实现无代码开发AI模型,使得AI模型开发得到普及。 2.本人相对于同行业几家大平台比较,发现ModelArts在线部署API接口调用文档阅读门槛高,不适于基础薄弱的开发人员阅读。 建议方案: 1.可以增加文档内容,增加实例代码(下文附有图片)。降低阅读与使用门槛。亦符合ModelArts对于开发人员全覆盖的理念。 [图片] [图片] [图片] 问题描述: 1. ModelArts降低了AI模型开发难度,成功实现无代码开发AI模型,使得AI模型开发得到普及。 2.本人相对于同行业几家大平台比较,发现ModelArts在线部署API接口调用文档阅读门槛高,不适于基础薄弱的开发人员阅读。 建议方案: 1.可以增加文档内容,增加实例代码(下文附有图片)。降低阅读与使用门槛。亦符合ModelArts对于开发人员全覆盖的理念。 [图片] [图片] [图片]
- 问题描述: 我生成mindrecord文件,按这样shema: data_schema = { "target_sos_ids": {"type": "int32", "shape": [-1]}, "target_sos_mask": {"type": "int32", "shape": [-1]}, } 期望读出来的格式(batch_size=4, 共写入文件64samples): xids=[[50256 52 13 50] [50256 26932 3524 290] [50256 464 9317 6241] [50256 2396 11 7062]] xmask=[[1 1 1 1] [1 1 1 1] [1 1 1 1] [1 1 1 1]] ds.get_dataset_size=16 ds.output_shapes=[[4, 4],[4, 4]] 实际云上读出来的格式: xids=[[50256 0 52 0 13 0 50 0] [50256 0 26932 0 3524 0 290 0] [50256 0 464 0 9317 0 6241 0] [50256 0 2396 0 11 0 7062 0]] xmask=[[1 0 1 0 1 0 1 0] [1 0 1 0 1 0 1 0] [1 0 1 0 1 0 1 0] [1 0 1 0 1 0 1 0]] ds.get_dataset_size=16 ds.output_shapes=[[4, 8],[4, 8]] 猜测是否生成文件是int32,读取的时候没做 cast int32 测试发现不是没有cast int32的原因,cast后结果还是一样,每个数后面都插入了0,这就又很疑惑了,到底什么原因导致 最后生成文件的时候定义格式改为{"type": "int64", "shape": [4]}, 原来是{"type": "int32", "shape": [-1]} 读取的时候再转为int32,终于ok了,问题解决 另外: 举个例子,我的text样本文件是13M大小,5000个样本,按int32生成mindrecord是49M,按int64生成是100M,另外如果我只选择生成64个样本,出来的文件还是100M,没变,这就非常奇怪了。而对应生成64个样本的TFrecord大小是45k 建议方案: 生成文件数据类型选择可以选int32,或者int16,这样空间占用就小很多,目前int类型只能选int64,否则会出错 生成文件大小按实际生成样本数量增长,不能按全部样本来定义 问题描述: 我生成mindrecord文件,按这样shema: data_schema = { "target_sos_ids": {"type": "int32", "shape": [-1]}, "target_sos_mask": {"type": "int32", "shape": [-1]}, } 期望读出来的格式(batch_size=4, 共写入文件64samples): xids=[[50256 52 13 50] [50256 26932 3524 290] [50256 464 9317 6241] [50256 2396 11 7062]] xmask=[[1 1 1 1] [1 1 1 1] [1 1 1 1] [1 1 1 1]] ds.get_dataset_size=16 ds.output_shapes=[[4, 4],[4, 4]] 实际云上读出来的格式: xids=[[50256 0 52 0 13 0 50 0] [50256 0 26932 0 3524 0 290 0] [50256 0 464 0 9317 0 6241 0] [50256 0 2396 0 11 0 7062 0]] xmask=[[1 0 1 0 1 0 1 0] [1 0 1 0 1 0 1 0] [1 0 1 0 1 0 1 0] [1 0 1 0 1 0 1 0]] ds.get_dataset_size=16 ds.output_shapes=[[4, 8],[4, 8]] 猜测是否生成文件是int32,读取的时候没做 cast int32 测试发现不是没有cast int32的原因,cast后结果还是一样,每个数后面都插入了0,这就又很疑惑了,到底什么原因导致 最后生成文件的时候定义格式改为{"type": "int64", "shape": [4]}, 原来是{"type": "int32", "shape": [-1]} 读取的时候再转为int32,终于ok了,问题解决 另外: 举个例子,我的text样本文件是13M大小,5000个样本,按int32生成mindrecord是49M,按int64生成是100M,另外如果我只选择生成64个样本,出来的文件还是100M,没变,这就非常奇怪了。而对应生成64个样本的TFrecord大小是45k 建议方案: 生成文件数据类型选择可以选int32,或者int16,这样空间占用就小很多,目前int类型只能选int64,否则会出错 生成文件大小按实际生成样本数量增长,不能按全部样本来定义
- 问题描述: 我在本地生成了mindrecord文件,供云上运行模型生成dataset用,结果错误提示如下 shard_reader.cc:124] Init] DB file can not match file [ERROR] MD(162,python):2020-08-11-04:00:39.655.725 [mindspore/ccsrc/mindrecord/io/shard_reader.cc:124] Init] DB file can not match file /cache/gpt2cx_data/webtext-valid.mr Traceback (most recent call last): File "/home/work/user-job-dir/datatest/gpt2_dataset.py", line 222, in <module> for x in ds.create_dict_iterator(): File "/usr/local/ma/python3.7/lib/python3.7/site-packages/mindspore/dataset/engine/datasets.py", line 1076, in create_dict_iterator return DictIterator(self) File "/usr/local/ma/python3.7/lib/python3.7/site-packages/mindspore/dataset/engine/iterators.py", line 82, in __init__ root = self.__convert_node_postorder(self.dataset) File "/usr/local/ma/python3.7/lib/python3.7/site-packages/mindspore/dataset/engine/iterators.py", line 178, in __convert_node_postorder c_child = self.__convert_node_postorder(py_child) File "/usr/local/ma/python3.7/lib/python3.7/site-packages/mindspore/dataset/engine/iterators.py", line 175, in __convert_node_postorder c_node = self.depipeline.AddNodeToTree(op_type, node.get_args()) RuntimeError: Thread ID 281472905199632 Unexpected error. MindRecordOp init failed. Error message: operator failed Line of code : 149 File : /home/jenkins/agent-working-dir/workspace/Compile_Ascend_ARM_EulerOS/mindspore/mindspore/ccsrc/dataset/engine/datasetops/source/mindrecord_op.cc [Modelarts Service Log]2020-08-11 04:00:40,019 - ERROR - FMK of device3 (pid: [162]) has exited with non-zero code: 1 后改为在云上生成,云上用才可以 建议方案: 希望后续改进生成mindrecord文件内,没有路径限制,因为云上运行模型,每次都是要重新生成数据文件,文件是临时的,训练模型的数据通常都很大,还要调试运行很多次,这样每次都重新生成太浪费资源 问题描述: 我在本地生成了mindrecord文件,供云上运行模型生成dataset用,结果错误提示如下 shard_reader.cc:124] Init] DB file can not match file [ERROR] MD(162,python):2020-08-11-04:00:39.655.725 [mindspore/ccsrc/mindrecord/io/shard_reader.cc:124] Init] DB file can not match file /cache/gpt2cx_data/webtext-valid.mr Traceback (most recent call last): File "/home/work/user-job-dir/datatest/gpt2_dataset.py", line 222, in <module> for x in ds.create_dict_iterator(): File "/usr/local/ma/python3.7/lib/python3.7/site-packages/mindspore/dataset/engine/datasets.py", line 1076, in create_dict_iterator return DictIterator(self) File "/usr/local/ma/python3.7/lib/python3.7/site-packages/mindspore/dataset/engine/iterators.py", line 82, in __init__ root = self.__convert_node_postorder(self.dataset) File "/usr/local/ma/python3.7/lib/python3.7/site-packages/mindspore/dataset/engine/iterators.py", line 178, in __convert_node_postorder c_child = self.__convert_node_postorder(py_child) File "/usr/local/ma/python3.7/lib/python3.7/site-packages/mindspore/dataset/engine/iterators.py", line 175, in __convert_node_postorder c_node = self.depipeline.AddNodeToTree(op_type, node.get_args()) RuntimeError: Thread ID 281472905199632 Unexpected error. MindRecordOp init failed. Error message: operator failed Line of code : 149 File : /home/jenkins/agent-working-dir/workspace/Compile_Ascend_ARM_EulerOS/mindspore/mindspore/ccsrc/dataset/engine/datasetops/source/mindrecord_op.cc [Modelarts Service Log]2020-08-11 04:00:40,019 - ERROR - FMK of device3 (pid: [162]) has exited with non-zero code: 1 后改为在云上生成,云上用才可以 建议方案: 希望后续改进生成mindrecord文件内,没有路径限制,因为云上运行模型,每次都是要重新生成数据文件,文件是临时的,训练模型的数据通常都很大,还要调试运行很多次,这样每次都重新生成太浪费资源
- 问题描述: 在使用ModelArts的训练作业训练时,训练运行了11个小时,不知道为什么就显示运行失败了,查看日志发现显示No space left on device, 我使用的是yolove_resnent18(Ascend 910训练,就是AI市场的算法,数据集是我自己的) 如图: [图片] 训练作业应该是基于容器的话,这是容器存储空间满了? 我创建的训练版本太多,导致每次训练的残余文件不断积累,占满了空间? 还是因为我训练中间保存的中间数据太多,占满了空间? 训练输出是保存在OBS桶中的,应该不会存在满了的情况吧。 建议方案: 建议优化训练作业,训练作业每次即使在前版本修改也是重新训练,既然如此,应该会清空前版本训练数据吧,运行了11个小时,突然显示运行失败,而且训练作业是无法继续训练的,意味着我11个小时的训练白费了,这个有点糟糕啊。 期待能完善一下训练作业,设置恢复训练的选项,或优化训练流程,不要出现这种运行了11个小时,再说运行失败吧。 问题描述: 在使用ModelArts的训练作业训练时,训练运行了11个小时,不知道为什么就显示运行失败了,查看日志发现显示No space left on device, 我使用的是yolove_resnent18(Ascend 910训练,就是AI市场的算法,数据集是我自己的) 如图: [图片] 训练作业应该是基于容器的话,这是容器存储空间满了? 我创建的训练版本太多,导致每次训练的残余文件不断积累,占满了空间? 还是因为我训练中间保存的中间数据太多,占满了空间? 训练输出是保存在OBS桶中的,应该不会存在满了的情况吧。 建议方案: 建议优化训练作业,训练作业每次即使在前版本修改也是重新训练,既然如此,应该会清空前版本训练数据吧,运行了11个小时,突然显示运行失败,而且训练作业是无法继续训练的,意味着我11个小时的训练白费了,这个有点糟糕啊。 期待能完善一下训练作业,设置恢复训练的选项,或优化训练流程,不要出现这种运行了11个小时,再说运行失败吧。
- 问题描述: 在OBS 桶中下载训练好的模型,为.pb格式,不知道为什么有时候可以成功下载,有时候能下载,但格式错误,为.xml文件,应该是.pb文件才对哈。如图所示: [图片] 建议方案: 建议增强OBS桶的稳定性和兼容性,有时候可以,有时候不可以,这就很迷。 问题描述: 在OBS 桶中下载训练好的模型,为.pb格式,不知道为什么有时候可以成功下载,有时候能下载,但格式错误,为.xml文件,应该是.pb文件才对哈。如图所示: [图片] 建议方案: 建议增强OBS桶的稳定性和兼容性,有时候可以,有时候不可以,这就很迷。
- 问题描述: 在使用ModelArts的训练管理模块中的训练作业,使用的是AI市场的YOLOv3_Resnet18算法(Ascend 910训练),在训练时,无故出现运行失败的情况,日志中无提示信息,不知道怎么了,如图所示: [图片] 并不欠费情况,这是申请的Ascend 910公测,我再次运行后,可以运行,显示在运行中。 建议方案: 建议增加训练作业稳定性,昇腾集群服务正在公测,可能出现问题,建议增强一下稳定性; 已经运行了1个多小时,处在运行中,没有报错,就显示运行失败了,感觉不太好,也希望能增加一下日志的显示。 问题描述: 在使用ModelArts的训练管理模块中的训练作业,使用的是AI市场的YOLOv3_Resnet18算法(Ascend 910训练),在训练时,无故出现运行失败的情况,日志中无提示信息,不知道怎么了,如图所示: [图片] 并不欠费情况,这是申请的Ascend 910公测,我再次运行后,可以运行,显示在运行中。 建议方案: 建议增加训练作业稳定性,昇腾集群服务正在公测,可能出现问题,建议增强一下稳定性; 已经运行了1个多小时,处在运行中,没有报错,就显示运行失败了,感觉不太好,也希望能增加一下日志的显示。
- 问题描述: 在modelarts界面使用训练作业进行训练,关闭浏览器后再次进入管理界面时需要选择地区来查看训练作业的情况,“总览”菜单有歧义。 右图:默认进入的界面(地点为“北京一”),总览界面没有任何提示,没有训练作业 左图:选择地点为“北京四”在总览界面才有提示。 [图片][图片] 建议方案: 总览界面列出不同地区的全部的训练作业,提供一个统一的入口,方便选择。 问题描述: 在modelarts界面使用训练作业进行训练,关闭浏览器后再次进入管理界面时需要选择地区来查看训练作业的情况,“总览”菜单有歧义。 右图:默认进入的界面(地点为“北京一”),总览界面没有任何提示,没有训练作业 左图:选择地点为“北京四”在总览界面才有提示。 [图片][图片] 建议方案: 总览界面列出不同地区的全部的训练作业,提供一个统一的入口,方便选择。
- 问题描述: ModelArts-开发环境-NoteBook 新建一个NoteBook, 打开进入, 然后新建一个开发环境,进入 随意输入语句如print('hi')并执行 然后点选菜单:File-Download as-PDF 弹出了报错页面(500) [图片] [图片] 建议方案: 配置好服务器可以支持pdf格式下载 或者菜单中屏蔽pdf格式 问题描述: ModelArts-开发环境-NoteBook 新建一个NoteBook, 打开进入, 然后新建一个开发环境,进入 随意输入语句如print('hi')并执行 然后点选菜单:File-Download as-PDF 弹出了报错页面(500) [图片] [图片] 建议方案: 配置好服务器可以支持pdf格式下载 或者菜单中屏蔽pdf格式
- 问题描述: ModelArts中训练作业名称有些长的话,后面的作业ID会被挤掉,而且即使鼠标放在上面,也无法显示。这样遇到问题,提交工单,希望工程师帮忙解决的话,无法提交作业ID,如图: [图片] 建议方案: 修改显示设置,最好能完全显示,实在不行的话,希望鼠标放到上面,能显示全部信息,或者将自定义的作业名称与作业ID分为两项显示,不要挤到一起了。 问题描述: ModelArts中训练作业名称有些长的话,后面的作业ID会被挤掉,而且即使鼠标放在上面,也无法显示。这样遇到问题,提交工单,希望工程师帮忙解决的话,无法提交作业ID,如图: [图片] 建议方案: 修改显示设置,最好能完全显示,实在不行的话,希望鼠标放到上面,能显示全部信息,或者将自定义的作业名称与作业ID分为两项显示,不要挤到一起了。
- 问题描述: 在使用ModelArts中的训练作业,使用AI市场的YOLOv3_Resnet18算法(昇腾910 训练的版本),对自己的数据集进行训练的时候,在日志和资源使用情况界面中,判断算法已经运行完成,但是在算法执行界面仍然显示运行中,状态不太对。 [图片] [图片] [图片] 建议方案: 优化训练作业状态显示,增加稳定性,希望不要出现这种情况。一方面,这种情况会导致用户费用无端增加,对用户造成损失,另一方面,让用户误认为还在训练,延误开发进度。 问题描述: 在使用ModelArts中的训练作业,使用AI市场的YOLOv3_Resnet18算法(昇腾910 训练的版本),对自己的数据集进行训练的时候,在日志和资源使用情况界面中,判断算法已经运行完成,但是在算法执行界面仍然显示运行中,状态不太对。 [图片] [图片] [图片] 建议方案: 优化训练作业状态显示,增加稳定性,希望不要出现这种情况。一方面,这种情况会导致用户费用无端增加,对用户造成损失,另一方面,让用户误认为还在训练,延误开发进度。
- 问题描述: 在使用ModelArts的训练管理中的训练作业时,如图所示功能: [图片] 会发现无法选择数据集,而这个数据集已经发布,并且今天仍然可以正常使用,晚上突然就不行了,无法显示。 使用的是AI市场的YOLOv3_ResNet18算法,GPU训练版本 [图片] 建议方案: 增强ModelArts的训练作业的稳定性。 ModelArts有时候打开,会出现无法显示的问题,各个功能板块都可能出问题,有时刷新几下就好,而有时一直不行,很影响使用效率。 问题描述: 在使用ModelArts的训练管理中的训练作业时,如图所示功能: [图片] 会发现无法选择数据集,而这个数据集已经发布,并且今天仍然可以正常使用,晚上突然就不行了,无法显示。 使用的是AI市场的YOLOv3_ResNet18算法,GPU训练版本 [图片] 建议方案: 增强ModelArts的训练作业的稳定性。 ModelArts有时候打开,会出现无法显示的问题,各个功能板块都可能出问题,有时刷新几下就好,而有时一直不行,很影响使用效率。
- 问题描述: ModelArts数据标注时左侧的标注栏位置不太好,如果待标注的目标在左侧的标注栏附件,就会妨碍标注,如图所示: [图片] 这时,需要移动图片,就比较麻烦了。 建议方案: 将标注栏设置为悬浮式或隐藏式,当用户进入标注界面会弹出标注栏,如果不标注,就自动隐藏。 在标注时,标注栏自动移动到标注范围外,就像微信截图那样,标注栏会自动调整位置,设置到截图外侧。 问题描述: ModelArts数据标注时左侧的标注栏位置不太好,如果待标注的目标在左侧的标注栏附件,就会妨碍标注,如图所示: [图片] 这时,需要移动图片,就比较麻烦了。 建议方案: 将标注栏设置为悬浮式或隐藏式,当用户进入标注界面会弹出标注栏,如果不标注,就自动隐藏。 在标注时,标注栏自动移动到标注范围外,就像微信截图那样,标注栏会自动调整位置,设置到截图外侧。
- 问题描述: ModelArts中训练测试都要用到OBS,我觉得OBS是一个类似百度网盘或谷歌硬盘之类的存储对象,但是并没有体现在云端的优势,比如分享数据就很不方便,无法很方便分享给其他人使用,特别是团队协作的时候,这点就很不好,失去了云端的优势。 即使设置桶为公共读写,分享数据也不是很方便,仍然需要执行代码来复制数据。比如希望使用数据集的话,需要先在NoteBook执行代码复制文件到自己的桶中,才能使用,感觉很不方便。 建议方案: 发挥云端存储优势,增加选择桶时,进行搜索,这样可以直接搜索到队友设置的公共读写的桶,直接选择使用就行了,不用再复制到自己的桶里一次,这样也能省钱,也方便开发者使用。 问题描述: ModelArts中训练测试都要用到OBS,我觉得OBS是一个类似百度网盘或谷歌硬盘之类的存储对象,但是并没有体现在云端的优势,比如分享数据就很不方便,无法很方便分享给其他人使用,特别是团队协作的时候,这点就很不好,失去了云端的优势。 即使设置桶为公共读写,分享数据也不是很方便,仍然需要执行代码来复制数据。比如希望使用数据集的话,需要先在NoteBook执行代码复制文件到自己的桶中,才能使用,感觉很不方便。 建议方案: 发挥云端存储优势,增加选择桶时,进行搜索,这样可以直接搜索到队友设置的公共读写的桶,直接选择使用就行了,不用再复制到自己的桶里一次,这样也能省钱,也方便开发者使用。
- 问题描述: 在使用ModelArts中AI市场的RetinaNet_Resnet50算法,想部署到HiLens Studio中,该算法明确表示可以将模型转换成Ascend类型,并在Ascend-310芯片上部署推理。如图所示: [图片] 但在通过ModelArts的模型转换中的带有HiLens字样的模板进行模型转换时,转换失败。 如果在HiLens Studio中转换的话,使用命令行转换,依然转换失败。 而按照算法介绍界面的模板可转换成功,但是在HiLens Studio中显示推理出错,如图所示: [图片] 而根据到HiLens论坛查询可知道17表示模型输入尺寸比匹配,查询地址及截图如下: 地址:https://bbs.huaweicloud.com/forum/thread-38487-1-1.html 截图: [图片] 但根据打印信息显示,输入大小是一致的,不知道为什么不可以了,感觉这个HiLens Stuido的兼容性较差,是硬件版本不同吗?在AI市场中说支持Ascend 310推理的算法无法部署,这就比较不好了。 最后附上: RetinaNet_Resnet50算法链接:https://console.huaweicloud.com/modelarts/?locale=zh-cn®ion=cn-north-4#/aiMarket/aiMarketModelDetail/overview?modelId=d965a19d-62e6-4a07-bb02-3db57ccf9c98&type=algo 建议方案: 将Retinanet算法和HiLens Studio做适配; AI市场算法界面尽量不要说支持Ascend 310部署推理,应该说明具体设备形态及版本号,因为目前基于Ascend 310的产品很多,比如Atlas 200 DK和HiLens等,而他们的硬件版本比较乱,很可能因为版本不对,无法支持该算法训练得到的模型,这样会导致用户白费时间,毕竟训练了半天想部署,结果因为不可知原因无法部署,导致人很不舒服。 希望ModelArts能与HiLens做一个很好的及时联动更新,毕竟都是EI企业智能下的部门,而且是端云协同,如果算法介绍界面说明可以部署Ascend 310,但在HiLens Studio中无法使用,就达不到端云协同的目的了,失去了意义。 问题描述: 在使用ModelArts中AI市场的RetinaNet_Resnet50算法,想部署到HiLens Studio中,该算法明确表示可以将模型转换成Ascend类型,并在Ascend-310芯片上部署推理。如图所示: [图片] 但在通过ModelArts的模型转换中的带有HiLens字样的模板进行模型转换时,转换失败。 如果在HiLens Studio中转换的话,使用命令行转换,依然转换失败。 而按照算法介绍界面的模板可转换成功,但是在HiLens Studio中显示推理出错,如图所示: [图片] 而根据到HiLens论坛查询可知道17表示模型输入尺寸比匹配,查询地址及截图如下: 地址:https://bbs.huaweicloud.com/forum/thread-38487-1-1.html 截图: [图片] 但根据打印信息显示,输入大小是一致的,不知道为什么不可以了,感觉这个HiLens Stuido的兼容性较差,是硬件版本不同吗?在AI市场中说支持Ascend 310推理的算法无法部署,这就比较不好了。 最后附上: RetinaNet_Resnet50算法链接:https://console.huaweicloud.com/modelarts/?locale=zh-cn®ion=cn-north-4#/aiMarket/aiMarketModelDetail/overview?modelId=d965a19d-62e6-4a07-bb02-3db57ccf9c98&type=algo 建议方案: 将Retinanet算法和HiLens Studio做适配; AI市场算法界面尽量不要说支持Ascend 310部署推理,应该说明具体设备形态及版本号,因为目前基于Ascend 310的产品很多,比如Atlas 200 DK和HiLens等,而他们的硬件版本比较乱,很可能因为版本不对,无法支持该算法训练得到的模型,这样会导致用户白费时间,毕竟训练了半天想部署,结果因为不可知原因无法部署,导致人很不舒服。 希望ModelArts能与HiLens做一个很好的及时联动更新,毕竟都是EI企业智能下的部门,而且是端云协同,如果算法介绍界面说明可以部署Ascend 310,但在HiLens Studio中无法使用,就达不到端云协同的目的了,失去了意义。
上滑加载中
推荐直播
-
HDC深度解读系列 - Serverless与MCP融合创新,构建AI应用全新智能中枢2025/08/20 周三 16:30-18:00
张昆鹏 HCDG北京核心组代表
HDC2025期间,华为云展示了Serverless与MCP融合创新的解决方案,本期访谈直播,由华为云开发者专家(HCDE)兼华为云开发者社区组织HCDG北京核心组代表张鹏先生主持,华为云PaaS服务产品部 Serverless总监Ewen为大家深度解读华为云Serverless与MCP如何融合构建AI应用全新智能中枢
回顾中 -
关于RISC-V生态发展的思考2025/09/02 周二 17:00-18:00
中国科学院计算技术研究所副所长包云岗教授
中科院包云岗老师将在本次直播中,探讨处理器生态的关键要素及其联系,分享过去几年推动RISC-V生态建设实践过程中的经验与教训。
回顾中 -
一键搞定华为云万级资源,3步轻松管理企业成本2025/09/09 周二 15:00-16:00
阿言 华为云交易产品经理
本直播重点介绍如何一键续费万级资源,3步轻松管理成本,帮助提升日常管理效率!
回顾中
热门标签