- 问题描述: 在使用ModelArts的训练作业,利用预置算法进行训练时,因多次调试,产生了16个版本的训练,分4页展示,如图所示: [图片] 想利用提供的版本对比功能对比算法效果时,发现只能对比当前页面的,无法不同页面之间的差异,比如相对比V00015版本和V0006版本的话,是无法对比的,版本对比只能显示到当前页面的版本差异,无法显示其他页面。 而选择版本过滤时,也是只能对当前页面版本操作,无法通过版本过滤,对比不同页面的算法不同。 ModelArts提供的版本对比功能还是十分贴心的,在调试中也很有用,但如果无法对比前面页面的结果的话,就是去了其本身的意义。 建议方案: 可以通过在版本对比时显示更多版本结果信息或可任意选择版本来实现任意版本的对比 问题描述: 在使用ModelArts的训练作业,利用预置算法进行训练时,因多次调试,产生了16个版本的训练,分4页展示,如图所示: [图片] 想利用提供的版本对比功能对比算法效果时,发现只能对比当前页面的,无法不同页面之间的差异,比如相对比V00015版本和V0006版本的话,是无法对比的,版本对比只能显示到当前页面的版本差异,无法显示其他页面。 而选择版本过滤时,也是只能对当前页面版本操作,无法通过版本过滤,对比不同页面的算法不同。 ModelArts提供的版本对比功能还是十分贴心的,在调试中也很有用,但如果无法对比前面页面的结果的话,就是去了其本身的意义。 建议方案: 可以通过在版本对比时显示更多版本结果信息或可任意选择版本来实现任意版本的对比
- 问题描述: 管理控制台ModelArts->训练管理->训练作业->新建下->算法来源-常用框架 数据来源-数据存储位置--选择:无法选择共享obs数据 已经用obs-browsers挂载了,仍然无法选择,导致哪些常用的mnist,cifar10要自己重新从本地上传到obs 建议方案:希望网页上能增加共享数据选择 问题描述: 管理控制台ModelArts->训练管理->训练作业->新建下->算法来源-常用框架 数据来源-数据存储位置--选择:无法选择共享obs数据 已经用obs-browsers挂载了,仍然无法选择,导致哪些常用的mnist,cifar10要自己重新从本地上传到obs 建议方案:希望网页上能增加共享数据选择
- 问题描述: 在使用ModelArts的训练作业模块,使用预置算法对自己的数据集进行训练时,是可以在已有训练的基础上,进行修改,再训练的,非常方便,但这个修改再训练好像是重新从零开始训练,即如图所示,V0014版本是在V0013版本的基础上点击右侧修改后,再进行的训练,但V0014是重新对数据集训练,与V0013已通过训练得到的模型没什么关系。 [图片] 每次都是重新训练,一方面这是对以前所训练成果以及所耗资源的浪费,另一方面,这也是与训练作业的在自身基础上创建新版本训练的初衷不太相符。 当然,如果我上面的叙述对训练作业的理解的错误的,还请批评指正。比如,如果0014并不是重新对数据集训练,而是在V0013已通过训练得到的模型的基础上再进行训练的话,还请指正,谢谢。 建议方案: 在训练作业中,通过上图右侧修改创建新版本时,使用上一母版本的模型作为预训练模型,进行再训练,节省资源,提高开发效率。 问题描述: 在使用ModelArts的训练作业模块,使用预置算法对自己的数据集进行训练时,是可以在已有训练的基础上,进行修改,再训练的,非常方便,但这个修改再训练好像是重新从零开始训练,即如图所示,V0014版本是在V0013版本的基础上点击右侧修改后,再进行的训练,但V0014是重新对数据集训练,与V0013已通过训练得到的模型没什么关系。 [图片] 每次都是重新训练,一方面这是对以前所训练成果以及所耗资源的浪费,另一方面,这也是与训练作业的在自身基础上创建新版本训练的初衷不太相符。 当然,如果我上面的叙述对训练作业的理解的错误的,还请批评指正。比如,如果0014并不是重新对数据集训练,而是在V0013已通过训练得到的模型的基础上再进行训练的话,还请指正,谢谢。 建议方案: 在训练作业中,通过上图右侧修改创建新版本时,使用上一母版本的模型作为预训练模型,进行再训练,节省资源,提高开发效率。
- 问题描述: 1: 我的凭证 ; 2: 访问密钥 [图片] 下载的 credentials.cvs 文件 {"relogin":false retdesc:"系统功能异常,请联系管理员。" retinfo:"fail" } 建议方案: 问题描述: 1: 我的凭证 ; 2: 访问密钥 [图片] 下载的 credentials.cvs 文件 {"relogin":false retdesc:"系统功能异常,请联系管理员。" retinfo:"fail" } 建议方案:
-
【用户体验】mindspore网页文档错别字 预审不通过问题描述: https://www.mindspore.cn/docs/en/r0.5/network_list.html 网页上的Computer Version (CV)的Version都错了,应该是Vision 建议方案:改正 问题描述: https://www.mindspore.cn/docs/en/r0.5/network_list.html 网页上的Computer Version (CV)的Version都错了,应该是Vision 建议方案:改正
- 问题描述: 我实验跑mindspore源码包根目录的README.md内的样例程序(2. Run the following command to verify the install.)时出现如下的提示 WARNING: Logging before InitGoogleLogging() is written to STDERR 为什么mindspore会有InitGoogleLogging这样的敏感字眼内容 建议方案:建议慎重追查类似这些敏感字眼的程序代码,检查是否存在侵权 问题描述: 我实验跑mindspore源码包根目录的README.md内的样例程序(2. Run the following command to verify the install.)时出现如下的提示 WARNING: Logging before InitGoogleLogging() is written to STDERR 为什么mindspore会有InitGoogleLogging这样的敏感字眼内容 建议方案:建议慎重追查类似这些敏感字眼的程序代码,检查是否存在侵权
- 问题描述: 在使用ModelArts的数据管理中的数据集功能时,在标注数据或确认标注、修改标注时,因长时间登陆掉线,导致页面刷新,这样好像再次进入,就是从头开始查看图片了,因为我的数据图片之间比较相像,所以不太好找到上次标注的位置,只能从头一个个再查看一遍,耗费时间。 建议方案: 建议在确认标注或修改标注或标注时,因各种原因,推出标注界面的话,再次进入标注界面时,自动将数据集定位到推出的位置,方便开发者继续标注。 问题描述: 在使用ModelArts的数据管理中的数据集功能时,在标注数据或确认标注、修改标注时,因长时间登陆掉线,导致页面刷新,这样好像再次进入,就是从头开始查看图片了,因为我的数据图片之间比较相像,所以不太好找到上次标注的位置,只能从头一个个再查看一遍,耗费时间。 建议方案: 建议在确认标注或修改标注或标注时,因各种原因,推出标注界面的话,再次进入标注界面时,自动将数据集定位到推出的位置,方便开发者继续标注。
- 问题描述: ModelArts的AI市场发布的算法、模型等不能进行删除或者下架操作,比如我在AI市场上架了一个模型,出于一些原因我想对其进行删除或者下架,但是现在没有这个功能,发布了的模型只能一直存在,https://marketplace.huaweicloud.com/markets/aihub/modelhub/list/ [图片] 建议方案: 增加删除或者下架功能 问题描述: ModelArts的AI市场发布的算法、模型等不能进行删除或者下架操作,比如我在AI市场上架了一个模型,出于一些原因我想对其进行删除或者下架,但是现在没有这个功能,发布了的模型只能一直存在,https://marketplace.huaweicloud.com/markets/aihub/modelhub/list/ [图片] 建议方案: 增加删除或者下架功能
- 问题描述: 在使用ModelArts的开发环境NoteBook,创建时,会让选择是挂载在云硬盘EVS还是对象存储OBS: 当选择是在EVS,会在5GB免费存储基础上收费,一般运行自己的算法,数据集较大,比如使用COCO数据集,本身约20GB,在运行中,提取特征,可能产生200GB的中间数据,总存储要300GB才比较稳妥,选用EVS意味着较大的存储花费。 选择OBS,花费是OBS自身的花费,但感觉OBS失去了选择它本身的意义,因为即使选择了OBS,在NoteBook中使用该OBS桶下的数据集仍然需要通过执行代码拷贝到OBS,而且程序执行过程中产生或修改的文件,需要自己同步。特别是如果数据集较大,程序运行导致存储空间不够的话,仍然是该NoteBook镜像本身空间不够,需要增加EVS,而与OBS无关,那选择OBS的意义是什么呢?为了能够直接用OBS中的一些体积较小的文件?OBS的定位是存储,而存储的应该是大文件,而不是这些小文件。 建议方案: 建议增加免费EVS额度,50GB的免费额度比较好,适用于很多算法训练了。 建议将OBS与NoteBook打通,真正将其作为NoteBook的“云硬盘EVS”,让它成为和开发者创建NoteBook时选择它的直观理解那样。谷歌的Colab就是类似的做法,使用比较方便,也挺好用的。 问题描述: 在使用ModelArts的开发环境NoteBook,创建时,会让选择是挂载在云硬盘EVS还是对象存储OBS: 当选择是在EVS,会在5GB免费存储基础上收费,一般运行自己的算法,数据集较大,比如使用COCO数据集,本身约20GB,在运行中,提取特征,可能产生200GB的中间数据,总存储要300GB才比较稳妥,选用EVS意味着较大的存储花费。 选择OBS,花费是OBS自身的花费,但感觉OBS失去了选择它本身的意义,因为即使选择了OBS,在NoteBook中使用该OBS桶下的数据集仍然需要通过执行代码拷贝到OBS,而且程序执行过程中产生或修改的文件,需要自己同步。特别是如果数据集较大,程序运行导致存储空间不够的话,仍然是该NoteBook镜像本身空间不够,需要增加EVS,而与OBS无关,那选择OBS的意义是什么呢?为了能够直接用OBS中的一些体积较小的文件?OBS的定位是存储,而存储的应该是大文件,而不是这些小文件。 建议方案: 建议增加免费EVS额度,50GB的免费额度比较好,适用于很多算法训练了。 建议将OBS与NoteBook打通,真正将其作为NoteBook的“云硬盘EVS”,让它成为和开发者创建NoteBook时选择它的直观理解那样。谷歌的Colab就是类似的做法,使用比较方便,也挺好用的。
- 问题描述: 在ModelArts中进行训练时,查看资源占用情况,发现各项指标均为0,这应该是不正常的,虽然这个资源占用情况只是一个参考,但还是希望能准确一些。 [图片] 建议方案: 提高ModelArts的训练作业的资源占用情况的准确性和稳定性,可以方便开发者查看资源使用情况。 问题描述: 在ModelArts中进行训练时,查看资源占用情况,发现各项指标均为0,这应该是不正常的,虽然这个资源占用情况只是一个参考,但还是希望能准确一些。 [图片] 建议方案: 提高ModelArts的训练作业的资源占用情况的准确性和稳定性,可以方便开发者查看资源使用情况。
- 问题描述: 在使用ModelArts训练完模型,进行在线部署时,选用的是CPU的免费体验规格部署的,会出现部署模型,测试同一张图片,有时候预测成功,有时候预测失败,感觉稳定性不太行。 预测失败界面 [图片] 预测成功界面: [图片] 建议方案: 增强ModelArts在线部署的稳定性,如果预测失败,希望能给出一些具体的日志(目前也有日志),并顺便尝试给出一些解决方案。 问题描述: 在使用ModelArts训练完模型,进行在线部署时,选用的是CPU的免费体验规格部署的,会出现部署模型,测试同一张图片,有时候预测成功,有时候预测失败,感觉稳定性不太行。 预测失败界面 [图片] 预测成功界面: [图片] 建议方案: 增强ModelArts在线部署的稳定性,如果预测失败,希望能给出一些具体的日志(目前也有日志),并顺便尝试给出一些解决方案。
- 问题描述: 在通过将近两天的上传之后,将COCO数据集(约20GB)上传到了OBS桶中,用于自己算法的训练,但是遇到了很多问题,正在解决。同时,也想在ModelArts中AI市场中的新发布的数据集发布一下,但不支持如此多的文件发布,具体如下图所示: [图片] 数据集总大小应该是没超过30GB的要求的,应该是文件数量超了,在OBS中,每个图片算作一个文件吧,如果是这样的话,数据集应该无法发布超过1W张图片的数据集? 这是发布失败的截图: [图片] 这是在OBS桶中的数据集截图(是两个文件夹和一个json) [图片] 目前,我的理解是这样的,如果有什么问题或不对的地方,还请指正。 建议方案: 建议增加对文件数量上限,因为通常数据集都很大,12425个文件的限制可能会使很多常用数据集无法共享使用。 很期待尽快实现ModelArts数据集的发布,同时期待能支持更多数据格式,比如物体检测,目前要求是VOC格式,但VOC数据集较老了,现在很多数据集不再是这个格式了,很多像COCO这样的数据集,如果用预置算法训练,还需要自己转为VOC格式,比较麻烦。 问题描述: 在通过将近两天的上传之后,将COCO数据集(约20GB)上传到了OBS桶中,用于自己算法的训练,但是遇到了很多问题,正在解决。同时,也想在ModelArts中AI市场中的新发布的数据集发布一下,但不支持如此多的文件发布,具体如下图所示: [图片] 数据集总大小应该是没超过30GB的要求的,应该是文件数量超了,在OBS中,每个图片算作一个文件吧,如果是这样的话,数据集应该无法发布超过1W张图片的数据集? 这是发布失败的截图: [图片] 这是在OBS桶中的数据集截图(是两个文件夹和一个json) [图片] 目前,我的理解是这样的,如果有什么问题或不对的地方,还请指正。 建议方案: 建议增加对文件数量上限,因为通常数据集都很大,12425个文件的限制可能会使很多常用数据集无法共享使用。 很期待尽快实现ModelArts数据集的发布,同时期待能支持更多数据格式,比如物体检测,目前要求是VOC格式,但VOC数据集较老了,现在很多数据集不再是这个格式了,很多像COCO这样的数据集,如果用预置算法训练,还需要自己转为VOC格式,比较麻烦。
- 问题描述: 在ModelArts中,创建NoteBook使用自己的算法进行训练,需要先将存储在OBS中数据集拷贝到NoteBook中,一方面是比较耗费时间,而且比较麻烦;另一方面是OBS与NoteBook的交互需要花费。其实,NoteBook也是在云端运行,能否考虑将数据集直接用云端资源运行,不需要中间拷贝到NoteBook这一步骤。 建议方案: 对于存储在OBS的数据集或ModelArts中AI市场的数据集功能中的数据集,直接可以在云端调用,不需要拷贝到NoteBook中使用,这样省时省力,简单高效,提高开发效率,而且也省去了拷贝数据带来的云端硬盘的消耗,有利于延长云端硬盘寿命。 问题描述: 在ModelArts中,创建NoteBook使用自己的算法进行训练,需要先将存储在OBS中数据集拷贝到NoteBook中,一方面是比较耗费时间,而且比较麻烦;另一方面是OBS与NoteBook的交互需要花费。其实,NoteBook也是在云端运行,能否考虑将数据集直接用云端资源运行,不需要中间拷贝到NoteBook这一步骤。 建议方案: 对于存储在OBS的数据集或ModelArts中AI市场的数据集功能中的数据集,直接可以在云端调用,不需要拷贝到NoteBook中使用,这样省时省力,简单高效,提高开发效率,而且也省去了拷贝数据带来的云端硬盘的消耗,有利于延长云端硬盘寿命。
-
【功能建议】设计小屏幕产品 预审不通过华为,你能不能开发生产一些让屏幕小一点的手机啊,比如苹果的经典4.7,我很想支持国产,可是你们的屏幕越来越大越来越大,我期盼的小屏幕最终只能通过苹果来实现了,讲真的,我不喜欢苹果,但除了它我再也找不到理想的小屏幕了 华为,你能不能开发生产一些让屏幕小一点的手机啊,比如苹果的经典4.7,我很想支持国产,可是你们的屏幕越来越大越来越大,我期盼的小屏幕最终只能通过苹果来实现了,讲真的,我不喜欢苹果,但除了它我再也找不到理想的小屏幕了
- 问题描述: 数据集作为人工智能的三驾马车之一,是非常重要的,华为云ModelArts推出的数据集功能还是很棒的。但是目前数据集功能未能得到很好的发挥,数据集的开源共享的特性未能得到发挥。目前数据集只有官方发布的几个较为简单的数据集,常用的COCO数据集、部分ImageNet数据集以及一些常见的数据集等数据集未能出现,这些数据集较大,适合做训练,但自己上传比较耗费时间和Money,在OBS中存储和调用花费不少,不利于开发者使用。 昨天(2020年7月19日)使用OBS客户端上传了约19GB的数据集,以用于模型训练,上传了约一天,仍未能上传完成,速度降到了几百KB/s(应该不是我本地网速的问题),比较耗费时间。 建议方案: 希望官方能发布一些常用的较大的数据集,比如COCO数据集等,甚至一些AI市场官方发布的算法训练时得到预训练模型的数据集,这些都有助于开发者更好的在ModelArts上开发实现自己的算法。比如百度的AI Studio就有类似的数据集分享,由官方和第三方开发者共同维护,官方和第三方开发者都发布了不少较好的常用数据集,并可以直接在AI Studio中的NoteBook中直接调用,就像在本地用Jupyter NoteBook一样。 我想官方在训练发布到AI市场的算法时,会用到不少数据集,这些数据集应该也是存储在OBS桶中,而且应该其中有一些是公开数据集,如果能够分享出来,通过AI市场的数据集分享给更多开发者,相信一定有助于开发者使用ModelArts,建设良好生态。 这也会减少开发者上传数据集的时间,降低他们的存储成本,利于开发。 问题描述: 数据集作为人工智能的三驾马车之一,是非常重要的,华为云ModelArts推出的数据集功能还是很棒的。但是目前数据集功能未能得到很好的发挥,数据集的开源共享的特性未能得到发挥。目前数据集只有官方发布的几个较为简单的数据集,常用的COCO数据集、部分ImageNet数据集以及一些常见的数据集等数据集未能出现,这些数据集较大,适合做训练,但自己上传比较耗费时间和Money,在OBS中存储和调用花费不少,不利于开发者使用。 昨天(2020年7月19日)使用OBS客户端上传了约19GB的数据集,以用于模型训练,上传了约一天,仍未能上传完成,速度降到了几百KB/s(应该不是我本地网速的问题),比较耗费时间。 建议方案: 希望官方能发布一些常用的较大的数据集,比如COCO数据集等,甚至一些AI市场官方发布的算法训练时得到预训练模型的数据集,这些都有助于开发者更好的在ModelArts上开发实现自己的算法。比如百度的AI Studio就有类似的数据集分享,由官方和第三方开发者共同维护,官方和第三方开发者都发布了不少较好的常用数据集,并可以直接在AI Studio中的NoteBook中直接调用,就像在本地用Jupyter NoteBook一样。 我想官方在训练发布到AI市场的算法时,会用到不少数据集,这些数据集应该也是存储在OBS桶中,而且应该其中有一些是公开数据集,如果能够分享出来,通过AI市场的数据集分享给更多开发者,相信一定有助于开发者使用ModelArts,建设良好生态。 这也会减少开发者上传数据集的时间,降低他们的存储成本,利于开发。
上滑加载中
推荐直播
-
HDC深度解读系列 - Serverless与MCP融合创新,构建AI应用全新智能中枢2025/08/20 周三 16:30-18:00
张昆鹏 HCDG北京核心组代表
HDC2025期间,华为云展示了Serverless与MCP融合创新的解决方案,本期访谈直播,由华为云开发者专家(HCDE)兼华为云开发者社区组织HCDG北京核心组代表张鹏先生主持,华为云PaaS服务产品部 Serverless总监Ewen为大家深度解读华为云Serverless与MCP如何融合构建AI应用全新智能中枢
回顾中 -
关于RISC-V生态发展的思考2025/09/02 周二 17:00-18:00
中国科学院计算技术研究所副所长包云岗教授
中科院包云岗老师将在本次直播中,探讨处理器生态的关键要素及其联系,分享过去几年推动RISC-V生态建设实践过程中的经验与教训。
回顾中 -
一键搞定华为云万级资源,3步轻松管理企业成本2025/09/09 周二 15:00-16:00
阿言 华为云交易产品经理
本直播重点介绍如何一键续费万级资源,3步轻松管理成本,帮助提升日常管理效率!
回顾中
热门标签