-
进行到这两步时会这么报错:一开始提示没有gen.sh,后来试着改成里面的另一个文件,结果报错,请问如何解决?另:请问要将在普通Windows电脑上训练好的pytroch框架的推理算法移植到200DK上运行,需要做哪些工作?
-
根据这个链接pytorch安装安装pytorch安装到这一步时报错,且后面的环节也不能进行了。下一步4.1提示无对应的文件。
-
这个函数功能对应mindspore中的哪些函数,萌新在迁移的过程中遇到了这个函数 在api映射中没有发现这个函数的迁移,想知道解决问题的相关知识和方法。图中的三个函数在库中都没有找到迁移,就是F后面的函数。
-
【功能模块】打算适配 pytorch 算子, 需要将pytorch 内的算子事先导出,但算子不存在onnx op 中,因此 参考[自定义算子导出方法](https://bbs.huaweicloud.com/forum/forum.php?mod=viewthread&tid=150135) 将算子导出,但是到使用atc转换为OM模型时,提示【操作步骤&问题现象】1、2、【截图信息】【日志信息】(可选,上传日志内容或者附件)
-
【功能模块】mindspore 1.6【操作步骤&问题现象】1、我发现mindspore的nn.Conv2d和pytorch的Conv2d运行结果相差甚远,但是官方文档的解释算法明明是一样的2、kernel,padding,stride这些参数设置的都一样,为什么结果大不相同呢?是我漏掉了什么吗?【截图信息】mnist数据集选取一个图片数组使用pytorch的conv2d使用msp的conv2d【日志信息】(可选,上传日志内容或者附件)
-
【功能模块】mindspore 1.6【操作步骤&问题现象】1、我在使用mindspore复现pytorch代码时,发现mindspore没有和pytorch的ctx.save_for_backward和ctx.saved_tensors相似的功能2、我以为可以用self.input和copy()代替,然后发现并不能3、请问mindspore有事先相似功能的函数吗?没有的话自定义类该怎么写呢?【截图信息】pytorch代码:msp代码【日志信息】(可选,上传日志内容或者附件)
-
背景: 好望开发平台进行模型转换 1、yolov5推荐使用官方的代码https://github.com/ultralytics/yolov5 2、模型转换前需要把yolo.py中Detect中forward函数后处理部分注释掉,类似截图:(这个可以在模型训练过程中处理,或者在导出的时候重新定义forward函数) 3、把导出工具生成的.torchscript文件后缀改为.pth 4、正常使用好望开发平台进行模型转换
-
【功能模块】mindspore和pytorch框架训练对比【操作步骤&问题现象】1、在cifar10数据集上,同样的训练参数训练60个epoch,resnet18模型在pytorch上训练准确率为77.8%,在mindspore只有74.8%(训练日志忘了截图)2、使用学习率指数衰减(nn.learning_rate_schedule.ExponentialDecayLR)和余弦退火衰减(nn.learning_rate_schedule.CosineDecayLR),训练准确率反而比不用学习率衰减更低(训练日志截图如下)模型用的是modelzoo里面的https://gitee.com/ascend/modelzoo,附件是代码【截图信息】两个框架的训练结果比较------------------------------------------------------2022.02.28更新点进去源码查看两个框架的resnet里的权重初始化方式是一样的,卷积层都是kaiming_normal,最后一层全连接层都是kaiming_uniform,而且参数都是一样的。唯一不同的一小点是最后一层全连接层的偏置层初始化,ms是全0初始化,pytorch也是kaiming_uniform。就这么一点初始化权重的差距我感觉没有办法使最后准确率差距达到3%以上。ms的fc层初始化实现pytorch的fc层初始化实现此外,我检查了两种框架的kaiming_uniform的实现,发现也都是一样的,并且做了样例测试,二者初始化后的均值和方差都是一样的ms的kaiming_uniform初始化样例结果:pytorch的kaiming_uniform层样例结果:【日志信息】(可选,上传日志内容或者附件)
-
【功能模块】mindspore版本1.6【操作步骤&问题现象】1、我在做自定义算子时遇到了一个问题,pytorch中有module.apply函数一次性对所有子模块初始化权重赋值,但msp中没有cell.apply2、所以msp中怎么实现相应方法呢【截图信息】pytorch代码:minspore代码【日志信息】(可选,上传日志内容或者附件)
-
【功能模块】mindspore 1.6【操作步骤&问题现象】1、我想用msp复现脉冲网络(pytorch写的)的自定义算子,但是在官网上没有找到相应的教程,请问能提供一下如何转换的网页链接吗2、我根据一篇csdn的博客尝试用msp写了一下,但测试后发现根本不对,希望能指正我的问题,感谢!【截图信息】pytorch版:mindspore版【日志信息】(可选,上传日志内容或者附件)
-
【功能模块】【操作步骤&问题现象】1、2、【截图信息】【日志信息】(可选,上传日志内容或者附件)
-
刚加入昇腾社区,搜索发现atlas200DK可以支持pytorch,但是看了很多的文档,都是atlas 200DK支持tensorflow的例子,包括看到的restnet50的例子也是关于tensorflow运行的例子,因此咨询一下在官网哪一个地方可以看到运行pytorch的例子.谢谢!!!
-
【功能模块】开发环境:Win10【操作步骤&问题现象】1、我在使用msp复现我的pytorch代码时,直接用model.train()训练模型,但是损失函数一直是0.1。和我的pytorch代码唯一不一样的是我在msp中没有optimizer.zero_grad()、loss.backward()和optimizer.step()2、我一直没有找到上诉三个在msp中的实现方法【截图信息】pytorch代码:def train(epoch): model.train() scheduler.step() start_time = time.time() total_loss = 0 for i, (images, labels) in enumerate(data_loader_train): optimizer.zero_grad() images = Variable(images) one_hot = torch.zeros(100, 10).scatter(1, labels.unsqueeze(1), 1) labels = Variable(one_hot) outputs = model(images) loss = cost(outputs, labels) total_loss += float(loss) loss.backward() optimizer.step()def eval(epoch, if_test): model.eval() correct = 0 total = 0 if if_test: for i, (images, labels) in enumerate(data_loader_test): images = Variable(images) labels = Variable(labels) outputs= model(images) pred = outputs.max(1)[1] total += labels.size(0) correct += (pred == labels).sum() acc = 100.0 * correct.item() / total print('Test correct: %d Accuracy: %.2f%%' % (correct, acc)) test_scores.append(acc) if acc > max(test_scores): save_file = str(epoch) + '.pt' torch.save(model, os.path.join(save_path, save_file)) else: for i, (images, labels) in enumerate(data_loader_train): images = Variable(images) labels = Variable(labels) outputs = model(images) pred = outputs.max(1)[1] total += labels.size(0) correct += (pred == labels).sum() acc = 100.0 * correct.item() / total print('Train correct: %d Accuracy: %.2f%%' % (correct, acc)) train_scores.append(acc)test_scores = []train_scores = []save_path = './LISNN_'if not os.path.exists(save_path): os.mkdir(save_path)n_epoch = 10for epoch in range(n_epoch): train(epoch) if (epoch + 1) % 2 == 0: eval(epoch, if_test = True) if (epoch + 1) % 20 == 0: eval(epoch, if_test = False) if (epoch + 1) % 20 == 0: print('Best Test Accuracy in %d: %.2f%%' % (epoch + 1, max(test_scores))) print('Best Train Accuracy in %d: %.2f%%' % (epoch + 1, max(train_scores)))mindspore代码:# 定义训练函数def train(epoch, ckpoint_cb, sink_mode): model.train(epoch,ds_train,callbacks=[ckpoint_cb, LossMonitor(125)], dataset_sink_mode=sink_mode) # 每过200个step就输出训练损失值# 定义验证函数def eval(): acc = model.eval(ds_test, dataset_sink_mode=False) print("{}".format(acc))test_scores = []train_scores = []save_path = './LISNN_'if not os.path.exists(save_path): os.mkdir(save_path)n_epoch = 20train(n_epoch,ckpoint,False) # 调用训练函数eval()【日志信息】
-
环境mindinsight 1.5.0mindspore 1.5.0使用MindConverter能转换成功,但Expand和LogSoftMax算子不支持,我看算子文档应该是支持的吧report如下[Start Convert]line 1012:27: [UnConvert] 'onnx::Expand' didn't convert.line 1029:27: [UnConvert] 'onnx::Expand' didn't convert.line 1066:31: [UnConvert] 'onnx::LogSoftmax' didn't convert.[Convert Over]Converted Rate: 96.67%.
推荐直播
-
HDC深度解读系列 - Serverless与MCP融合创新,构建AI应用全新智能中枢2025/08/20 周三 16:30-18:00
张昆鹏 HCDG北京核心组代表
HDC2025期间,华为云展示了Serverless与MCP融合创新的解决方案,本期访谈直播,由华为云开发者专家(HCDE)兼华为云开发者社区组织HCDG北京核心组代表张鹏先生主持,华为云PaaS服务产品部 Serverless总监Ewen为大家深度解读华为云Serverless与MCP如何融合构建AI应用全新智能中枢
回顾中 -
关于RISC-V生态发展的思考2025/09/02 周二 17:00-18:00
中国科学院计算技术研究所副所长包云岗教授
中科院包云岗老师将在本次直播中,探讨处理器生态的关键要素及其联系,分享过去几年推动RISC-V生态建设实践过程中的经验与教训。
回顾中 -
一键搞定华为云万级资源,3步轻松管理企业成本2025/09/09 周二 15:00-16:00
阿言 华为云交易产品经理
本直播重点介绍如何一键续费万级资源,3步轻松管理成本,帮助提升日常管理效率!
回顾中
热门标签