• [问题求助] ATLAS200dk,安装pytorch报错
    进行到这两步时会这么报错:一开始提示没有gen.sh,后来试着改成里面的另一个文件,结果报错,请问如何解决?另:请问要将在普通Windows电脑上训练好的pytroch框架的推理算法移植到200DK上运行,需要做哪些工作?
  • [问题求助] 【atlas200dk】pytorch安装报错
    根据这个链接pytorch安装安装pytorch安装到这一步时报错,且后面的环节也不能进行了。下一步4.1提示无对应的文件。
  • [API使用] 上下采样函数pytorch.nn.functional.interpolate()
    这个函数功能对应mindspore中的哪些函数,萌新在迁移的过程中遇到了这个函数 在api映射中没有发现这个函数的迁移,想知道解决问题的相关知识和方法。图中的三个函数在库中都没有找到迁移,就是F后面的函数。
  • [算子开发] 【CANN 产品】ATC 转换 ONNX 算子失败,提示 存在多个domain
    【功能模块】打算适配 pytorch  算子, 需要将pytorch 内的算子事先导出,但算子不存在onnx op 中,因此 参考[自定义算子导出方法](https://bbs.huaweicloud.com/forum/forum.php?mod=viewthread&tid=150135) 将算子导出,但是到使用atc转换为OM模型时,提示【操作步骤&问题现象】1、2、【截图信息】【日志信息】(可选,上传日志内容或者附件)
  • [算子编译] msp的nn.Conv2d怎么和pytorch的不一样
    【功能模块】mindspore 1.6【操作步骤&问题现象】1、我发现mindspore的nn.Conv2d和pytorch的Conv2d运行结果相差甚远,但是官方文档的解释算法明明是一样的2、kernel,padding,stride这些参数设置的都一样,为什么结果大不相同呢?是我漏掉了什么吗?【截图信息】mnist数据集选取一个图片数组使用pytorch的conv2d使用msp的conv2d【日志信息】(可选,上传日志内容或者附件)
  • [算子编译] mindspore怎么实现pytorch的ctx.save_for_backward和ctx.saved_tensors
    【功能模块】mindspore 1.6【操作步骤&问题现象】1、我在使用mindspore复现pytorch代码时,发现mindspore没有和pytorch的ctx.save_for_backward和ctx.saved_tensors相似的功能2、我以为可以用self.input和copy()代替,然后发现并不能3、请问mindspore有事先相似功能的函数吗?没有的话自定义类该怎么写呢?【截图信息】pytorch代码:msp代码【日志信息】(可选,上传日志内容或者附件)
  • [技术干货] 好望开发平台-模型转换 yolov5 -pytorch 转caffe 小帮助
    背景: 好望开发平台进行模型转换          1、yolov5推荐使用官方的代码https://github.com/ultralytics/yolov5           2、模型转换前需要把yolo.py中Detect中forward函数后处理部分注释掉,类似截图:(这个可以在模型训练过程中处理,或者在导出的时候重新定义forward函数)       3、把导出工具生成的.torchscript文件后缀改为.pth       4、正常使用好望开发平台进行模型转换 
  • [调试调优] mindspore上训练的模型准确率比pytorch上差
    【功能模块】mindspore和pytorch框架训练对比【操作步骤&问题现象】1、在cifar10数据集上,同样的训练参数训练60个epoch,resnet18模型在pytorch上训练准确率为77.8%,在mindspore只有74.8%(训练日志忘了截图)2、使用学习率指数衰减(nn.learning_rate_schedule.ExponentialDecayLR)和余弦退火衰减(nn.learning_rate_schedule.CosineDecayLR),训练准确率反而比不用学习率衰减更低(训练日志截图如下)模型用的是modelzoo里面的https://gitee.com/ascend/modelzoo,附件是代码【截图信息】两个框架的训练结果比较------------------------------------------------------2022.02.28更新点进去源码查看两个框架的resnet里的权重初始化方式是一样的,卷积层都是kaiming_normal,最后一层全连接层都是kaiming_uniform,而且参数都是一样的。唯一不同的一小点是最后一层全连接层的偏置层初始化,ms是全0初始化,pytorch也是kaiming_uniform。就这么一点初始化权重的差距我感觉没有办法使最后准确率差距达到3%以上。ms的fc层初始化实现pytorch的fc层初始化实现此外,我检查了两种框架的kaiming_uniform的实现,发现也都是一样的,并且做了样例测试,二者初始化后的均值和方差都是一样的ms的kaiming_uniform初始化样例结果:pytorch的kaiming_uniform层样例结果:【日志信息】(可选,上传日志内容或者附件)
  • [算子编译] pytorch的apply方法在mindspore中怎么实现
    【功能模块】mindspore版本1.6【操作步骤&问题现象】1、我在做自定义算子时遇到了一个问题,pytorch中有module.apply函数一次性对所有子模块初始化权重赋值,但msp中没有cell.apply2、所以msp中怎么实现相应方法呢【截图信息】pytorch代码:minspore代码【日志信息】(可选,上传日志内容或者附件)
  • [算子编译] pytorch自定义算子怎么用msp复现
    【功能模块】mindspore 1.6【操作步骤&问题现象】1、我想用msp复现脉冲网络(pytorch写的)的自定义算子,但是在官网上没有找到相应的教程,请问能提供一下如何转换的网页链接吗2、我根据一篇csdn的博客尝试用msp写了一下,但测试后发现根本不对,希望能指正我的问题,感谢!【截图信息】pytorch版:mindspore版【日志信息】(可选,上传日志内容或者附件)
  • [问题求助] 【atlas200dk】【Ascend PyTorch】找不到test_div.py
    【功能模块】【操作步骤&问题现象】1、2、【截图信息】【日志信息】(可选,上传日志内容或者附件)
  • [问题求助] 关于华为atlas 200DK运行pytorch的例子在哪儿看
    刚加入昇腾社区,搜索发现atlas200DK可以支持pytorch,但是看了很多的文档,都是atlas 200DK支持tensorflow的例子,包括看到的restnet50的例子也是关于tensorflow运行的例子,因此咨询一下在官网哪一个地方可以看到运行pytorch的例子.谢谢!!!
  • [调试调优] msp的model.train怎么实现pytorch的optimizer.zero_grad()和loss.backward()
    【功能模块】开发环境:Win10【操作步骤&问题现象】1、我在使用msp复现我的pytorch代码时,直接用model.train()训练模型,但是损失函数一直是0.1。和我的pytorch代码唯一不一样的是我在msp中没有optimizer.zero_grad()、loss.backward()和optimizer.step()2、我一直没有找到上诉三个在msp中的实现方法【截图信息】pytorch代码:def train(epoch):    model.train()    scheduler.step()    start_time = time.time()    total_loss = 0    for i, (images, labels) in enumerate(data_loader_train):        optimizer.zero_grad()        images = Variable(images)        one_hot = torch.zeros(100, 10).scatter(1, labels.unsqueeze(1), 1)        labels = Variable(one_hot)        outputs = model(images)        loss = cost(outputs, labels)        total_loss += float(loss)        loss.backward()        optimizer.step()def eval(epoch, if_test):    model.eval()    correct = 0    total = 0    if if_test:        for i, (images, labels) in enumerate(data_loader_test):            images = Variable(images)            labels = Variable(labels)            outputs= model(images)            pred = outputs.max(1)[1]            total += labels.size(0)            correct += (pred == labels).sum()        acc = 100.0 * correct.item() / total        print('Test correct: %d Accuracy: %.2f%%' % (correct, acc))        test_scores.append(acc)        if acc > max(test_scores):            save_file = str(epoch) + '.pt'            torch.save(model, os.path.join(save_path, save_file))    else:        for i, (images, labels) in enumerate(data_loader_train):            images = Variable(images)            labels = Variable(labels)            outputs = model(images)            pred = outputs.max(1)[1]            total += labels.size(0)            correct += (pred == labels).sum()        acc = 100.0 * correct.item() / total        print('Train correct: %d Accuracy: %.2f%%' % (correct, acc))        train_scores.append(acc)test_scores = []train_scores = []save_path = './LISNN_'if not os.path.exists(save_path):    os.mkdir(save_path)n_epoch = 10for epoch in range(n_epoch):    train(epoch)    if (epoch + 1) % 2 == 0:        eval(epoch, if_test = True)    if (epoch + 1) % 20 == 0:        eval(epoch, if_test = False)    if (epoch + 1) % 20 == 0:        print('Best Test Accuracy in %d: %.2f%%' % (epoch + 1, max(test_scores)))        print('Best Train Accuracy in %d: %.2f%%' % (epoch + 1, max(train_scores)))mindspore代码:# 定义训练函数def train(epoch, ckpoint_cb, sink_mode):    model.train(epoch,ds_train,callbacks=[ckpoint_cb, LossMonitor(125)], dataset_sink_mode=sink_mode) # 每过200个step就输出训练损失值# 定义验证函数def eval():    acc = model.eval(ds_test, dataset_sink_mode=False)    print("{}".format(acc))test_scores = []train_scores = []save_path = './LISNN_'if not os.path.exists(save_path):    os.mkdir(save_path)n_epoch = 20train(n_epoch,ckpoint,False) # 调用训练函数eval()【日志信息】
  • [API使用] pytorch的add_module(name,module)用mindspore怎么表示
    【功能模块】【操作步骤&问题现象】请问pytorch的add_module函数对于的mindspore是如何表示的?【截图信息】【日志信息】(可选,上传日志内容或者附件)
  • [执行问题] 【Mindinsight】【迁移模型定义脚本】Pytorch模型onnx转Mindspore
    环境mindinsight        1.5.0mindspore          1.5.0使用MindConverter能转换成功,但Expand和LogSoftMax算子不支持,我看算子文档应该是支持的吧report如下[Start Convert]line 1012:27: [UnConvert] 'onnx::Expand' didn't convert.line 1029:27: [UnConvert] 'onnx::Expand' didn't convert.line 1066:31: [UnConvert] 'onnx::LogSoftmax' didn't convert.[Convert Over]Converted Rate: 96.67%.