• [其他问题] mindspore 1.2.0版本官网c++文档没有更新,与1.2.0库不一致
    mindspore 1.2.0版本官网c++文档没有更新,与1.2.0库不一致
  • [执行问题] mindspore mindspore.numpy.tri()在CPU上无法运行
    【功能模块】mindspore.numpy.tri()函数示例代码在CPU上无法运行【操作步骤&问题现象】1、按照示例代码,出现  AttributeError: module 'mindspore.numpy' has no attribute 'tri' 错误。2、【截图信息】【日志信息】(可选,上传日志内容或者附件)
  • [调试调优] MindSpore GPU训练loss不变
    我的图像分类模型,在npu上8卡训练和推理均正常,但是在GPU上8卡出现loss一直是初始值的问题,不管是cifar10还是ImageNet上如下图所示,第一个epoch的loss值跟在npu上差不多,但是后面的epoch中,所有的loss值跟第一个epoch都差不多,不下降,模型中算子均在GPU中支持,请问如何解决
  • [其他问题] mindspore能在华为源发布吗?http://cmc-cd-mirror.rnd.huawei.com/pypi/simpl
    mindspore能在华为源发布吗?http://cmc-cd-mirror.rnd.huawei.com/pypi/simple/ 华为自己源都不能下载。有些电脑无法连接外部源的。
  • [推理] 【MindSpore产品】【MindSpore Lite 端侧部署功能】垃圾分类实验端侧部署,手机不显示推理结果
    【功能模块】https://www.mindspore.cn/tutorial/lite/zh-CN/r1.1/quick_start/quick_start.html#id7【操作步骤&问题现象】1、Run App之后手机端APP可以正常运行,但是替换迁移学习后的mobilenetv2.ms模型以及MindSporeNetnative.cpp,CameraActivity文件后,手机端不能显示推理结果,如图所示。2、MindSpore训练版本,converter版本,以及cpp,java文件都是匹配MindSpore1.1.1【截图信息】【日志信息】(可选,上传日志内容或者附件)
  • [调试调优] mindspore1.0.0中到底如何加载预训练参数
    【功能模块】从mindsporehub中下载了resnet50在cifar上的预训练参数,然后加载到我的网络中,并print打印网络看网络的参数,发现加载前后网络的参数没有变化,这是为什么mode=resnet50(10)# print(mode)ckfile='./resnet50.ckpt'print(mode)param_dict = mindspore.load_checkpoint(ckfile)print(param_dict)mindspore.load_param_into_net(net=mode,parameter_dict=param_dict,strict_load=False)print(mode)也使用了midsporehub中说的from mindspore import context, Tensor, nnfrom mindspore.train.model import Modelfrom mindspore.common import dtype as mstypeimport mindspore_hub as mshubfrom mindspore.dataset.transforms import py_transformscontext.set_context(mode=context.GRAPH_MODE,                    device_target="Ascend",                    device_id=0)model = "mindspore/ascend/0.7/resnet50_v1.5_cifar10"network = mshub.load(model, class_num=10)print(network)发现加载两次后打印出来的网络参数都不一样,这样是不是根本没有加载网络的参数【操作步骤&问题现象】1、2、【截图信息】【日志信息】(可选,上传日志内容或者附件)
  • [热门活动] 2021全球机器学习大会:最新AI框架发展趋势和MindSpore实践
    在春暖花开的四月~Boolan 秉承“全球专家 卓越智慧”的宗旨! 汇聚全球顶尖IT技术专家~ 致力于为广大企业用户提供高端IT技术交流共享平台! 将在北京金茂威斯汀酒店, 举办“2021全球机器学习技术大会”! 大会特邀近40位机器学习领域的技术领袖和行业应用专家,与1000+来自电商、金融、汽车、智能制造、通信、工业互联网、医疗、教育等众多行业的精英参会听众,共同探讨人工智能领域的前沿理论和最佳实践。全球机器学习技术大会将是2021年最具影响力的人工智能技术会议。 4月16号 下午13:30-17:40算法框架与平台—会场三华为MindSpore 资深架构师 于璠分享AI框架的发展趋势以及MindSpore的实践所有演讲均来自业界一线实战专家现身说法,分享各领域的实践案例。多方位深度解析、头脑风暴,帮助参会者收获前人经验,干货满满,一起来看看大会议程吧!MindSpore开源已经有一周年啦,近期刚刚发布一款新的开源工具集——TinyMS旨在基于MindSpore提供简单有效的高阶API、低运行开销、模块化开发以及敏捷部署。堪称AI开发神器,上手简单又好用!MindSpore社区的小伙伴们为了降低学习门槛专门为大家配套了「TinyMS教程网剧」,每天用几分钟时间轻松学习使用MindSpore这样的新式硬核框架,边追剧边深度学习,AI开发能力不经意间提升!开源一周年的MindSpore社区,将在4月底的华为开发者大会为大家展示大量新特性,敬请期待!MindSpore官方资料 GitHub : https://github.com/mindspore-ai/mindsporeGitee:https : //gitee.com/mindspore/mindspore 官方QQ群 : 871543426 长按下方二维码加入MindSpore项目↓ 大会链接:http://ml-summit.org/
  • [活动体验] MindSpore版本更新体验——MindSpore 1.2.0-rc1版本
    1、更新结果:2、硬件平台及操作系统:X86 64位CPU,32G物理内存,win10专业版操作系统3、体验效果通过 宠物分类 (https://www.mindspore.cn/news/newschildren?id=354) 体验发现,1.2.0-rc1版本已经解决 windows环境下,模型文件因为路径正则不匹配导致导出失败的问题,查看相关代码,发现的确已经解决,提升了体验感受,版本质量进一步得到提升。修复结果如下(_checkparam.py文件):(上一个MindSpore版本不支持windows下带 冒号的文件路径)邮箱: chenkai5660689@huawei.com
  • [执行问题] 【MindSpore】【model_zoo】yolov3_darknet53训练报错
    【功能模块】model_zoo/official/cv/yolov3_darknet53【操作步骤&问题现象】使用自己的数据集执行训练脚本:python train.py \    --data_dir=/code/xxx/ \    --pretrained_backbone=xx.ckpt \    --is_distributed=0 \    --lr=0.001 \    --loss_scale=1024 \    --weight_decay=0.016 \    --T_max=320 \    --max_epoch=10 \    --warmup_epochs=4 \    --training_shape=416 \    --lr_scheduler=cosine_annealing数据集加载完成后报错:mindspore/ccsrc/backend/session/cpu_session.cc:271 buildkernel] mindspore/ccsrc/backend/kernel_compiler/cpu/slice_grad_cpu_kernel.cc:212 CheckParam] Input dim is 5, but SliceGradGpuKernel only support 4d or lower.运行环境为mindspore/mindspore-gpu:1.1.2镜像创建的容器,局域网不方便提供完整日志
  • [基础知识] 技术干货 | 基于MindSpore更好的理解Focal Loss
    本文来源于:知乎作者:李嘉琪今天更新一下恺明大神的Focal Loss,它是 Kaiming 大神团队在他们的论文Focal Loss for Dense Object Detection提出来的损失函数,利用它改善了图像物体检测的效果。ICCV2017RBG和Kaiming大神的新作(https://arxiv.org/pdf/1708.02002.pdf)。使用场景最近一直在做人脸表情相关的方向,这个领域的 DataSet 数量不大,而且往往存在正负样本不均衡的问题。一般来说,解决正负样本数量不均衡问题有两个途径: 1. 设计采样策略,一般都是对数量少的样本进行重采样 2. 设计 Loss,一般都是对不同类别样本进行权重赋值我两种策略都使用过,本文讲的是第二种策略中的 Focal Loss。论文分析我们知道object detection按其流程来说,一般分为两大类。一类是two stage detector(如非常经典的Faster R-CNN,RFCN这样需要region proposal的检测算法),第二类则是one stage detector(如SSD、YOLO系列这样不需要region proposal,直接回归的检测算法)。对于第一类算法可以达到很高的准确率,但是速度较慢。虽然可以通过减少proposal的数量或降低输入图像的分辨率等方式达到提速,但是速度并没有质的提升。对于第二类算法速度很快,但是准确率不如第一类。所以目标就是:focal loss的出发点是希望one-stage detector可以达到two-stage detector的准确率,同时不影响原有的速度。So,Why?and result?这是什么原因造成的呢?the Reason is:Class Imbalance(正负样本不平衡),样本的类别不均衡导致的。我们知道在object detection领域,一张图像可能生成成千上万的candidate locations,但是其中只有很少一部分是包含object的,这就带来了类别不均衡。那么类别不均衡会带来什么后果呢?引用原文讲的两个后果:(1) training is inefficient as most locations are easy negatives that contribute no useful learning signal;(2) en masse, the easy negatives can overwhelm training and lead to degenerate models.意思就是负样本数量太大(属于背景的样本),占总的loss的大部分,而且多是容易分类的,因此使得模型的优化方向并不是我们所希望的那样。这样,网络学不到有用的信息,无法对object进行准确分类。 其实先前也有一些算法来处理类别不均衡的问题,比如OHEM(online hard example mining),OHEM的主要思想可以用原文的一句话概括:In OHEM each example is scored by its loss, non-maximum suppression (nms) is then applied, and a minibatch is constructed with the highest-loss examples。OHEM算法虽然增加了错分类样本的权重,但是OHEM算法忽略了容易分类的样本。因此针对类别不均衡问题,作者提出一种新的损失函数:Focal Loss,这个损失函数是在标准交叉熵损失基础上修改得到的。这个函数可以通过减少易分类样本的权重,使得模型在训练时更专注于难分类的样本。为了证明Focal Loss的有效性,作者设计了一个dense detector:RetinaNet,并且在训练时采用Focal Loss训练。实验证明RetinaNet不仅可以达到one-stage detector的速度,也能有two-stage detector的准确率。公式说明介绍focal loss,在介绍focal loss之前,先来看看交叉熵损失,这里以二分类为例,原来的分类loss是各个训练样本交叉熵的直接求和,也就是各个样本的权重是一样的。公式如下:   因为是二分类,p表示预测样本属于1的概率(范围为0-1),y表示label,y的取值为{+1,-1}。当真实label是1,也就是y=1时,假如某个样本x预测为1这个类的概率p=0.6,那么损失就是-log(0.6),注意这个损失是大于等于0的。如果p=0.9,那么损失就是-log(0.9),所以p=0.6的损失要大于p=0.9的损失,这很容易理解。这里仅仅以二分类为例,多分类分类以此类推 为了方便,用pt代替p,如下公式2:。这里的pt就是前面Figure1中的横坐标。   为了表示简便,我们用p_t表示样本属于true class的概率。所以(1)式可以写成:   接下来介绍一个最基本的对交叉熵的改进,也将作为本文实验的baseline,既然one-stage detector在训练的时候正负样本的数量差距很大,那么一种常见的做法就是给正负样本加上权重,负样本出现的频次多,那么就降低负样本的权重,正样本数量少,就相对提高正样本的权重。因此可以通过设定 的值来控制正负样本对总的loss的共享权重。  取比较小的值来降低负样本(多的那类样本)的权重。   显然前面的公式3虽然可以控制正负样本的权重,但是没法控制容易分类和难分类样本的权重,于是就有了Focal Loss,这里的γ称作focusing parameter,γ>=0,称为调制系数:  为什么要加上这个调制系数呢?目的是通过减少易分类样本的权重,从而使得模型在训练时更专注于难分类的样本。通过实验发现,绘制图看如下Figure1,横坐标是pt,纵坐标是loss。CE(pt)表示标准的交叉熵公式,FL(pt)表示focal loss中用到的改进的交叉熵。Figure1中γ=0的蓝色曲线就是标准的交叉熵损失(loss)。 这样就既做到了解决正负样本不平衡,也做到了解决easy与hard样本不平衡的问题。 结论作者将类别不平衡作为阻碍one-stage方法超过top-performing的two-stage方法的主要原因。为了解决这个问题,作者提出了focal loss,在交叉熵里面用一个调整项,为了将学习专注于hard examples上面,并且降低大量的easy negatives的权值。是同时解决了正负样本不平衡以及区分简单与复杂样本的问题。 我们来看一下,基于MindSpore实现Focal Loss的代码: import mindspore import mindspore.common.dtype as mstype from mindspore.common.tensor import Tensor from mindspore.common.parameter import Parameter from mindspore.ops import operations as P from mindspore.ops import functional as F from mindspore import nn class FocalLoss(_Loss): def __init__(self, weight=None, gamma=2.0, reduction='mean'): super(FocalLoss, self).__init__(reduction=reduction) # 校验gamma,这里的γ称作focusing parameter,γ>=0,称为调制系数 self.gamma = validator.check_value_type("gamma", gamma, [float]) if weight is not None and not isinstance(weight, Tensor): raise TypeError("The type of weight should be Tensor, but got {}.".format(type(weight))) self.weight = weight # 用到的mindspore算子 self.expand_dims = P.ExpandDims() self.gather_d = P.GatherD() self.squeeze = P.Squeeze(axis=1) self.tile = P.Tile() self.cast = P.Cast() def construct(self, predict, target): targets = target # 对输入进行校验 _check_ndim(predict.ndim, targets.ndim) _check_channel_and_shape(targets.shape[1], predict.shape[1]) _check_predict_channel(predict.shape[1]) # 将logits和target的形状更改为num_batch * num_class * num_voxels. if predict.ndim > 2: predict = predict.view(predict.shape[0], predict.shape[1], -1) # N,C,H,W => N,C,H*W targets = targets.view(targets.shape[0], targets.shape[1], -1) # N,1,H,W => N,1,H*W or N,C,H*W else: predict = self.expand_dims(predict, 2) # N,C => N,C,1 targets = self.expand_dims(targets, 2) # N,1 => N,1,1 or N,C,1 # 计算对数概率 log_probability = nn.LogSoftmax(1)(predict) # 只保留每个voxel的地面真值类的对数概率值。 if target.shape[1] == 1: log_probability = self.gather_d(log_probability, 1, self.cast(targets, mindspore.int32)) log_probability = self.squeeze(log_probability) # 得到概率 probability = F.exp(log_probability) if self.weight is not None: convert_weight = self.weight[None, :, None] # C => 1,C,1 convert_weight = self.tile(convert_weight, (targets.shape[0], 1, targets.shape[2])) # 1,C,1 => N,C,H*W if target.shape[1] == 1: convert_weight = self.gather_d(convert_weight, 1, self.cast(targets, mindspore.int32)) # selection of the weights => N,1,H*W convert_weight = self.squeeze(convert_weight) # N,1,H*W => N,H*W # 将对数概率乘以它们的权重 probability = log_probability * convert_weight # 计算损失小批量 weight = F.pows(-probability + 1.0, self.gamma) if target.shape[1] == 1: loss = (-weight * log_probability).mean(axis=1) # N else: loss = (-weight * targets * log_probability).mean(axis=-1) # N,C return self.get_loss(loss)使用方法如下:from mindspore.common import dtype as mstype from mindspore import nn from mindspore import Tensor predict = Tensor([[0.8, 1.4], [0.5, 0.9], [1.2, 0.9]], mstype.float32) target = Tensor([[1], [1], [0]], mstype.int32) focalloss = nn.FocalLoss(weight=Tensor([1, 2]), gamma=2.0, reduction='mean') output = focalloss(predict, target) print(output) 0.33365273Focal Loss的两个重要性质 1. 当一个样本被分错的时候,pt是很小的,那么调制因子(1-Pt)接近1,损失不被影响;当Pt→1,因子(1-Pt)接近0,那么分的比较好的(well-classified)样本的权值就被调低了。因此调制系数就趋于1,也就是说相比原来的loss是没有什么大的改变的。当pt趋于1的时候(此时分类正确而且是易分类样本),调制系数趋于0,也就是对于总的loss的贡献很小。 2. 当γ=0的时候,focal loss就是传统的交叉熵损失,当γ增加的时候,调制系数也会增加。 专注参数γ平滑地调节了易分样本调低权值的比例。γ增大能增强调制因子的影响,实验发现γ取2最好。直觉上来说,调制因子减少了易分样本的损失贡献,拓宽了样例接收到低损失的范围。当γ一定的时候,比如等于2,一样easy example(pt=0.9)的loss要比标准的交叉熵loss小100+倍,当pt=0.968时,要小1000+倍,但是对于hard example(pt < 0.5),loss最多小了4倍。这样的话hard example的权重相对就提升了很多。这样就增加了那些误分类的重要性 Focal Loss的两个性质算是核心,其实就是用一个合适的函数去度量难分类和易分类样本对总的损失的贡献。 MindSpore官方资料 GitHub : https://github.com/mindspore-ai/mindsporeGitee:https : //gitee.com/mindspore/mindspore 官方QQ群 : 871543426 长按下方二维码加入MindSpore项目↓
  • [公告] 关于开源,MindSpore做的如何?2021中国软协年会分享总结!
    由中国软件行业协会,开放原子开源基金会共同举办的“ 2021中国软件产业年会开源软件创新发展论坛”于2021年4月7日在北京召开。本次大会以探讨软件开源方向,深化开源软件应用价值为核心,邀请知名开源项目负责人共济一堂,交流如何更高层次的更开放地推动开源项目发展。以更先进的开源协作创新模式,加入制造强国,网络强国,数字中国和智慧社会建设如火如荼的建设中。MindSpore运营总监胡晓曼编写的《MindSpore开源元年回顾》,介绍如何将MindSpore开源项目在一年内从零打造为制造业主流的人工智能框架,并通过MindSpore项目实践总结了开源运营的定义和核心内容。开放原子开源基金会秘书长杜玉杰发表《开放包容 和而不同》的演讲,通过开源演进的历史分析开源和社会发展以及科技发展间的关系,介绍不同开源基金会的运作模式,并详细阐述了在国内外不同法律体系、产业发展阶段和机遇下开放原子开源基金会的独特之处。百度资深研发工程师郑旗进行《可信账本内核项目介绍》的演讲,阐述了区块链的核心特点及XuperChain的发展历程,XuperChain具有可扩展、高性能、易使用、多场景等特点,已经在电子签约、广告监播、电子处方流转、商圈积分兑换、知识产权保护等领域得到应用。中科院软件所开源治理负责人罗未做了《OpenHarmony开源治理探索》的分享,梳理了OpenHarmony项目由开源捐赠到多个玩家共同组建开源工作组的过程,并介绍了OpenHarmony工作组的组成、职责及和Eclipse基金会合作的探索,让大家了解多个玩家如何共同治理开源项目。OpenEuler技术委员会委员马全一通过《openEuler— 从社区发展到商业闭环的实践》演讲,介绍了openEuler社区如何拓展种子用户、openEuler社区中个人开发者和商业开发者角色如何转变、openEuler将如何开源项目带入高校课堂以及不同开源模式间的比较,让大家了解开源社区的功能以及如何同商业进行闭环。 最后由开放原子开源基金会技术监督委员会主席堵俊平主持人《开源项目发展经验与总结》的面板,对开源运营的价值,专职团队建立以及和商业的结合,海外开源项目的成功经验,社区开发和本次论坛的各个副本和圆桌中,各位嘉宾和相互热烈参与讨论,为开源如何在数字化时代中使能软件产业的发展出谋划划策,提供理论和实践基础。 MindSpore开源已经有一周年啦,近期刚刚发布一款新的开源工具集——TinyMS旨在基于MindSpore提供简单有效的高阶API、低运行开销、模块化开发以及敏捷部署。堪称AI开发神器,上手简单又好用! MindSpore社区的小伙伴们为了降低学习门槛专门为大家配套了「TinyMS教程网剧」,每天用几分钟时间轻松学习使用MindSpore这样的新式硬核框架,边追剧边深度学习,AI开发能力不经意间提升! 开源一周年的MindSpore社区,将在4月底的华为开发者大会为大家展示大量新特性,敬请期待! MindSpore官方资料 GitHub : https://github.com/mindspore-ai/mindsporeGitee:https : //gitee.com/mindspore/mindspore 官方QQ群 : 871543426 长按下方二维码加入MindSpore项目↓
  • [执行问题] mindspore 图算融合loss出现异常
    在Ascend 910A 、mindspore1.1.2 环境下运行图算融合,网络架构是Resnet 50 ,同样的参数条件下,程序正常运行没有任何问题,但是程序中加上(enable_graph_kernel=True) 之后,有时候训练时 loss变为负无穷大,有时候会变成nan,然后都会报错。具体报错的内容如下:amp_level: O2WARNING: 'ControlDepend' is deprecated from version 1.1 and will be removed in a future version, use 'Depend' instead.epoch: 1 step: 1, loss is 2.2937918WARNING: 'ControlDepend' is deprecated from version 1.1 and will be removed in a future version, use 'Depend' instead.epoch: 1 step: 71, loss is 4803.1064epoch: 1 step: 72, loss is 4034.7324epoch: 1 step: 142, loss is -5.3169115e+37epoch: 1 step: 143, loss is 2.3025851epoch: 1 step: 213, loss is -3.4028235e+38epoch: 1 step: 214, loss is 2.3025851[ERROR] RUNTIME(75982)model execute error, retCode=0x91, [the model stream execute failed].[ERROR] RUNTIME(75982)model execute task failed, device_id=5, model stream_id=526, model task_id=14, model_id=513, first_task_id=65535[ERROR] RUNTIME(75982)aicore kernel execute failed, device_id=5, stream_id=531, task_id=302, fault kernel_name=Fused_Add_RealDiv_fusion_15159710175106831708_kernel0, func_name=Fused_Add_RealDiv_fusion_15159710175106831708_kernel0[ERROR] DEVICE(75885,python3.7):2021-04-13-08:26:59.217.107 [mindspore/ccsrc/runtime/device/ascend/ascend_kernel_runtime.cc:569] GetErrorNodeName] Node: Default/GraphKernel_Add_RealDiv_fusion-op16882, run task error.[ERROR] DEVICE(75885,python3.7):2021-04-13-08:26:59.218.172 [mindspore/ccsrc/runtime/device/ascend/ascend_kernel_runtime.cc:587] DumpTaskExceptionInfo] Dump node (Default/GraphKernel_Add_RealDiv_fusion-op16882) task error input/otput data to: ./task_error_dump/5 Error msg:  model execute failed trace:[ERROR] DEVICE(75885,python3.7):2021-04-13-08:26:59.219.537 [mindspore/ccsrc/runtime/device/ascend/ascend_device_address.cc:663] DumpMemToFile] SyncDeviceToHost: rtMemcpy mem size[4] fail, ret[507899][ERROR] DEVICE(75885,python3.7):2021-04-13-08:26:59.221.399 [mindspore/ccsrc/runtime/device/ascend/ascend_kernel_runtime.cc:569] GetErrorNodeName] Node: Default/GraphKernel_Add_RealDiv_fusion-op16882, run task error.[ERROR] DEVICE(75885,python3.7):2021-04-13-08:26:59.222.187 [mindspore/ccsrc/runtime/device/ascend/ascend_kernel_runtime.cc:587] DumpTaskExceptionInfo] Dump node (Default/GraphKernel_Add_RealDiv_fusion-op16882) task error input/otput data to: ./task_error_dump/5 Error msg:  model execute failed trace:[ERROR] DEVICE(75885,python3.7):2021-04-13-08:26:59.223.474 [mindspore/ccsrc/runtime/device/ascend/ascend_device_address.cc:663] DumpMemToFile] SyncDeviceToHost: rtMemcpy mem size[4] fail, ret[507899][ERROR] SESSION(75885,python3.7):2021-04-13-08:26:59.524.099 [mindspore/ccsrc/backend/session/ascend_session.cc:1033] Execute] run task error!Traceback (most recent call last):  File "train_profile.py", line 170, in <module>    model.train(args.epoch_size, ds_train, callbacks=callbacks, dataset_sink_mode=True)  # sink_size=200  File "/opt/python3.7.5/lib/python3.7/site-packages/mindspore/train/model.py", line 592, in train    sink_size=sink_size)  File "/opt/python3.7.5/lib/python3.7/site-packages/mindspore/train/model.py", line 391, in _train    self._train_dataset_sink_process(epoch, train_dataset, list_callback, cb_params, sink_size)  File "/home/mayinping/ms-seng-img2col-opt2/model_seng.py", line 236, in _train_dataset_sink_process    outputs = self._train_network(*inputs)  File "/opt/python3.7.5/lib/python3.7/site-packages/mindspore/nn/cell.py", line 322, in __call__    out = self.compile_and_run(*inputs)  File "/opt/python3.7.5/lib/python3.7/site-packages/mindspore/nn/cell.py", line 592, in compile_and_run    return _executor(self, *new_inputs, phase=self.phase)  File "/opt/python3.7.5/lib/python3.7/site-packages/mindspore/common/api.py", line 585, in __call__    return self.run(obj, *args, phase=phase)  File "/opt/python3.7.5/lib/python3.7/site-packages/mindspore/common/api.py", line 613, in run    return self._exec_pip(obj, *args, phase=phase_real)  File "/opt/python3.7.5/lib/python3.7/site-packages/mindspore/common/api.py", line 75, in wrapper    results = fn(*arg, **kwargs)  File "/opt/python3.7.5/lib/python3.7/site-packages/mindspore/common/api.py", line 596, in _exec_pip    return self._executor(args_list, phase)RuntimeError: mindspore/ccsrc/backend/session/ascend_session.cc:1033 Execute] run task error!# In file /home/mayinping/ms-seng-img2col-opt2/seng.py(109)        for i in range(54):现在不知道是什么原因导致图算融合无法运行,有哪位大神可以指点一下吗?
  • [执行问题] mindspore中模型训练出错,但没有error提示
    【功能模块】model.train无法进行,没有到底是什么错误的提示【操作步骤&问题现象】1、2、【截图信息】def construct(self, x): x = self.conv1(x) x = self.bn1(x) x = self.relu(x) x = self.maxpool(x) x = self.layer1(x) x = self.layer2(x) x = self.layer3(x) x = self.layer4(x)#(b,2048,25,12)输入到赤化层,编程(6,1),可以自己算一次 #youdianwen题,输出有点不太对啊 # 这里写怎么设置 # sx = int(x.shape[2] / self.part) # import math # sx=x.shape[2] //self.part#4 # # kx = x.shape[2] - sx * (self.part-1)#5 # # x = F.avg_pool2d(x, kernel_size=(kx, x.size(3)), stride=(sx, x.size(3))) # # avgpool=ops.AvgPool(ksize=(kx, x.shape[3]),strides=(sx, x.shape[3])) # #如果写死了,就不能去改变输入的尺寸 # pool=nn.AvgPool2d(kernel_size=(kx, x.shape[3]),stride=(sx, x.shape[3])) # x = pool(x)#池化这里可以用笨比方法 x=self.avgpool(x) x = self.dropout(x) part = {} predict = {} # y = x.asnumpy() # 这里估计也要改,先转化为bunpy格式,在展开,要不可能不靠谱 asnumpy()可以转化为numpy # part[0] = Tensor(x[:, :, 0].reshape(x.shape[0], x.shape[1])) # part[0] =self.reshape(x[:, :, 0],(x.shape[0], x.shape[1])) part[0] = self.reshape(x[:, :, 0],(x.shape[0], x.shape[1])) predict[0] = self.classifier1(part[0]) # part[1] = Tensor(x[:, :, 1].reshape(x.shape[0], x.shape[1])) part[1] = self.reshape(x[:, :, 1],(x.shape[0], x.shape[1])) predict[1] = self.classifier2(part[1]) # part[2] = Tensor(x[:, :, 2].reshape(x.shape[0], x.shape[1])) part[2] = self.reshape(x[:, :, 2],(x.shape[0], x.shape[1])) predict[2] = self.classifier3(part[2]) # part[3] = Tensor(x[:, :, 3].reshape(x.shape[0], x.shape[1])) part[3] = self.reshape(x[:, :, 3],(x.shape[0], x.shape[1])) predict[3] = self.classifier4(part[3]) # part[4] = Tensor(x[:, :, 4].reshape(x.shape[0], x.shape[1])) part[4] = self.reshape(x[:, :, 4],(x.shape[0], x.shape[1])) predict[4] = self.classifier5(part[4]) # part[5] = Tensor(x[:, :, 5].reshape(x.shape[0], x.shape[1])) part[5] = self.reshape(x[:, :, 5],(x.shape[0], x.shape[1])) predict[5] = self.classifier6(part[5]) # # get six part feature batchsize*2048*6 # for i in range(self.part): # part[i] = x[:, :, i].view(x.size(0), x.size(1)) # name = 'classifier' + str(i) # c = getattr(self, name) # predict[i] = c(part[i]) # sum prediction # y = predict[0] # for i in range(self.part-1): # y += predict[i+1] y = [] for i in range(self.part): y.append(predict[i]) return y【日志信息】(可选,上传日志内容或者附件)In file /usr/local/ma/python3.7/lib/python3.7/site-packages/mindspore/ops/composite/multitype_ops/setitem_impl.py(247)def _tensor_setitem_by_tensor_v2(data, index, value):14. [List, Number, List]In file /usr/local/ma/python3.7/lib/python3.7/site-packages/mindspore/ops/composite/multitype_ops/setitem_impl.py(73)def _list_setitem_with_List(data, number_index, value):^15. [Dictionary, String, Number]In file /usr/local/ma/python3.7/lib/python3.7/site-packages/mindspore/ops/composite/multitype_ops/setitem_impl.py(121)def _dict_setitem_with_number(data, key, value):^16. [Tensor, Tensor, Number]In file /usr/local/ma/python3.7/lib/python3.7/site-packages/mindspore/ops/composite/multitype_ops/setitem_impl.py(160)def _tensor_setitem_by_tensor_with_number(data, index, value):17. [Tensor, Slice, Tensor]In file /usr/local/ma/python3.7/lib/python3.7/site-packages/mindspore/ops/composite/multitype_ops/setitem_impl.py(263)def _tensor_setitem_with_slice_v3(data, input_slice, value):18. [Tensor, Slice, Number]In file /usr/local/ma/python3.7/lib/python3.7/site-packages/mindspore/ops/composite/multitype_ops/setitem_impl.py(285)def _tensor_setitem_with_slice_v1(data, input_slice, value):19. [Tensor, Number, Number]In file /usr/local/ma/python3.7/lib/python3.7/site-packages/mindspore/ops/composite/multitype_ops/setitem_impl.py(307)def _tensor_setitem_with_int_v1(data, index, value):The function call stack:# 0 # 1 In file /usr/local/ma/python3.7/lib/python3.7/site-packages/mindspore/train/dataset_helper.py(83)return self.network(*outputs)^# 2 In file /usr/local/ma/python3.7/lib/python3.7/site-packages/mindspore/train/dataset_helper.py(83)return self.network(*outputs)
  • [活动体验] 春雷惊百虫,奖品展示
    和室友一起参加MindSpore,不仅获得知识,还获得实用奖品,我的电饼铛和室友的汤锅是最佳组合,正在煲汤和韭菜盒子,精神食粮和物质食粮兼得,以后继续参加MindSpore活动!
  • [调试调优] 【Mindspore】【反向传递】反向传递过程中遇到未知问题
    【功能模块】mindspore1.2 cpu【操作步骤&问题现象】1、在计算loss值时可以正常计算得到结果2、在把loss网络添加到trainonestepcell之后,就不能正常计算,报错如下:我的模型里并不包含这一算子。但是他会报找不到这个算子的错误。【截图信息】具体的withlosscell实现:具体的trainOnsestepcell实现:希望能得到讲解,谢谢!【日志信息】(可选,上传日志内容或者附件)