-
华为账号:任务一:邮箱:345368251@qq.com
-
1. 我的华为账号截图如下:2. 维度即为8*9*5,元素为3,输出相加的结果如下3. 我的邮箱2879056956@qq.com求大大发牌,想要洗牙器*-V-*
-
华为云账号:whw43454189_个人邮箱:906469791@qq.com
-
华为云账号:lhw79459023-个人邮箱:845053993@qq.com
-
北京爱数智慧科技有限公司(以下简称:爱数智慧)签署CCLA(Corporation Contribution License Agreement,企业贡献者协议)正式加入MindSpore社区。MindSpore是华为开源的一款全场景AI计算框架,旨在提供友好设计、高效运行、简捷部署的开发体验,目前应用于医疗、金融、科研等多个领域,提供面向端边云多种场景的主流硬件支持,并针对昇腾硬件平台提供深度优化能力。MindSpore着力构筑面向全球的人工智能开源社区,推动人工智能软硬件应用生态繁荣发展。MindSpore社区最新进展:40+伙伴应用上线、41w+下载量、社区贡献者2200+、ModelZoo支持模型160+。爱数智慧在加入MindSpore社区后,将与MindSpore社区用数据赋能更多 AI 开发者,基于AI计算框架加速开源生态创新。 如您想加入MindSpore社区,有签署CCLA的需求可以将原由发送至邮箱:huxiaoman@huawei.com 如有与MindSpore社区相关的任何疑问,详情可咨询MindSpore小助手 → 如何通过CHAOSS社区贡献度量指标?MindSpore社区为您实践分享→ MindCon | 招募:对组织活动感兴趣,想结识更多开源大咖的你MindSpore官方资料GitHub : https://github.com/mindspore-ai/mindsporeGitee:https : //gitee.com/mindspore/mindspore官方QQ群 : 871543426长按下方二维码加入MindSpore项目↓
-
【功能模块】环境:Mindspore-ascend-r1.1.1使用MatMul算子时,输入input和weights矩阵的dim不一致,运算报错!!那么如何计算3维Tensor矩阵和2维Tensor矩阵的矩阵乘法呢?【操作步骤&问题现象】import mindspore.ops as opsfrom mindspore import Tensorimport numpy as npmatmul = ops.MatMul()in_data = Tensor(np.random.randn(2,3,4))weights = Tensor(np.random.randn(4,4))res = matmul(in_data, weights)【截图信息】【日志信息】(可选,上传日志内容或者附件)
-
mindspore只能用cuda10.1吗? 我看版本检测的时候写死了,改不了.....
-
大家好,我是西安交大的一名研一学生,今年上半年在兼顾学业的情况下,参加了华为mindspore模型众筹的活动。目前模型已进入验收阶段,网络开发调试暂告一段落,如释重负。下面针对该活动发表一些感想并提出一些建议。整体活动很有意义,给深度学习新手一个动手实践的机会。我在开发mindspore模型过程中不仅学会了mindspore的使用方法(踩了不少坑...),也学习了不少深度学习理论知识以及pytorch的使用方法。得益于该项目,我的理论以及实践coding能力大大提高,这将为我日后在图像超分辨率重建领域的学习打下坚实基础。当然,还有一些建议:1.在布置模型开发阶段能够有更详细的说明,比如一些模型的paper不提供源码,很多细节没有给清楚,后来才得知允许在开发过程中更改一些类似optimizer的细节,可以在原网络结构上进行细微改动,这些希望可以早点通知到。2.提供更多算力支持,尤其在模型快验收阶段,需要经常使用8p跑程序,此时就会明显感觉到算力不够3.华为的技术人员能在我们开发过程中给出更多的技术支持,尽量每个领域有一个专家,我做的是一个相对小众的领域,很多细节问题需要真正懂某一领域的人才有可能解决。如果这都可以做到,那就是锦上添花。4. mindspore报错,mindspore的很多Error似乎只有开发人员或是有资深经验的工程师才能get到,尤其是数据集预处理那块的报错。对于新手而言就是一片茫然,有很大的挫败感。mindspore社区有不少讨论的帖子,希望有些经验日后可以分享到外部开发平台,如果能在StackOverflow上推广一下那就更好了。虽然难度很大,但是万丈高楼平地起,我相信华为有这个实力!5.mindspore教程文档或是代码接口文档可以进一步改善。在开发的过程中,我可以感觉到华为的雄心,希望mindspore可以和TF Pytorch媲美。其他方面先不说,文档这些方面就远远不如TF Pytorch,以一个简单的Scatter算子为例,我们对比其文档说明,如下图 我们会发现Pytorch和TF的文档质量明显更高,一个给出计算公式,一个图文并茂,这些都是对新手非常友好,支持一个新手继续开发;而mindspore则是言简意赅。总不能让学习mindspore的人要预先学习一遍Pytorch或是TF吧。我觉得Pytorch之所以能够在众多框架中弯道超车,其易用性作用不言而喻。如果mindspore哪一天可以做到这个水平,我想他在学术界和工业界肯定有很大的分量。以上只是个人浅见。 最后,感谢华为的各位工程师,以及社区的运营人员(之前还有幸和华为mindspore各个组件大佬交流,深感荣幸),他们及时的答复让我更有信心进行网络调试开发,这对初学者是非常大的鼓励。还要特别感谢给我一对一辅导的吴克宋宋哥。宋哥工作很负责,甚至有点“洁癖”,不少事情都会亲历亲为,包括看论文,论文源码实现,开发过程中遇到的语法问题,都会耐心解答;日常维护服务器,半夜环境升级,保证服务器正常运行;在PR阶段很多不懂的东西,比如Git,他会一点一点的教我们,还录了视频甚至会亲自帮我们修改代码。我相信,直到今天,他还在帮不少进度落后的同学亲手写代码/文档。平心而论,单纯技术超过他的工程师可能不少,但是他对学生的这份执着和负责应该是No.1。最后,祝mindspore越来越好,成为深度学习框架中的中流砥柱!
-
在TITAN RTX上运行以下代码def rescale_img(img_in, scale): resize_bilinear = ops.ResizeBilinear((img_in.shape[2]*scale, img_in.shape[3]*scale)) result = resize_bilinear(img_in) return result返回错误信息:经查询发现api中ResizeBilinear是支持GPU的,请问是什么问题呢?
-
【功能模块】安装tensorflow【操作步骤&问题现象】1、创建了MindSpore-1.1.1,TensorFlow1.15.0的公共镜像2、升级了pip的版本,根据提示安装相关依赖3、在安装tensorflow的时候报错Could not find a version that satisfies the requirement tensorflow4、尝试换其他的pip源仍然报相同的错【截图信息】【日志信息】(可选,上传日志内容或者附件)
-
下载数据集 注意直接读取压缩文件报错,需要先解压:解压读取数据,shuffle设置为True并打印数据个人邮箱 zhouqingtao2006@163.com
-
华为云账号:hid_jvri98mxcrn42l0个人邮箱:18391620870@163.com
-
华为云账号:hw51952327个人邮箱:547278563@qq.com
-
【功能模块】系统:windows10 WSL2:Ubuntu18.04mindspore1.2.1mindquantum0.2.0python3.7.5【操作步骤&问题现象】可以成功安装Mindspore和Mindquntum,但是在import的时候只能成功导入Mindspore,而Mindquantum则显示Illegal instruction.【截图信息】安装方式源码安装和pip安装都尝试了,结果一样,下图为安装结果pip list结果导入结果
-
【功能模块】import mindspore import numpy as np #引入numpy科学计算库 import matplotlib.pyplot as plt #引入绘图库 np.random.seed(123) #随机数生成种子 #from sklearn.model_selection import train_test_split#从sklearn里面引出训练与测试集划分 import mindspore.nn as nn import mindspore.ops as ops from mindspore import Tensor from mindspore import ParameterTuple, Parameter from mindspore import dtype as mstype # 训练数据集 def creat_dataset(): n_x=2*np.random.rand(500,1)#随机生成一个0-2之间的,大小为(500,1)的向量 n_y=5+3*n_x+np.random.randn(500,1)#随机生成一个线性方程的,大小为(500,1)的向量 x = Tensor(n_x, dtype=mindspore.float32) y = Tensor(n_y, dtype=mindspore.float32) return x, y class Net(nn.Cell): def __init__(self, input_dims, output_dims): super(Net, self).__init__() self.matmul = ops.MatMul() self.weight_1 = Parameter(Tensor(np.random.randn(input_dims, 128), dtype=mstype.float32), name='weight_1') self.bias_1 = Parameter(Tensor(np.zeros(128), dtype=mstype.float32), name='bias_1') self.weight_2 = Parameter(Tensor(np.random.randn(128, 64), dtype=mstype.float32), name='weight_2') self.bias_2 = Parameter(Tensor(np.zeros(64), dtype=mstype.float32), name='bias_2') self.weight_3 = Parameter(Tensor(np.random.randn(64, output_dims), dtype=mstype.float32), name='weight_3') self.bias_3 = Parameter(Tensor(np.zeros(output_dims), dtype=mstype.float32), name='bias_3') def construct(self, x): x = self.matmul(x, self.weight_1)+self.bias_1 x = self.matmul(x, self.weight_2)+self.bias_2 x = self.matmul(x, self.weight_3)+self.bias_3 return x class LossNet(nn.Cell): def __init__(self, net): super(LossNet, self).__init__() self.net = net self.pow = ops.Pow() self.mean = ops.ReduceMean() def construct(self, x, y): _x = self.net(x) loss = self.mean(self.pow(_x - y, 2)) return loss class GradNetWrtX(nn.Cell): def __init__(self, net): super(GradNetWrtX, self).__init__() self.net = net self.params = ParameterTuple(net.trainable_params()) self.grad_op = ops.GradOperation(get_by_list=True) def construct(self, x, y): gradient_function = self.grad_op(self.net, self.params) return gradient_function(x, y) def train(epochs, loss_net, x, y, print_flag=False): # 构建加和操作 ass_add = ops.AssignAdd() para_list = loss_net.trainable_params() for epoch in range(epochs): grad_net = GradNetWrtX(loss_net) grad_list = grad_net(x, y) for para, grad in zip(para_list, grad_list): ass_add(para, -0.000001*grad) if print_flag and (epoch%100 == 0): print("epoch: %s, loss: %s"%(epoch, loss_net(x, y))) def main(): epochs = 10000 x, y = creat_dataset() net = Net(x.shape[-1], y.shape[-1]) loss_net = LossNet(net) train(epochs, loss_net, x, y) y_hat = net(x) fig=plt.figure(figsize=(8,6))#确定画布大小 plt.title("Dataset")#标题名 plt.xlabel("First feature")#x轴的标题 plt.ylabel("Second feature")#y轴的标题 plt.scatter(x.asnumpy(), y.asnumpy())#设置为散点图 plt.scatter(x.asnumpy(), y_hat.asnumpy())#设置为散点图 plt.show()#绘制出来 if __name__ == '__main__': """ 设置运行的背景context """ from mindspore import context # 为mindspore设置运行背景context context.set_context(mode=context.GRAPH_MODE, device_target='GPU') import time a = time.time() main() b = time.time() print(b-a)【操作步骤&问题现象】1、运行一直提示警告,运行时间过长,一直无法获得结果警告信息如下:[WARNING] OPTIMIZER(4150,python):2021-07-06-22:53:34.396.781 [mindspore/ccsrc/frontend/optimizer/ad/dfunctor.cc:860] FindPrimalJPair] J operation has no relevant primal call in the same graph. Func graph: 119648_construct_wrapper, J user: 119648_construct_wrapper:construct{[0]: 803, [1]: x, [2]: y, [3]: ValueNode<UMonad> U}[WARNING] OPTIMIZER(4150,python):2021-07-06-22:53:34.540.042 [mindspore/ccsrc/frontend/optimizer/ad/dfunctor.cc:860] FindPrimalJPair] J operation has no relevant primal call in the same graph. Func graph: 119797_construct_wrapper, J user: 119797_construct_wrapper:construct{[0]: 804, [1]: x, [2]: y, [3]: ValueNode<UMonad> U}[WARNING] OPTIMIZER(4150,python):2021-07-06-22:53:34.667.100 [mindspore/ccsrc/frontend/optimizer/ad/dfunctor.cc:860] FindPrimalJPair] J operation has no relevant primal call in the same graph. Func graph: 119946_construct_wrapper, J user: 119946_construct_wrapper:construct{[0]: 805, [1]: x, [2]: y, [3]: ValueNode<UMonad> U}[WARNING] OPTIMIZER(4150,python):2021-07-06-22:53:34.796.065 [mindspore/ccsrc/frontend/optimizer/ad/dfunctor.cc:860] FindPrimalJPair] J operation has no relevant primal call in the same graph. Func graph: 120095_construct_wrapper, J user: 120095_construct_wrapper:construct{[0]: 806, [1]: x, [2]: y, [3]: ValueNode<UMonad> U}[WARNING] OPTIMIZER(4150,python):2021-07-06-22:53:34.920.186 [mindspore/ccsrc/frontend/optimizer/ad/dfunctor.cc:860] FindPrimalJPair] J operation has no relevant primal call in the same graph. Func graph: 120244_construct_wrapper, J user: 120244_construct_wrapper:construct{[0]: 807, [1]: x, [2]: y, [3]: ValueNode<UMonad> U}【截图信息】【日志信息】(可选,上传日志内容或者附件)
推荐直播
-
HDC深度解读系列 - Serverless与MCP融合创新,构建AI应用全新智能中枢2025/08/20 周三 16:30-18:00
张昆鹏 HCDG北京核心组代表
HDC2025期间,华为云展示了Serverless与MCP融合创新的解决方案,本期访谈直播,由华为云开发者专家(HCDE)兼华为云开发者社区组织HCDG北京核心组代表张鹏先生主持,华为云PaaS服务产品部 Serverless总监Ewen为大家深度解读华为云Serverless与MCP如何融合构建AI应用全新智能中枢
回顾中 -
关于RISC-V生态发展的思考2025/09/02 周二 17:00-18:00
中国科学院计算技术研究所副所长包云岗教授
中科院包云岗老师将在本次直播中,探讨处理器生态的关键要素及其联系,分享过去几年推动RISC-V生态建设实践过程中的经验与教训。
回顾中 -
一键搞定华为云万级资源,3步轻松管理企业成本2025/09/09 周二 15:00-16:00
阿言 华为云交易产品经理
本直播重点介绍如何一键续费万级资源,3步轻松管理成本,帮助提升日常管理效率!
回顾中
热门标签