-
你好, 1.在外部使用IDE-daemon-client命令向atlas200DK传文件时失败,发现atlas200DK的22118端口不通 2.ssh到atlas200DK上执行telnet 22118端口,该端口也不通, 是不是有服务未开启,或者其他原因?
-
这个报错是什么意思 看不懂了 麻烦大佬帮助一下
-
我已进行了 作为x86 ubuntu 18.04的开发环境,作为arm(200dk) ubuntu 18.04的运行环境 的CANN 5.1.RC2相关环境的安装也在 x86开发环境安装了 MindStudio 5.0,并在MindStudio中配置了CANN。有几个问题想问下:1.作为x86 ubuntu 18.04的开发环境,能运行atc模型转换的程序吗?目前如果在x86的命令行,执行模型转换命令,具体步骤如下:cd mindxsdk-referenceapps/contrib/CartoonGANPicture/data/model/atc --output_type=FP32 --input_shape="train_real_A:1,256,256,3" --input_format=NHWC --output="cartoonization" --soc_version=Ascend310 --insert_op_conf=insert_op.cfg --framework=3 --model="cartoonization.pb" --precision_mode=allow_fp32_to_fp16运行后直接报:具体如下:ascend@ubuntu:~$ cd mindxsdk-referenceapps/contrib/CartoonGANPicture/data/model/ ascend@ubuntu:~/mindxsdk-referenceapps/contrib/CartoonGANPicture/data/model$ atc --output_type=FP32 --input_shape="train_real_A:1,256,256,3" --input_format=NHWC --output="cartoonization" --soc_version=Ascend310 --insert_op_conf=insert_op.cfg --framework=3 --model="cartoonization.pb" --precision_mode=allow_fp32_to_fp16 /home/ascend/Ascend/ascend-toolkit/5.1.RC2/x86_64-linux/bin/atc.bin: error while loading shared libraries: libascend_hal.so: cannot open shared object file: No such file or directory 是因为哪里的环境变量不对吗?
-
我已进行了 作为x86 ubuntu 18.04的开发环境,作为arm(200dk) ubuntu 18.04的运行环境 的CANN 5.1.RC2相关环境的安装也在 x86开发环境安装了 MindStudio 5.0,并配置了CANN。具体过程参见:cid:link_0cid:link_1cid:link_2现在如果我想复现 MindX SDK的项目,我已经完成了在 x86开发环境安装 MindX SDK 3.0.RC2的x86版本,在 arm运行环境(200DK)安装 MindX SDK 3.0.RC2的arm版本。我还需要跟 cann toolkit那样 在x86开发环境安装 MindX SDK 3.0.RC2的arm版本吗?如果不装,会影响x86环境的交叉编译的代码在 200DK上运行吗?
-
我只有Atlas200DK,没有Ascend910训练服务器,现在使用GPU训练生成了ckpt文件,如何转成om模型进行推理
-
在modelzoo上能下载到相关的onnx模型及转化的om模型,但在samples中所使用的均是caffemodel转化的om,对onnx转化的om模型推理后处理不是很明白如何写解析,求一个样例学习一下,感谢!
-
为了实现在200DK上使用MindStudio 5.0的壮举,张小白问了一个关键的问题:cid:link_0MindStudio 5.0能不能使用CANN 5.1RC2的社区版呢?得到的回答是:社区版也可以。那就开干吧!但显然,我们需要对200DK制卡。这就需要安装ubuntu 18.04的开发环境了。我们参考 cid:link_1 文档的方式,先准备好ubuntu虚拟机,以及Java11,安装的过程跟链接里面几乎一模一样,所以就不再详述了。看结果:下面就开启征程吧!(未完待续)
-
tensorflow version:1.14python:3.75导出的pb模型,用atc转om报错:E19005: Failed to parse file [./crnn_1.pb].Solution: Check that a matched Protobuf version is installed and try again with a valid file. For details, see section "--framework" in ATC Instructions.ATC model parse ret fail.[FUNC:ParseGraph][FILE:omg.cc][LINE:788]请问atc依赖的protobuf的版本是什么?我自己安装了一个protobuf但貌似没用detail log:,0][EVENT] TBE(29475,python3):2022-08-17-15:42:57.502.234 [../../../../../../latest/atc/python/site-packages/tbe/common/repository_manager/utils/repository_manager_log.py:29][log] [../../../../../../latest/atc/python/site-packages/tbe/common/repository_manager/route.py:367][repository_manager] The task_distribute function entry. [0] tasks of the same type is running. ,0][EVENT] TBE(29475,python3):2022-08-17-15:43:03.166.585 [../../../../../../latest/atc/python/site-packages/tbe/common/repository_manager/utils/repository_manager_log.py:29][log] [../../../../../../latest/atc/python/site-packages/tbe/common/repository_manager/route.py:376][repository_manager] The task_distribute function get finalize task. ,0][EVENT] TBE(29475,python3):2022-08-17-15:43:03.168.214 [../../../../../../latest/atc/python/site-packages/tbe/common/repository_manager/utils/repository_manager_log.py:29][log] [../../../../../../latest/atc/python/site-packages/tbe/common/repository_manager/route.py:390][repository_manager] The current function exits. [0] tasks of the same type are left.
-
tf1.14,使用keras2onnx 完成onnx模型的转换,onnx模型能够正常使用。用atc转为om后预估会报错:Default MaxPoolingOp only supports NHWC on device type CPU转换脚本:atc --model={models_dir}/{onnx_model_name} --framework=5 --output={output_dir}/{om_model_name} --input_shape="{input_name}:{input_shape}" --enable_small_channel=1 --soc_version=Ascend310 --log=info')input shape:(None,step,feature),分别是batch,sequence长度和特征维度报错op在tensorlfow中为GlobalMaxPool1D下面是acl的日志[EVENT] CCECPU(4066,python):2022-08-16-14:42:55.361.614 [tf_adpt_session_mgr.cc:398][tid:4076][TFAdapter] [sessionID:16599357285206909441] Create session success. [ERROR] CCECPU(4066,python):2022-08-16-14:42:55.505.915 [aicpu_tf_kernel.cc:138][tid:4075][TFAdapter] AICPUKernelAndDeviceOp Init failure, kernel_id=0, op_name=MaxPool, error=Invalid argument: Default MaxPoolingOp only supports NHWC on device type CPU [ERROR] CCECPU(4066,python):2022-08-16-14:42:55.506.012 [tf_adpt_session_mgr.cc:149][tid:4075][TFAdapter] [sessionID:16599357285206909441] Create kernel failure, kernel_id=0, op_name=. [ERROR] CCECPU(4066,python):2022-08-16-14:42:55.506.031 [tf_adpt_session_mgr.cc:94][tid:4075][TFAdapter] [sessionID:16599357285206909441] Create kernel failed, kernel_id=0. [ERROR] CCECPU(4066,python):2022-08-16-14:42:55.506.052 [tf_adpt_session_mgr.cc:64][tid:4075][TFAdapter] [sessionID:16599357285206909441] Failed to GetOrCreateKernel, kernel_id=0. [ERROR] CCECPU(4066,python):2022-08-16-14:42:55.506.075 [tf_adpt_session_mgr.cc:433][tid:4075][TFAdapter] [sessionID:16599357285206909441] Run kernel on session failed. [ERROR] CCECPU(4066,python):2022-08-16-14:42:55.506.090 [tf_adpt_api.cc:86][tid:4075][TFAdapter] [sessionID:16599357285206909441] Invoke TFOperateAPI failed. [ERROR] CCECPU(4066,python):2022-08-16-14:42:55.506.106 [ae_kernel_lib_fwk.cc:234][TransformKernelErrorCode][tid:4075][AICPU_PROCESSER] Call tf api return failed:5, input param to tf api:0xfffef9e4a004 [ERROR] CCECPU(4066,python):2022-08-16-14:42:55.506.155 [aicpusd_event_process.cpp:1227][ExecuteTsKernelTask][tid:4075] Aicpu engine process failed, result[5]. ,0][ERROR] RUNTIME(4066,python):2022-08-16-14:42:55.506.515 [engine.cc:1131]4096 ReportExceptProc:Task exception! device_id=0, stream_id=1, task_id=1, type=13, retCode=0x91, [the model stream execute failed]. ,0][ERROR] RUNTIME(4066,python):2022-08-16-14:42:55.509.834 [device_error_proc.cc:667]4096 ProcessAicpuErrorInfo:report error module_type=0, module_name=E39999 ,0][ERROR] RUNTIME(4066,python):2022-08-16-14:42:55.509.936 [device_error_proc.cc:667]4096 ProcessAicpuErrorInfo:An exception occurred during AICPU execution, stream_id:4, task_id:46, errcode:5, msg:aicpu execute failed. ,0][ERROR] RUNTIME(4066,python):2022-08-16-14:42:55.510.114 [task.cc:746]4096 PrintAicpuErrorInfo:report error module_type=0, module_name=E39999 ,0][ERROR] RUNTIME(4066,python):2022-08-16-14:42:55.510.142 [task.cc:746]4096 PrintAicpuErrorInfo:Aicpu kernel execute failed, device_id=0, stream_id=4, task_id=46. ,0][ERROR] RUNTIME(4066,python):2022-08-16-14:42:55.510.242 [task.cc:764]4096 PrintAicpuErrorInfo:Aicpu kernel execute failed, device_id=0, stream_id=4, task_id=46, flip_num=0, fault so_name=, fault kernel_name=, fault op_name=Attention/Reshape_12:0_pooling, extend_info=(info_type:4, info_len:30, msg_info:Attention/Reshape_12:0_pooling). ,0][ERROR] RUNTIME(4066,python):2022-08-16-14:42:55.510.270 [task.cc:3148]4096 ReportErrorInfo:model execute error, retCode=0x91, [the model stream execute failed]. ,0][ERROR] RUNTIME(4066,python):2022-08-16-14:42:55.510.289 [task.cc:3120]4096 PrintErrorInfo:model execute task failed, device_id=0, model stream_id=1, model task_id=1, flip_num=0, model_id=5, first_task_id=65535 ,0][ERROR] RUNTIME(4066,python):2022-08-16-14:42:55.510.450 [stream.cc:843]4066 GetError:[EXEC][DEFAULT]Stream Synchronize failed, stream_id=1 retCode=0x91, [the model stream execute failed]. ,0][ERROR] RUNTIME(4066,python):2022-08-16-14:42:55.510.487 [stream.cc:846]4066 GetError:[EXEC][DEFAULT]report error module_type=7, module_name=EE9999
-
就想问一下阿特拉斯200有没有一些模型的测试表? ,哪些模型可以用?
-
在我使用docker容器启动时,系统报错,找不打文件
-
使用modelzoo FasterRcnn模型进行推理,https://www.hiascend.com/zh/software/modelzoo/models/detail/C/8d8b656fe2404616a1f0f491410a224c实验思路是:通过服务器训练出ckpt模型,在开发板上面进行模型转换,后进行推理现在模型转换报错(在docker容器中进行转换)报错内容:docker中环境变量设置:查询出来的libmmpa.so文件
-
在媒体插件中使用处理方式为opencv时,报如下错误
-
如题,CANN 5.05alpha001 的amct工具,历史版本里没找到我看的是社区版,我看商用版5.04有这个工具,但是我权限不够无法下载
-
0、CANN 5.0.21、query model failed,返回错误码5000022、模型转换成功,但是执行时保错3、/var/log/npu/slog/host-0下的日志见附件
推荐直播
-
HDC深度解读系列 - Serverless与MCP融合创新,构建AI应用全新智能中枢2025/08/20 周三 16:30-18:00
张昆鹏 HCDG北京核心组代表
HDC2025期间,华为云展示了Serverless与MCP融合创新的解决方案,本期访谈直播,由华为云开发者专家(HCDE)兼华为云开发者社区组织HCDG北京核心组代表张鹏先生主持,华为云PaaS服务产品部 Serverless总监Ewen为大家深度解读华为云Serverless与MCP如何融合构建AI应用全新智能中枢
回顾中 -
关于RISC-V生态发展的思考2025/09/02 周二 17:00-18:00
中国科学院计算技术研究所副所长包云岗教授
中科院包云岗老师将在本次直播中,探讨处理器生态的关键要素及其联系,分享过去几年推动RISC-V生态建设实践过程中的经验与教训。
回顾中 -
一键搞定华为云万级资源,3步轻松管理企业成本2025/09/09 周二 15:00-16:00
阿言 华为云交易产品经理
本直播重点介绍如何一键续费万级资源,3步轻松管理成本,帮助提升日常管理效率!
回顾中
热门标签