• [问题求助] atlas200DK 无法使用IDE-daemon-client 22118端口未开放
    你好,    1.在外部使用IDE-daemon-client命令向atlas200DK传文件时失败,发现atlas200DK的22118端口不通    2.ssh到atlas200DK上执行telnet 22118端口,该端口也不通,    是不是有服务未开启,或者其他原因?
  • [问题求助] msame推理报错
    这个报错是什么意思 看不懂了 麻烦大佬帮助一下
  • [问题求助] 在x86 ubuntu 18.04的开发环境运行atc模型转换程序报找不到 libascend_hal.so
    我已进行了 作为x86 ubuntu 18.04的开发环境,作为arm(200dk) ubuntu 18.04的运行环境 的CANN 5.1.RC2相关环境的安装也在 x86开发环境安装了 MindStudio 5.0,并在MindStudio中配置了CANN。有几个问题想问下:1.作为x86 ubuntu 18.04的开发环境,能运行atc模型转换的程序吗?目前如果在x86的命令行,执行模型转换命令,具体步骤如下:cd mindxsdk-referenceapps/contrib/CartoonGANPicture/data/model/atc --output_type=FP32 --input_shape="train_real_A:1,256,256,3" --input_format=NHWC --output="cartoonization" --soc_version=Ascend310 --insert_op_conf=insert_op.cfg --framework=3 --model="cartoonization.pb" --precision_mode=allow_fp32_to_fp16运行后直接报:具体如下:ascend@ubuntu:~$ cd mindxsdk-referenceapps/contrib/CartoonGANPicture/data/model/ ascend@ubuntu:~/mindxsdk-referenceapps/contrib/CartoonGANPicture/data/model$ atc --output_type=FP32 --input_shape="train_real_A:1,256,256,3"  --input_format=NHWC --output="cartoonization" --soc_version=Ascend310 --insert_op_conf=insert_op.cfg --framework=3 --model="cartoonization.pb" --precision_mode=allow_fp32_to_fp16 /home/ascend/Ascend/ascend-toolkit/5.1.RC2/x86_64-linux/bin/atc.bin: error while loading shared libraries: libascend_hal.so: cannot open shared object file: No such file or directory 是因为哪里的环境变量不对吗?
  • [问题求助] 200DK+CANN 5.1.RC2社区版+MindStudio 5.0RC2环境如何支持MindX SDK工程?
    我已进行了 作为x86 ubuntu 18.04的开发环境,作为arm(200dk) ubuntu 18.04的运行环境 的CANN 5.1.RC2相关环境的安装也在 x86开发环境安装了 MindStudio 5.0,并配置了CANN。具体过程参见:cid:link_0cid:link_1cid:link_2现在如果我想复现 MindX SDK的项目,我已经完成了在 x86开发环境安装 MindX SDK 3.0.RC2的x86版本,在 arm运行环境(200DK)安装 MindX SDK 3.0.RC2的arm版本。我还需要跟 cann toolkit那样 在x86开发环境安装 MindX SDK 3.0.RC2的arm版本吗?如果不装,会影响x86环境的交叉编译的代码在 200DK上运行吗?
  • [其他问题] MindSpore训练出来ckpt模型如何转成om模型
    我只有Atlas200DK,没有Ascend910训练服务器,现在使用GPU训练生成了ckpt文件,如何转成om模型进行推理
  • [问题求助] atlas200dk 有没有onnx转化的om模型测试样例
    在modelzoo上能下载到相关的onnx模型及转化的om模型,但在samples中所使用的均是caffemodel转化的om,对onnx转化的om模型推理后处理不是很明白如何写解析,求一个样例学习一下,感谢!
  • [技术干货] 在200DK上安装CANN 5.1.RC2.alpha008社区版的尝试
    为了实现在200DK上使用MindStudio 5.0的壮举,张小白问了一个关键的问题:cid:link_0MindStudio 5.0能不能使用CANN 5.1RC2的社区版呢?得到的回答是:社区版也可以。那就开干吧!但显然,我们需要对200DK制卡。这就需要安装ubuntu 18.04的开发环境了。我们参考 cid:link_1 文档的方式,先准备好ubuntu虚拟机,以及Java11,安装的过程跟链接里面几乎一模一样,所以就不再详述了。看结果:下面就开启征程吧!(未完待续)
  • [问题求助] atc转pb模型错误:protobuf 版本不匹配
    tensorflow version:1.14python:3.75导出的pb模型,用atc转om报错:E19005: Failed to parse file [./crnn_1.pb].Solution: Check that a matched Protobuf version is installed and try again with a valid file. For details, see section "--framework" in ATC Instructions.ATC model parse ret fail.[FUNC:ParseGraph][FILE:omg.cc][LINE:788]请问atc依赖的protobuf的版本是什么?我自己安装了一个protobuf但貌似没用detail log:,0][EVENT] TBE(29475,python3):2022-08-17-15:42:57.502.234 [../../../../../../latest/atc/python/site-packages/tbe/common/repository_manager/utils/repository_manager_log.py:29][log] [../../../../../../latest/atc/python/site-packages/tbe/common/repository_manager/route.py:367][repository_manager] The task_distribute function entry. [0] tasks of the same type is running. ,0][EVENT] TBE(29475,python3):2022-08-17-15:43:03.166.585 [../../../../../../latest/atc/python/site-packages/tbe/common/repository_manager/utils/repository_manager_log.py:29][log] [../../../../../../latest/atc/python/site-packages/tbe/common/repository_manager/route.py:376][repository_manager] The task_distribute function get finalize task. ,0][EVENT] TBE(29475,python3):2022-08-17-15:43:03.168.214 [../../../../../../latest/atc/python/site-packages/tbe/common/repository_manager/utils/repository_manager_log.py:29][log] [../../../../../../latest/atc/python/site-packages/tbe/common/repository_manager/route.py:390][repository_manager] The current function exits. [0] tasks of the same type are left.
  • [Atlas200] Onnx 模型转om 后,预估错误:Default MaxPoolingOp only supports NHWC on device type CPU
    tf1.14,使用keras2onnx 完成onnx模型的转换,onnx模型能够正常使用。用atc转为om后预估会报错:Default MaxPoolingOp only supports NHWC on device type CPU转换脚本:atc --model={models_dir}/{onnx_model_name} --framework=5 --output={output_dir}/{om_model_name} --input_shape="{input_name}:{input_shape}" --enable_small_channel=1 --soc_version=Ascend310 --log=info')input shape:(None,step,feature),分别是batch,sequence长度和特征维度报错op在tensorlfow中为GlobalMaxPool1D下面是acl的日志[EVENT] CCECPU(4066,python):2022-08-16-14:42:55.361.614 [tf_adpt_session_mgr.cc:398][tid:4076][TFAdapter] [sessionID:16599357285206909441] Create session success. [ERROR] CCECPU(4066,python):2022-08-16-14:42:55.505.915 [aicpu_tf_kernel.cc:138][tid:4075][TFAdapter] AICPUKernelAndDeviceOp Init failure, kernel_id=0, op_name=MaxPool, error=Invalid argument: Default MaxPoolingOp only supports NHWC on device type CPU [ERROR] CCECPU(4066,python):2022-08-16-14:42:55.506.012 [tf_adpt_session_mgr.cc:149][tid:4075][TFAdapter] [sessionID:16599357285206909441] Create kernel failure, kernel_id=0, op_name=. [ERROR] CCECPU(4066,python):2022-08-16-14:42:55.506.031 [tf_adpt_session_mgr.cc:94][tid:4075][TFAdapter] [sessionID:16599357285206909441] Create kernel failed, kernel_id=0. [ERROR] CCECPU(4066,python):2022-08-16-14:42:55.506.052 [tf_adpt_session_mgr.cc:64][tid:4075][TFAdapter] [sessionID:16599357285206909441] Failed to GetOrCreateKernel, kernel_id=0. [ERROR] CCECPU(4066,python):2022-08-16-14:42:55.506.075 [tf_adpt_session_mgr.cc:433][tid:4075][TFAdapter] [sessionID:16599357285206909441] Run kernel on session failed. [ERROR] CCECPU(4066,python):2022-08-16-14:42:55.506.090 [tf_adpt_api.cc:86][tid:4075][TFAdapter] [sessionID:16599357285206909441] Invoke TFOperateAPI failed. [ERROR] CCECPU(4066,python):2022-08-16-14:42:55.506.106 [ae_kernel_lib_fwk.cc:234][TransformKernelErrorCode][tid:4075][AICPU_PROCESSER] Call tf api return failed:5, input param to tf api:0xfffef9e4a004 [ERROR] CCECPU(4066,python):2022-08-16-14:42:55.506.155 [aicpusd_event_process.cpp:1227][ExecuteTsKernelTask][tid:4075] Aicpu engine process failed, result[5]. ,0][ERROR] RUNTIME(4066,python):2022-08-16-14:42:55.506.515 [engine.cc:1131]4096 ReportExceptProc:Task exception! device_id=0, stream_id=1, task_id=1, type=13, retCode=0x91, [the model stream execute failed]. ,0][ERROR] RUNTIME(4066,python):2022-08-16-14:42:55.509.834 [device_error_proc.cc:667]4096 ProcessAicpuErrorInfo:report error module_type=0, module_name=E39999 ,0][ERROR] RUNTIME(4066,python):2022-08-16-14:42:55.509.936 [device_error_proc.cc:667]4096 ProcessAicpuErrorInfo:An exception occurred during AICPU execution, stream_id:4, task_id:46, errcode:5, msg:aicpu execute failed. ,0][ERROR] RUNTIME(4066,python):2022-08-16-14:42:55.510.114 [task.cc:746]4096 PrintAicpuErrorInfo:report error module_type=0, module_name=E39999 ,0][ERROR] RUNTIME(4066,python):2022-08-16-14:42:55.510.142 [task.cc:746]4096 PrintAicpuErrorInfo:Aicpu kernel execute failed, device_id=0, stream_id=4, task_id=46. ,0][ERROR] RUNTIME(4066,python):2022-08-16-14:42:55.510.242 [task.cc:764]4096 PrintAicpuErrorInfo:Aicpu kernel execute failed, device_id=0, stream_id=4, task_id=46, flip_num=0, fault so_name=, fault kernel_name=, fault op_name=Attention/Reshape_12:0_pooling, extend_info=(info_type:4, info_len:30, msg_info:Attention/Reshape_12:0_pooling). ,0][ERROR] RUNTIME(4066,python):2022-08-16-14:42:55.510.270 [task.cc:3148]4096 ReportErrorInfo:model execute error, retCode=0x91, [the model stream execute failed]. ,0][ERROR] RUNTIME(4066,python):2022-08-16-14:42:55.510.289 [task.cc:3120]4096 PrintErrorInfo:model execute task failed, device_id=0, model stream_id=1, model task_id=1, flip_num=0, model_id=5, first_task_id=65535 ,0][ERROR] RUNTIME(4066,python):2022-08-16-14:42:55.510.450 [stream.cc:843]4066 GetError:[EXEC][DEFAULT]Stream Synchronize failed, stream_id=1 retCode=0x91, [the model stream execute failed]. ,0][ERROR] RUNTIME(4066,python):2022-08-16-14:42:55.510.487 [stream.cc:846]4066 GetError:[EXEC][DEFAULT]report error module_type=7, module_name=EE9999
  • [问题求助] atlas200有哪些常用模型测试表
    就想问一下阿特拉斯200有没有一些模型的测试表? ,哪些模型可以用?
  • [问题求助] Atlas200DK文件缺失
    在我使用docker容器启动时,系统报错,找不打文件
  • [问题求助] 使用Docker部署FasterRCNN在Atlas上推理报错
    使用modelzoo FasterRcnn模型进行推理,https://www.hiascend.com/zh/software/modelzoo/models/detail/C/8d8b656fe2404616a1f0f491410a224c实验思路是:通过服务器训练出ckpt模型,在开发板上面进行模型转换,后进行推理现在模型转换报错(在docker容器中进行转换)报错内容:docker中环境变量设置:查询出来的libmmpa.so文件
  • [问题求助] 我使用媒体数据处理插件,处理方式为opencv,会报如下错误
    在媒体插件中使用处理方式为opencv时,报如下错误
  • [问题求助] cann 5.05的amct工具哪里下载
    如题,CANN 5.05alpha001 的amct工具,历史版本里没找到我看的是社区版,我看商用版5.04有这个工具,但是我权限不够无法下载
  • [问题求助] 模型推理报错,query model failed
    0、CANN 5.0.21、query model failed,返回错误码5000022、模型转换成功,但是执行时保错3、/var/log/npu/slog/host-0下的日志见附件