-
11月16日,华为开发者布道师技术沙龙·西安站将在西安交通大学创新港校区举办,将由华为云、鸿蒙和AI领域的技术专家做产业前沿规划的宣讲,同时,来自西安6所高校11位教师开发者布道师将分别从产学合作课程建设、融合产业新技术的创新项目和大赛获奖作品案例三个方向分享他们与华为合作的经验、收获。这是一场知识和经验交融的盛会,是高校师生深入了解华为生态技术,探寻合作机会的绝佳平台,精彩不容错过。诚邀西安区域和周边高校师生报名参与,期待在西安与您相遇!报名链接:cid:link_0
-
【活动总结】2024 年 10 月 28 日晚,华为开发者布道师、桂林电子科技大学李明辉同学在线下组织了围绕mindspore框架和昇腾边缘设备的布道活动,本次参与活动的同学来自数学与计算机科学学院与人工智能学院共两百余名学生。活动开始,李明辉同学以通俗易懂的语言为大家详细介绍了MindSpore框架的优势。他强调,MindSpore作为一款面向AI应用的全场景深度学习框架,具有易用、高效、安全等特点,为广大开发者提供了极大的便利。在场的大一同学们纷纷表示对MindSpore框架产生了浓厚兴趣。针对大一新生,李明辉同学贴心地为他们规划了学习昇思框架的路线,并手把手教会了同学们如何利用ATC(Ascend Tensor Compiler)转换自己的模型。这一环节让在场的同学们对人工智能技术的实际应用有了更深刻的认识。NPU案例分享在NPU案例分享环节,李明辉同学向大家展示了魔乐社区的体验空间,并详细讲解了如何离线部署属于自己的模型。这一环节让同学们感受到了人工智能技术的魅力,也为他们今后的学术研究和项目实践奠定了基础。案例分享紧接着,李明辉同学为本科生们介绍了华为云最新云主机,让同学们亲身体验到了云开发的便捷与高效。他通过实际操作演示,让同学们对华为云的技术实力有了更直观的了解。活动照片1活动照片2活动照片3此次活动的成功举办,不仅提高了同学们对人工智能技术的认识,还为他们提供了一个交流学习的平台。相信在未来的学习和实践中,同学们将不断探索,为我国人工智能领域的发展贡献自己的力量。
-
一年一度属于开发者们的节日如期而至祝所有开发者们1024程序员节快乐愿你们的变量永远不溢出循环永远不陷入死锁,代码逻辑清晰无bug在这个特别的日子里让我们跟随几位优秀开发者听听他们的编码趣事和1024特别祝福video听完了华为云和他的开发者朋友们的祝福还有一群华为云的老朋友有话说他们中加入华为云生态最久的已经有2000多天一路走来,他们与华为云携手相伴在华为生态中大放异彩1024,码客聚会,云上跃迁一起走近华为云和他的开发者朋友们的精彩故事文末更有1024双重福利等你来领~(Tips:扫描图片底部二维码可查看故事详情)1024福利来袭:免费领取云主机,随时随地开发更便利值此1024程序员节,华为云开发者联盟为大家带来特别福利,点击链接加入华为开发者空间,免费领取您的专属云主机。华为开发者空间,汇聚鸿蒙、昇腾、鲲鹏、GaussDB、欧拉等各项根技术的开发资源及工具,致力于为每位开发者提供一台云主机、一套开发工具及云上存储空间,让开发者基于华为根生态创新。分享文章并留言,抽送华为云云宝全套手办即日起分享微信文章(点击查看)至朋友圈,并在微信文章留言互动,我们将在留言区随机抽选5名开发者各赠送华为云云宝全套手办1套。中奖小Tips:留言分享你的开发故事or你印象最深的编码时刻,更容易被选中哦~
-
在推理场景下,将第三方框架模型(如TensorFlow、Caffe、ONNX等)使用ATC工具转换为适配昇腾AI处理器的离线模型时,若遇到不支持的算子,开发支持这些算子,请问有没有大佬提供下开发流程,或者示例
-
pytorch模型迁移到NPU后推理到一半显示Warning: expandable_segments currently defaults to false.并等待很久才继续运行。本来只需要几秒的检测时间,因为这个被拉到了30s。想问问如何解决这个问题。已经尝试:export PYTORCH_NPU_ALLOC_CONF=expandable_segments:True,设置后仍然提示该warning上下文:import osimport globimport shutilimport numpy as npfrom ultralytics import YOLOv10import torchimport cv2import torchvision.ops as ops# from model_service.pytorch_model_service import PTServingBaseServiceclass yolov10_detection():# class yolov10_detection(PTServingBaseService): def __init__(self, model_name, model_path): print('model_name:', model_name) print('model_path:', model_path) self.model = YOLOv10(model_path) self.capture = "test.png" # 此处跳到608,以适应两个数据集的图片大小 # 训练时,也应该调到608(32倍数) self.window_size = 608 # 滑动窗口的大小 self.step_size = 320 # 滑动窗口的步长 self.predict_conf = 0.4 # 预测准确阈值 self.nms_threshold = 0.1 # NMS 阈值 def _preprocess(self, data): for _, v in data.items(): for _, file_content in v.items(): with open(self.capture, 'wb') as f: file_content_bytes = file_content.read() f.write(file_content_bytes) return "ok" def _slide_window(self, image, window_size, step_size): height, width = image.shape[:2] # For grayscale, use image.shape for y in range(0, height, step_size): for x in range(0, width, step_size): print(f"detect area left top: ({x}, {y})") # Ensure the window is properly cropped at the image edges crop_x = min(x, width - window_size) crop_y = min(y, height - window_size) cropped_image = image[crop_y:crop_y + window_size, crop_x:crop_x + window_size] # 判断本窗口图像有没有包含1184,1023 # if crop_x <= 1184 and crop_x + window_size >= 1184 and crop_y <= 1023 and crop_y + window_size >= 1023: # print(f"window ({crop_x}, {crop_y}) contains (1184, 1023)") # # 窗口左上角打上标记,就是这个图片 # # cv2.circle(cropped_image, (1184 - crop_x, 1023 - crop_y), 10, (0, 255, 0), 2) # 保存窗口图片到tmp_output/ # cv2.imwrite(f"tmp_output/windows/{crop_x}_{crop_y}.png", cropped_image) yield (crop_x, crop_y, cropped_image) def _inference(self, data): image = cv2.imread(self.capture) # imread后的通道为BGR # image=cv2.cvtColor(image, cv2.COLOR_BGR2GRAY) # 转换为RGB # image=cv2.cvtColor(image, cv2.COLOR_GRAY2BGR) # 转换为RGB pred_results = [] for (x, y, window) in self._slide_window(image, self.window_size, self.step_size): window_image = window pred_result = self.model(window_image, conf=self.predict_conf, # augment=True # 感觉对pcb检测没什么用,有时候有副作用,很少有正向作用 ) for result in pred_result: # 将检测到的结果位置映射回原图 result_cpu = result.cpu() # 转换为 CPU 张量 result_clone = result_cpu.boxes.xyxy.clone() # 克隆 boxes 的张量 result_clone[:, [0, 2]] += x result_clone[:, [1, 3]] += y print(f"result_clone: {result_clone}") # 直接更新 result_cpu.boxes.xyxy 的值 result_cpu.boxes._xyxy = result_clone pred_results.append(result_cpu) return pred_results def _postprocess(self, data): result = {} detection_classes = [] detection_boxes = [] detection_scores = [] class_names = [ "Mouse_bite", "Spur", "Missing_hole", "Short", "Open_circuit", "Spurious_copper" ] all_boxes = [] all_scores = [] all_classes = [] for res in data: boxes = res.boxes._xyxy.cpu() # 获取 bounding boxes 并转换为 CPU 张量 scores = res.boxes.conf.cpu() # 获取置信度分数并转换为 CPU 张量 classes = res.boxes.cls.cpu() # 获取类别索引并转换为 CPU 张量 # print("clses:", classes) #如果不是missing_hole all_boxes.append(boxes) all_scores.append(scores) all_classes.append(classes) all_boxes = torch.cat(all_boxes) all_scores = torch.cat(all_scores) all_classes = torch.cat(all_classes) keep = ops.nms(all_boxes, all_scores, self.nms_threshold) keep = [i for i in keep if all_classes[i] != 2] for i in keep: box = all_boxes[i].numpy() score = float(all_scores[i].numpy()) cls = int(all_classes[i].numpy()) xmin, ymin, xmax, ymax = map(float, box) detection_boxes.append([ymin, xmin, ymax, xmax]) detection_scores.append(score) detection_classes.append(class_names[cls]) result['detection_classes'] = detection_classes result['detection_boxes'] = detection_boxes result['detection_scores'] = detection_scores # print('result:', result) return result谢谢!
-
全爱科技-华为首家“昇腾APN 分销金牌” 2024年2月21日,全爱科技(上海)有限公司成为华为首家“昇腾APN 分销金牌”,在华为上海代表处完成授牌仪式。全爱科技是智能计算品牌,高新技术企业,积极拓展AI生态,致力于推动AI技术的广泛应用。全爱科技联合华为共建人工智能计算生态 全爱科技是华为IHV、ISV、APN官方合作伙伴。全爱科技携手华为共建人工智能计算生态建设已有5年时间,提供昇腾AI一站式解决方案,拥有完善的研发、生产和服务体系。全爱科技已设立后羿科技(北京)有限公司、全爱智能科技(烟台)有限公司、全爱智能科技(浙江)有限公司、全爱科技(青岛)有限公司多家子公司;实现了全国布局,以优异的服务赢得超700多家客户的信赖。 全爱科技提供昇腾AI+图像采集系列产品和解决方案、定制化开发服务。全爱科技已发布十余款人工智能小站、开发板;包括“后羿”系列智能小站、开发板及AI加速卡;“二郎神”系列机器人AI开发套件。 全爱科技与华为联合研发“后羿”系列智能小站、开发板开发套件。解决方案基于昇腾Atlas200I A2及高可靠模组打造,已支撑百余家伙伴完成测试工作,荣获华为昇腾APN最佳贡献奖。 华为昇腾生态发展是和伙伴共同成长共赢的过程,全爱科技联合华为始终坚持“硬件开放、软件开源、使能伙伴、人才发展”的生态策略。未来,也将更紧密地联合伙伴,持续推动创新根技术的应用及产业生态构建,以根深促叶茂,打造“共建、共享、共赢”的昇腾AI产业,不断筑牢智能根基,助力中国人工智能产业繁荣向上。
-
请问是什么问题,如何解决?谢谢!cann版本7.0,torch和torch_npu版本都是 2.1
-
我不是昇腾设备,没有安装驱动,是不是就没有__aicore__这个宏定义
-
按照官方教程创建了新的虚拟环境,并成功安装了MindSpore (https://gitee.com/mindspore/docs/blob/r2.2/install/mindspore_cpu_win_install_conda.md#https://gitee.com/link?target=https%3A%2F%2Fwww.mindspore.cn%2Fversions)。在学习初级教程的过程中,需要用到download这个模块(https://gitee.com/mindspore/docs/blob/master/tutorials/source_zh_cn/beginner/quick_start.ipynb#https://gitee.com/link?target=https%3A%2F%2Fwww.mindspore.cn%2Ftutorials%2Fzh-CN%2Fmaster%2Fbeginner%2Fsave_load.html),在系统级环境中使用命令pip install download能成功安装,但在虚拟环境中一直报错是为什么?
-
添加图片的时候路径没问题、传入图片的位置也没问题,但图片就是显示不出来,是哪个步骤出错了吗?或者有没有其他上传图片的方法?路径设置:传入位置:显示结果:
-
环境docker镜像 swr.cn-central-221.ovaijisuan.com/mindformers/mindformers1.0_mindspore2.2.11:aarch_20240125docker run -it -u root \--ipc=host \--network host \--device=/dev/davinci0 \--device=/dev/davinci_manager \--device=/dev/devmm_svm \--device=/dev/hisi_hdc \-v /etc/localtime:/etc/localtime \-v /usr/local/Ascend/driver:/usr/local/Ascend/driver \-v /var/log/npu/:/usr/slog \-v /usr/local/bin/npu-smi:/usr/local/bin/npu-smi \--name bc2 \swr.cn-central-221.ovaijisuan.com/mindformers/mindformers1.0_mindspore2.2.11:aarch_20240125 \/bin/bashmindspore2.2.11_py39 mindformers https://gitee.com/mindspore/mindformers 最新版,build.sh 安装的hccn_tool 找不到python ./mindformers/tools/hccl_tools.py --device_num "[0,1)"模型转换失败 python ./research/baichuan/convert_weight.py --torch_ckpt_path TORCH_CKPT_PATH --mindspore_ckpt_path MS_CKPT_NAME推理失败命令python run_baichuan2.py \--config run_baichuan2_7b.yaml \--run_mode predict \--use_parallel False \--load_checkpoint '../../models/Baichuan2-7B-Chat/Baichuan2_7B_Chat.ckpt' \--auto_trans_ckpt False \--predict_data "<reserved_106>你是谁?<reserved_107>"报错2024-03-19 09:02:31,847 - mindformers[mindformers/models/llama/llama_config.py:199] - WARNING - Argument `compute_in_2d` is deprecated.2024-03-19 09:02:31,847 - mindformers[mindformers/version_control.py:62] - INFO - The Cell Reuse compilation acceleration feature is not supported when the environment variable ENABLE_CELL_REUSE is 0 or MindSpore version is earlier than 2.1.0 or stand_alone mode or pipeline_stages <= 12024-03-19 09:02:31,847 - mindformers[mindformers/version_control.py:66] - INFO - The current ENABLE_CELL_REUSE=0, please set the environment variable as follows: export ENABLE_CELL_REUSE=1 to enable the Cell Reuse compilation acceleration feature.2024-03-19 09:02:31,847 - mindformers[mindformers/version_control.py:72] - INFO - The Cell Reuse compilation acceleration feature does not support single-card mode.This feature is disabled by default. ENABLE_CELL_REUSE=1 does not take effect.2024-03-19 09:02:31,848 - mindformers[mindformers/version_control.py:75] - INFO - The Cell Reuse compilation acceleration feature only works in pipeline parallel mode(pipeline_stage>1).Current pipeline stage=1, the feature is disabled by default.[WARNING] ME(304:281465918746208,MainProcess):2024-03-19-09:02:35.841.256 [mindspore/ops/primitive.py:228] The in_strategy of the operator in your network will not take effect in stand_alone mode. This means the the shard function called in the network is ignored. If you want to enable it, please use semi auto or auto parallel mode by context.set_auto_parallel_context(parallel_mode=ParallelMode.SEMI_AUTO_PARALLEL or context.set_auto_parallel_context(parallel_mode=ParallelMode.AUTO_PARALLEL)Traceback (most recent call last): File "/opt/mindformers/research/baichuan2/run_baichuan2_chat.py", line 237, in <module> main(config=args.config, File "/opt/mindformers/research/baichuan2/run_baichuan2_chat.py", line 109, in main network = model_dict[model_name](model_config) File "/root/miniconda3/envs/mindspore2.2.11_py39/lib/python3.9/site-packages/mindformers/version_control.py", line 78, in decorator func(*args, **kwargs) File "/opt/mindformers/research/baichuan2/baichuan2_7b.py", line 363, in __init__ self.model = Baichuan7BV2Model(config=config) File "/opt/mindformers/research/baichuan2/baichuan2_7b.py", line 114, in __init__ self.casual_mask = LowerTriangularMaskWithDynamic(seq_length=config.seq_length, File "/root/miniconda3/envs/mindspore2.2.11_py39/lib/python3.9/site-packages/mindformers/tools/logger.py", line 575, in wrapper res = func(*args, **kwargs) File "/root/miniconda3/envs/mindspore2.2.11_py39/lib/python3.9/site-packages/mindformers/modules/transformer/transformer.py", line 888, in __init__ self.lower_triangle_mask = ops.cast(Tensor(np.tril(np.ones(shape=(seq_length, seq_length))), mstype.float32), File "/root/miniconda3/envs/mindspore2.2.11_py39/lib/python3.9/site-packages/mindspore/ops/primitive.py", line 314, in __call__ return _run_op(self, self.name, args) File "/root/miniconda3/envs/mindspore2.2.11_py39/lib/python3.9/site-packages/mindspore/ops/primitive.py", line 913, in _run_op stub = _pynative_executor.run_op_async(obj, op_name, args) File "/root/miniconda3/envs/mindspore2.2.11_py39/lib/python3.9/site-packages/mindspore/common/api.py", line 1186, in run_op_async return self._executor.run_op_async(*args)RuntimeError: The pointer[res_manager_] is null.----------------------------------------------------- Framework Unexpected Exception Raised:----------------------------------------------------This exception is caused by framework's unexpected error. Please create an issue at https://gitee.com/mindspore/mindspore/issues to get help.
-
我使用transformer库微调了BERT模型,实现了一个简单的文本分类,现在需要将这个模型部署在华为昇腾910b上,有以下几个问题1.论坛中有在华为昇腾910b上部署BERT模型的详细教程吗?需要从0开始的那种详细教程那。2.是否有官方镜像,可以直接替换模型实现镜像部署。
上滑加载中
推荐直播
-
TinyEngine低代码引擎系列.第1讲——低代码浪潮之下,带你走进TinyEngine
2024/11/11 周一 16:00-18:00
李老师 高级前端开发工程师
低代码浪潮之下,带你走进TinyEngine。李旭宏老师将从低代码的发展趋势、TinyEngine的项目介绍,三方物料组件的使用、跨技术栈的使用、源码生成能力的差异性对比等多个方面带大家对TinyEngine低代码引擎有一个更清晰的认知和了解。
即将直播 -
0代码智能构建AI Agent——华为云AI原生应用引擎的架构与实践
2024/11/13 周三 16:30-18:00
苏秦 华为云aPaaS DTSE技术布道师
大模型及生成式AI对应用和软件产业带来了哪些影响?从企业场景及应用开发视角,面向AI原生应用需要什么样的工具及平台能力?企业要如何选好、用好、管好大模型,使能AI原生应用快速创新?本期直播,华为云aPaaS DTSE技术布道师苏秦将基于华为云自身实践出发,深入浅出地介绍华为云AI原生应用引擎,通过分钟级智能生成Agent应用的方式帮助企业完成从传统应用到智能应用的竞争力转型,使能千行万业智能应用创新。
去报名
热门标签