-
在Modelarts配置云侧环境的时候服务器一直拒绝请求,导致CANN包一直安装不了,修改代理为export no_proxy=127.0.0.1,localhost,172.16.*,obs.cn-southwest-2.myhuaweicloud.com,iam.cn-southwest-2.huaweicloud.com,pip.modelarts.private.com依旧不行
-
如题,在配置Wan2.2的过程中,遇到该error,在技术文档里也没有相关详细的讲解,也不知道这个error是如何导致的,求教应该如何解决[2025-09-20 20:48:28,262] INFO: Generating video ... 0%| | 0/50 [00:00<?, ?it/s]Traceback (most recent call last): File "/home/ma-user/work/Wan2.2/generate.py", line 583, in <module> generate(args) File "/home/ma-user/work/Wan2.2/generate.py", line 451, in generate video = wan_ti2v.generate( File "/home/ma-user/work/Wan2.2/wan/textimage2video.py", line 227, in generate return self.t2v( File "/home/ma-user/work/Wan2.2/wan/textimage2video.py", line 380, in t2v noise_pred_cond = self.model( File "/home/ma-user/anaconda3/envs/wan/lib/python3.10/site-packages/torch/nn/modules/module.py", line 1739, in _wrapped_call_impl return self._call_impl(*args, **kwargs) File "/home/ma-user/anaconda3/envs/wan/lib/python3.10/site-packages/torch/nn/modules/module.py", line 1750, in _call_impl return forward_call(*args, **kwargs) File "/home/ma-user/work/Wan2.2/wan/modules/model.py", line 449, in forward x = [self.patch_embedding(u.unsqueeze(0).to(torch.bfloat16)) for u in x] File "/home/ma-user/work/Wan2.2/wan/modules/model.py", line 449, in <listcomp> x = [self.patch_embedding(u.unsqueeze(0).to(torch.bfloat16)) for u in x] File "/home/ma-user/anaconda3/envs/wan/lib/python3.10/site-packages/torch/nn/modules/module.py", line 1739, in _wrapped_call_impl return self._call_impl(*args, **kwargs) File "/home/ma-user/anaconda3/envs/wan/lib/python3.10/site-packages/torch/nn/modules/module.py", line 1750, in _call_impl return forward_call(*args, **kwargs) File "/home/ma-user/anaconda3/envs/wan/lib/python3.10/site-packages/torch/nn/modules/conv.py", line 725, in forward return self._conv_forward(input, self.weight, self.bias) File "/home/ma-user/anaconda3/envs/wan/lib/python3.10/site-packages/torch/nn/modules/conv.py", line 720, in _conv_forward return F.conv3d(RuntimeError: _calc_convolution:build/CMakeFiles/torch_npu.dir/compiler_depend.ts:88 NPU function error: call aclnnConvolution failed, error code is 361001[ERROR] 2025-09-20-20:48:40 (PID:87080, Device:0, RankID:-1) ERR00100 PTA call acl api failed.EZ9903: 2025-09-20-20:48:40.139.597 Conv3D/ConvTransposed3D is not implemented yet Solution: In this scenario, collect the plog when the fault occurs and locate the fault based on the plog. TraceBack (most recent call last): Check Param failed
-
在notebook中执行:!wget cid:link_0 报错:--2025-09-20 11:36:33-- cid:link_0Resolving mindspore-website.obs.cn-north-4.myhuaweicloud.com (mindspore-website.obs.cn-north-4.myhuaweicloud.com)... 49.4.112.92, 49.4.112.91, 121.36.121.84Connecting to mindspore-website.obs.cn-north-4.myhuaweicloud.com (mindspore-website.obs.cn-north-4.myhuaweicloud.com)|49.4.112.92|:443... failed: Connection timed out.Connecting to mindspore-website.obs.cn-north-4.myhuaweicloud.com (mindspore-website.obs.cn-north-4.myhuaweicloud.com)|49.4.112.91|:443... failed: Connection timed out.Connecting to mindspore-website.obs.cn-north-4.myhuaweicloud.com (mindspore-website.obs.cn-north-4.myhuaweicloud.com)|121.36.121.84|:443... failed: Connection timed out.Retrying.服务器为modelarts notebook,信息如下:notebook-fd9df3b1a228-8ed5-4d46-8c36-e69a2a4b2a0d
-
用的是iam创建的用户账号,已经赋予了modelarts_agency委托。在创建notebook,勾选ssh远程开发时候,报错如下: 您的权限不足。用户策略无权限访问接口. User: iam::1610480fd13047bf862c15f19c7e0347:user:user5 is not authorized to perform: kps:SSHKeyPair:list on resource: kps:cn-east-4:1610480fd13047bf862c15f19c7e0347:SSHKeyPair:* because no identity-based policy allows the kps:SSHKeyPair:list action. 请问如何解决,谢谢!
-
< 华为云Versatile智能体平台 体验入口>华为开发者空间--开发平台--Versatile Agent (请在PC端打开) 版本概览 Versatile 920版本总结:新增27个特性,优化增强8个功能,新增多模态交互(图像、语音),新增敏感内容审查和风控,新增提示词管理,支持查看Trace调用链,查看使用量等统计指标,在运营运维、安全审查等企业级特性上有大幅提升。 华为云Versatile智能体平台 功能模块介绍 01 资产中心Versatile资产中心提供应用、MCP、插件、提示词等AI资产的共享,包括系统预置资产、开发者上传资产等,加速AI应用的开发以及公共资产的沉淀。 02 Versatile空间Versatile空间集成通用型AI助手以及各专家Agent,打造企业级智能协作统一入口,通过自主任务规划及多工具协同等,帮助用户完成复杂任务。 03 开发中心Versatile支持单智能体、工作流和多智能体三种应用开发方式,平台集成盘古大模型及DeepSeek等第三方模型,提供角色设定、插件扩展、工作流编排等功能,支持知识库管理、RAG检索和智能提示词优化,确保交互精准可靠。同时支持通过API、网页多渠道发布应用,助力开发者高效打造专业级智能体应用。04 模型中心模型中心提供标准化API接口,支持盘古大模型与业界主流模型的接入与管理,提供多种路由策略,实现模型无感切换和灵活调度,支持NLP与多模态理解模型的在线调测及参数配置。 05 运营运维运营运维包括调用链管理、运营统计,开展全维度Agent观测,实现对Agent调用的多维指标监控运营。 06 空间管理空间管理助力团队高效便捷地协作开发应用,多重权限控制提升企业资产数据安全。 新增重点特性介绍一、企业级特性 团队空间管理· 支持多团队空间的管理与资源隔离,成员角色权限管理,跨空间资产的复制业务价值:方便企业内进行资产、数据管理,同时能方便多人协作 应用管理· 支持配置敏感内容审查和风控:支持配置敏感词,触发后可以进行过滤、替换以及设置兜底回复,确保输出合规。业务价值:提供确定性保证,满足合规性与数据防泄露· 支持集成APIG,通过APIG发布Agent API业务价值:提供企业级API网关能力,可以为Agent的能力提供安全保障、运维能力、商业能力· 支持应用部署、升级、停止、启动、重启、删除等操作业务价值:提供应用的全生命周期标准化管理 调用链管理· 支持Trace调用链统计: 支持查看智能体、工作流的调用情况(时间、tokens消耗、input,output)业务价值1:技术运维与保障价值——技术人员可以快速定位问题、进行性能瓶颈分析等,确保系统稳定、可靠、可用业务价值2:安全合规与审计价值——记录每次调用的详细信息,实现全过程可追溯 指标统计· 支持查看运营数据:支持查看智能体、工作流的各项运营指标统计:基础指标功能(使用次数、服务QPS、模型QPS等)、质量统计指标功能(模型调用错误率、调用错误率、模型调用平均耗时、链路整体耗时、服务请求成功率等)、成本指标功能(tokens消耗等)业务价值:迭代优化价值——可以根据性能、错误指标等数据对智能体、工作流进行多轮迭代与优化 后台逻辑相关特性· 支持开发和测试环境分离部署,支持开发环境资产发布到生产环境业务价值1:保障生产环境稳定,确保正在服务线上客户的生产环境不会因新功能开发或测试而宕机或出错。业务价值2:可以并行开发与协作,开发、运营团队可以同时在各自的环境中进行工作,互不干扰,提升协同效率。· 支持单实例多Agent共享模式和单Agent 多实例独占模式业务价值:优化资源利用,降低成本。共享模式适用于大量轻量级、低并发的Agent,独占模式适用于核心、高并发、高性能要求的Agent,企业可以根据不同Agent的业务重要性、流量特征和性能要求,灵活选择部署模式,实现成本与性能的最佳平衡。· 支持多环境管理,集成开通Serverless运行环境业务价值:极致敏捷与弹性伸缩,提升了开发测试的敏捷性;降低了环境管理成本· 支持与凭据加密服务对接,通过配置凭据保障密钥安全业务价值:杜绝敏感信息泄露,增强安全合规性 二、多模态能力 应用管理· 新增语音交互:单智能体/工作流支持开启语音交互,支持选择不同种类的音色业务价值:满足业务个性化需求,丰富交互形式,让用户体验更流畅· 新增多模态大模型能力:单智能体、工作流-大模型节点支持接入多模态大模型业务价值:新增交互场景,在需要快速获取信息或进行复杂任务处理场景能显著提升用户体验 三、模型管理 模型服务· 支持接入用户自己第三方模型服务业务价值1:增加灵活性,提升用户体验业务价值2:企业可以根据自己的业务选择适合的模型,实现最佳功能匹配 路由策略· 支持配置路由策略业务价值:实现智能负载均衡与成本控制,构建高可用的容灾方案 模型调测· 支持模型调测,对比不同模型的效果业务价值:可以快速了解不同模型在当前任务下的效果,帮助用户进行模型选型 四、数据能力 知识库· 支持接入外部(第三方)知识库业务价值:实现各个系统中的数据贯通,增加架构的灵活性 应用管理· Agent问答支持知识切片溯源,支持配置多个知识库(最多3个)业务价值:构建信任与确保合规,实现答案的可验证与可审计 五、组件能力 提示词· 支持提示词管理,支持提示词效果对比,新增多模态提示词业务价值1:提供提示词统一管理、开发能力,实现高效运维;业务价值2:支持多模态数据,拓宽应用场景 MCP· 支持NPX、UVX方式部署和SSE接口接入服务业务价值:极致简化体验,简化集成复杂度 点击可前往>>华为云Versatile智能体平台 官网
-
$ wget "https://ascend-repo.obs.cn-east-2.myhuaweicloud.com/CANN/CANN 8.2.RC1/Ascend-cann-toolkit_8.2.RC1_linux-aarch64.run"--2025-09-19 16:34:56-- https://ascend-repo.obs.cn-east-2.myhuaweicloud.com/CANN/CANN%208.2.RC1/Ascend-cann-toolkit_8.2.RC1_linux-aarch64.runResolving ascend-repo.obs.cn-east-2.myhuaweicloud.com (ascend-repo.obs.cn-east-2.myhuaweicloud.com)... 122.9.88.10, 122.9.88.12, 122.9.88.14, ...Connecting to ascend-repo.obs.cn-east-2.myhuaweicloud.com (ascend-repo.obs.cn-east-2.myhuaweicloud.com)|122.9.88.10|:443... failed: Connection timed out.Connecting to ascend-repo.obs.cn-east-2.myhuaweicloud.com (ascend-repo.obs.cn-east-2.myhuaweicloud.com)|122.9.88.12|:443... failed: Connection timed out.Connecting to ascend-repo.obs.cn-east-2.myhuaweicloud.com (ascend-repo.obs.cn-east-2.myhuaweicloud.com)|122.9.88.14|:443... failed: Connection timed out.Connecting to ascend-repo.obs.cn-east-2.myhuaweicloud.com (ascend-repo.obs.cn-east-2.myhuaweicloud.com)|122.9.88.11|:443... failed: Connection timed out.Connecting to ascend-repo.obs.cn-east-2.myhuaweicloud.com (ascend-repo.obs.cn-east-2.myhuaweicloud.com)|122.9.88.13|:443...
-
想问下notebook停止之后 就是现在这种状态下 还在消耗金额吗?
-
在notebook实例中,输入 markdown格式的 latex 公式,不能显示。只显示latex的公式代码了,执行cell不能显示公式。
-
想问下notebook实例最多只能租72小时吗 那我要做的实验需要跑超过72h怎么办呢?
-
您好,我目前使用modelarts notebook,需要上传2t左右数据。目前发现可以直接在notebook创建过程中创建一个较大的EVS,然后ssh连接notebook,并上传文件。此外还可以创建obs,用obs browser+上传,然后再拷贝到notebook的云硬盘上。但我尝试下来,这两种方法上传都比较慢。然后由于我使用的是校园网,ipv4限速而ipv6不限速,请问有没有办法通过ipv6上传数据到notebook的云硬盘中?
-
如题,二十九期能使用第三方库吗?如果能,应该如何说明,使得判题系统能正常运行?
-
[ma-user work]$cat start-wismodel.sh#!/bin/bash# source /usr/local/Ascend/ascend-toolkit/set_env.shsource /home/ma-user/anaconda3/etc/profile.d/conda.shconda activate llamafactoryexport ASCEND_LAUNCH_BLOCKING=1export ASCEND_SLOG_PRINT_TO_STDOUT=1export FLASH_ATTENTION=enableexport FRAMEWORK_VERSION=6.5.905+export API_HOST=0.0.0.0export API_KEY=XXXexport API_MODEL_NAME=XXXexport API_VERBOSE=DEBUGexport LLAMAFACTORY_VERBOSITY=DEBUGexport ENABLE_ATB_GRAPH_MODE=1 # 一次性编译整图,后续无 python 调度export ATB_GRAPH_COMPILE_PARALLEL=8 # 用 8 核并行编译,首次启动 2 min 左右for i in `seq 0 4`do export ASCEND_RT_VISIBLE_DEVICES=$i export API_PORT=$(echo $((18000 + i)) ) nohup llamafactory-cli api wismodel_gen.yml >> log.${API_MODEL_NAME}-$i 2>&1 &done[ma-user work]$cat wismodel_gen.yml.bak model_name_or_path: /home/ma-user/work/model/XXXtemplate: qwen3infer_backend: huggingfacetrust_remote_code: truedo_sample: truetemperature: 0.7top_p: 0.8top_k: 20repetition_penalty: 1.05max_new_tokens: 512max_length: 8800use_unsloth: falsenv 3090 推理用 3 秒, ascend llamafactory-cli api 推理需要 30 秒,如何解决?
-
下面是我的详细操作步骤,使用的镜像是:pytorch_2.1.0-cann_8.1.rc1-py_3.10-euler_2.10.11-aarch64-snt9b实例ID:7f74bd20-15bf-485a-9007-a437e1d8c04e创建镜像conda create -n cosyvoice python==3.10 -y 2. 克隆仓库git clone --recursive https://github.com/FunAudioLLM/CosyVoice.git # If you failed to clone the submodule due to network failures, please run the following command until success cd CosyVoice git submodule update --init --recursive 3. 去掉不适配的requriements.txt包# --extra-index-url https://download.pytorch.org/whl/cu121 # --extra-index-url https://aiinfra.pkgs.visualstudio.com/PublicPackages/_packaging/onnxruntime-cuda-12/pypi/simple/ # https://github.com/microsoft/onnxruntime/issues/21684 # tensorrt-cu12==10.0.1; sys_platform == 'linux' # tensorrt-cu12-bindings==10.0.1; sys_platform == 'linux' # tensorrt-cu12-libs==10.0.1; sys_platform == 'linux' # onnxruntime-gpu==1.18.0; sys_platform == 'linux' # onnxruntime==1.18.0; sys_platform == 'darwin' or sys_platform == 'win32' # gradio==5.4.0 conformer==0.3.2 deepspeed==0.15.1; sys_platform == 'linux' diffusers==0.29.0 fastapi==0.115.6 fastapi-cli==0.0.4 gdown==5.1.0 grpcio==1.57.0 grpcio-tools==1.57.0 hydra-core==1.3.2 HyperPyYAML==1.2.2 inflect==7.3.1 librosa==0.10.2 lightning==2.2.4 matplotlib==3.7.5 modelscope==1.20.0 networkx==3.1 omegaconf==2.3.0 onnx==1.16.0 onnxruntime==1.18.0; openai-whisper==20231117 protobuf==4.25 pyarrow==18.1.0 pydantic==2.7.0 pyworld==0.3.4 rich==13.7.1 soundfile==0.12.1 tensorboard==2.14.0 torch==2.1.0 torchaudio==2.1.0 transformers==4.51.3 uvicorn==0.30.0 wetext==0.0.4 wget==3.2 4. 下载requirement source /usr/local/Ascend/ascend-toolkit/set_env.shpip install -r requirements.txtpip install soxpip install torch-npu==2.1.0 5. 修改NPUTorch,使用下面这段推理代码 CosyVoice/cosyvoice/cli/model.py Line36self.device = torch.device('cuda' if torch.cuda.is_available() else 'cpu') 修改为self.device = 'npu' import sys sys.path.append('third_party/Matcha-TTS') from cosyvoice.cli.cosyvoice import CosyVoice, CosyVoice2 from cosyvoice.utils.file_utils import load_wav import torch_npu import torchaudio cosyvoice = CosyVoice2('pretrained_models/CosyVoice2-0.5B', load_jit=False, load_trt=False, load_vllm=False, fp16=False) # NOTE if you want to reproduce the results on https://funaudiollm.github.io/cosyvoice2, please add text_frontend=False during inference # zero_shot usage prompt_speech_16k = load_wav('./asset/zero_shot_prompt.wav', 16000) for i, j in enumerate(cosyvoice.inference_zero_shot('收到好友从远方寄来的生日礼物,那份意外的惊喜与深深的祝福让我心中充满了甜蜜的快乐,笑容如花儿般绽放。', '希望你以后能够做的比我还好呦。', prompt_speech_16k, stream=False)): torchaudio.save('zero_shot_{}.wav'.format(i), j['tts_speech'], cosyvoice.sample_rate) # save zero_shot spk for future usage assert cosyvoice.add_zero_shot_spk('希望你以后能够做的比我还好呦。', prompt_speech_16k, 'my_zero_shot_spk') is True for i, j in enumerate(cosyvoice.inference_zero_shot('收到好友从远方寄来的生日礼物,那份意外的惊喜与深深的祝福让我心中充满了甜蜜的快乐,笑容如花儿般绽放。', '', '', zero_shot_spk_id='my_zero_shot_spk', stream=False)): torchaudio.save('zero_shot_{}.wav'.format(i), j['tts_speech'], cosyvoice.sample_rate) cosyvoice.save_spkinfo() # fine grained control, for supported control, check cosyvoice/tokenizer/tokenizer.py#L248 for i, j in enumerate(cosyvoice.inference_cross_lingual('在他讲述那个荒诞故事的过程中,他突然[laughter]停下来,因为他自己也被逗笑了[laughter]。', prompt_speech_16k, stream=False)): torchaudio.save('fine_grained_control_{}.wav'.format(i), j['tts_speech'], cosyvoice.sample_rate) # instruct usage for i, j in enumerate(cosyvoice.inference_instruct2('收到好友从远方寄来的生日礼物,那份意外的惊喜与深深的祝福让我心中充满了甜蜜的快乐,笑容如花儿般绽放。', '用四川话说这句话', prompt_speech_16k, stream=False)): torchaudio.save('instruct_{}.wav'.format(i), j['tts_speech'], cosyvoice.sample_rate) 出现问题:无法推理 使用下面方式解决后,推理速度极慢:export OMP_NUM_THREADS=1
-
您好,在使用华为云服务器ModelArts的过程中,发现服务器内存不够使用,可以单独租一个硬盘用来保存文件吗?有没有具体的操作流程?
-
镜像:mindspore_2.6.0rc1-cann_8.1.rc1-py_3.10-euler_2.10.11-aarch64-snt9b修改:手动安装 cann 8.2.rc1,以及 MindSpeed-LLM 要求的 torch 2.6.0 和 torch_npu。报错如下:>>> import torchTraceback (most recent call last): File "/home/ma-user/miniforge3/envs/dnallm/lib/python3.10/site-packages/torch/__init__.py", line 2756, in _import_device_backends entrypoint = backend_extension.load() File "/home/ma-user/miniforge3/envs/dnallm/lib/python3.10/importlib/metadata/__init__.py", line 171, in load module = import_module(match.group('module')) File "/home/ma-user/miniforge3/envs/dnallm/lib/python3.10/importlib/__init__.py", line 126, in import_module return _bootstrap._gcd_import(name[level:], package, level) File "<frozen importlib._bootstrap>", line 1050, in _gcd_import File "<frozen importlib._bootstrap>", line 1027, in _find_and_load File "<frozen importlib._bootstrap>", line 1006, in _find_and_load_unlocked File "<frozen importlib._bootstrap>", line 688, in _load_unlocked File "<frozen importlib._bootstrap_external>", line 883, in exec_module File "<frozen importlib._bootstrap>", line 241, in _call_with_frames_removed File "/home/ma-user/miniforge3/envs/dnallm/lib/python3.10/site-packages/torch_npu/__init__.py", line 41, in <module> import torch_npu.npu File "/home/ma-user/miniforge3/envs/dnallm/lib/python3.10/site-packages/torch_npu/npu/__init__.py", line 476, in <module> from .memory import * # noqa: F403 File "/home/ma-user/miniforge3/envs/dnallm/lib/python3.10/site-packages/torch_npu/npu/memory.py", line 16, in <module> from ._memory_viz import memory as _memory, segments as _segments File "/home/ma-user/miniforge3/envs/dnallm/lib/python3.10/site-packages/torch_npu/npu/_memory_viz.py", line 11, in <module> import yamlModuleNotFoundError: No module named 'yaml'The above exception was the direct cause of the following exception:Traceback (most recent call last): File "<stdin>", line 1, in <module> File "/home/ma-user/miniforge3/envs/dnallm/lib/python3.10/site-packages/torch/__init__.py", line 2784, in <module> _import_device_backends() File "/home/ma-user/miniforge3/envs/dnallm/lib/python3.10/site-packages/torch/__init__.py", line 2760, in _import_device_backends raise RuntimeError(RuntimeError: Failed to load the backend extension: torch_npu. You can disable extension auto-loading with TORCH_DEVICE_BACKEND_AUTOLOAD=0. 如果手动安装 conda install yaml pyyaml,则报错变为:>>> import torchSegmentation fault
推荐直播
-
HDC深度解读系列 - Serverless与MCP融合创新,构建AI应用全新智能中枢2025/08/20 周三 16:30-18:00
张昆鹏 HCDG北京核心组代表
HDC2025期间,华为云展示了Serverless与MCP融合创新的解决方案,本期访谈直播,由华为云开发者专家(HCDE)兼华为云开发者社区组织HCDG北京核心组代表张鹏先生主持,华为云PaaS服务产品部 Serverless总监Ewen为大家深度解读华为云Serverless与MCP如何融合构建AI应用全新智能中枢
回顾中 -
关于RISC-V生态发展的思考2025/09/02 周二 17:00-18:00
中国科学院计算技术研究所副所长包云岗教授
中科院包云岗老师将在本次直播中,探讨处理器生态的关键要素及其联系,分享过去几年推动RISC-V生态建设实践过程中的经验与教训。
回顾中 -
一键搞定华为云万级资源,3步轻松管理企业成本2025/09/09 周二 15:00-16:00
阿言 华为云交易产品经理
本直播重点介绍如何一键续费万级资源,3步轻松管理成本,帮助提升日常管理效率!
回顾中
热门标签