-
如图这是我的代金券的说明,我想问下可以用于购买弹性云服务器等其他服务器吗?想租Ascend910b只能在modelArts里面租实例吗?弹性云服务器里面的实例里面的GPU都是NVIDIA Tesla系列 并没有Ascend系列的
-
下面是我的详细操作步骤,使用的镜像是:pytorch_2.1.0-cann_8.1.rc1-py_3.10-euler_2.10.11-aarch64-snt9b实例ID:7f74bd20-15bf-485a-9007-a437e1d8c04e创建镜像conda create -n cosyvoice python==3.10 -y 2. 克隆仓库git clone --recursive https://github.com/FunAudioLLM/CosyVoice.git # If you failed to clone the submodule due to network failures, please run the following command until success cd CosyVoice git submodule update --init --recursive 3. 去掉不适配的requriements.txt包# --extra-index-url https://download.pytorch.org/whl/cu121 # --extra-index-url https://aiinfra.pkgs.visualstudio.com/PublicPackages/_packaging/onnxruntime-cuda-12/pypi/simple/ # https://github.com/microsoft/onnxruntime/issues/21684 # tensorrt-cu12==10.0.1; sys_platform == 'linux' # tensorrt-cu12-bindings==10.0.1; sys_platform == 'linux' # tensorrt-cu12-libs==10.0.1; sys_platform == 'linux' # onnxruntime-gpu==1.18.0; sys_platform == 'linux' # onnxruntime==1.18.0; sys_platform == 'darwin' or sys_platform == 'win32' # gradio==5.4.0 conformer==0.3.2 deepspeed==0.15.1; sys_platform == 'linux' diffusers==0.29.0 fastapi==0.115.6 fastapi-cli==0.0.4 gdown==5.1.0 grpcio==1.57.0 grpcio-tools==1.57.0 hydra-core==1.3.2 HyperPyYAML==1.2.2 inflect==7.3.1 librosa==0.10.2 lightning==2.2.4 matplotlib==3.7.5 modelscope==1.20.0 networkx==3.1 omegaconf==2.3.0 onnx==1.16.0 onnxruntime==1.18.0; openai-whisper==20231117 protobuf==4.25 pyarrow==18.1.0 pydantic==2.7.0 pyworld==0.3.4 rich==13.7.1 soundfile==0.12.1 tensorboard==2.14.0 torch==2.1.0 torchaudio==2.1.0 transformers==4.51.3 uvicorn==0.30.0 wetext==0.0.4 wget==3.2 4. 下载requirement source /usr/local/Ascend/ascend-toolkit/set_env.shpip install -r requirements.txtpip install soxpip install torch-npu==2.1.0 5. 修改NPUTorch,使用下面这段推理代码 CosyVoice/cosyvoice/cli/model.py Line36self.device = torch.device('cuda' if torch.cuda.is_available() else 'cpu') 修改为self.device = 'npu' import sys sys.path.append('third_party/Matcha-TTS') from cosyvoice.cli.cosyvoice import CosyVoice, CosyVoice2 from cosyvoice.utils.file_utils import load_wav import torch_npu import torchaudio cosyvoice = CosyVoice2('pretrained_models/CosyVoice2-0.5B', load_jit=False, load_trt=False, load_vllm=False, fp16=False) # NOTE if you want to reproduce the results on https://funaudiollm.github.io/cosyvoice2, please add text_frontend=False during inference # zero_shot usage prompt_speech_16k = load_wav('./asset/zero_shot_prompt.wav', 16000) for i, j in enumerate(cosyvoice.inference_zero_shot('收到好友从远方寄来的生日礼物,那份意外的惊喜与深深的祝福让我心中充满了甜蜜的快乐,笑容如花儿般绽放。', '希望你以后能够做的比我还好呦。', prompt_speech_16k, stream=False)): torchaudio.save('zero_shot_{}.wav'.format(i), j['tts_speech'], cosyvoice.sample_rate) # save zero_shot spk for future usage assert cosyvoice.add_zero_shot_spk('希望你以后能够做的比我还好呦。', prompt_speech_16k, 'my_zero_shot_spk') is True for i, j in enumerate(cosyvoice.inference_zero_shot('收到好友从远方寄来的生日礼物,那份意外的惊喜与深深的祝福让我心中充满了甜蜜的快乐,笑容如花儿般绽放。', '', '', zero_shot_spk_id='my_zero_shot_spk', stream=False)): torchaudio.save('zero_shot_{}.wav'.format(i), j['tts_speech'], cosyvoice.sample_rate) cosyvoice.save_spkinfo() # fine grained control, for supported control, check cosyvoice/tokenizer/tokenizer.py#L248 for i, j in enumerate(cosyvoice.inference_cross_lingual('在他讲述那个荒诞故事的过程中,他突然[laughter]停下来,因为他自己也被逗笑了[laughter]。', prompt_speech_16k, stream=False)): torchaudio.save('fine_grained_control_{}.wav'.format(i), j['tts_speech'], cosyvoice.sample_rate) # instruct usage for i, j in enumerate(cosyvoice.inference_instruct2('收到好友从远方寄来的生日礼物,那份意外的惊喜与深深的祝福让我心中充满了甜蜜的快乐,笑容如花儿般绽放。', '用四川话说这句话', prompt_speech_16k, stream=False)): torchaudio.save('instruct_{}.wav'.format(i), j['tts_speech'], cosyvoice.sample_rate) 出现问题:无法推理 使用下面方式解决后,推理速度极慢:export OMP_NUM_THREADS=1
-
在使用vscode连接远程主机时,报错:远程主机不满足运行VS Code服务器的先决条件原因是本地vscode版本太新。在vscode官网选择低版本重新安装,即可解决。同时,关闭vscode的自动更新概念。
-
远程主机不满足运行VS Code服务器的先决条件
-
请问关于这个可以透露吗,担心练习赛没问题到正式赛的时候time_out
-
在云计算平台上,如何高效管理API接口以提高服务质量?
-
GPU加速云服务器 GACS 能用来训练大模型吗
-
这个信息还是很关键的吧
-
服务器高折扣支持 折上折优惠
-
不同帧工作台的数量会变吗?还是从初始化开始就固定数量了?
-
吐槽 rocm都更新这么多版本了怎么还没有windows的 ~~##RX580用户看过来 rocm4.0版本后就不支持RX580了,垃圾AMD 使用的设备配置 linux:Ubuntu20.04.1 CPU:R9-5900hx GPU:RX6800M 12G python:3.10.6 2022-10-24 23:21:50一键部署工具发布 顺序:1-8-2-3-4-5-7-6 加个源:deb https://ppa.launchpadcontent.net/deadsnakes/ppa/ubuntu jammy main 下载链接https://www.123pan.com/s/xW39-dVMmH提取码:2333 安装GPU驱动 如果你已经安装成功了gpu驱动可以跳过 如果之前装过其它版本没有驱动成功的,在终端输入 sudo amdgpu-install --uninstall卸载驱动 访问amd官网下载amdgpu-install_xxxxxx.xxxxxx_all.deb 进入安装包所在的目录 接着在终端输入:sudo apt install ./amdgpu-install_xxxxxxx-xxxxxx_all.deb(注:amdgpu-install_xxxxxxx-xxxxxx_all.deb指的是你下载的amdgpu版本 然后sudo apt update再sudo apt upgrade -y 开始安装驱动 sudo amdgpu-install --no-dkms sudo apt install rocm-dev //安装完后重启 sudo reboot 1 2 3 4 配置环境 ls -l /dev/dri/render* sudo usermod -a -G render $LOGNAME sudo usermod -a -G video $LOGNAME sudo reboot 1 2 3 4 测试 # 显示gpu性能监控 rocm-smi #查看显卡信息的两条命令(直接在终端输入) /opt/rocm/bin/rocminfo /opt/rocm/opencl/bin/clinfo #有一条报错可能是没安装好 1 2 3 4 5 6 添加path echo ‘export PATH=$PATH:/opt/rocm/bin:/opt/rocm/profiler/bin:/opt/rocm/opencl/bin/x86_64’ | sudo tee -a /etc/profile.d/rocm.sh 安装MIopen #安装hip sudo apt-get install miopen-hip #下载miopenkernels,适用与gfx1030的a卡,如果你不是可以试一下 链接:https://www.123pan.com/s/xW39-oyMmH sudo dpkg -i miopenkernels-gfx1030-36kdb_1.1.0.50200-65_amd64.deb 1 2 3 4 5 RDNA2架构安装pytorch pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/rocm5.1.1 1 RX580(gfx803)用户安装这个 pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/rocm3.7 1 运行stable-diffusion-webui sudo apt install git git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git cd stable-diffusion-webui #一般会提示pip版本太低,更新一下 python -m pip install --upgrade pip wheel pip install -r requirements.txt' -i https://pypi.tuna.tsinghua.edu.cn/simple HSA_OVERRIDE_GFX_VERSION=10.3.0 python launch.py --precision full --no-half #HSA_OVERRIDE_GFX_VERSION可以模拟版本可以填9.0.0或者8.0.3(没试过) //一般来讲会提示没有模型,如果有扔./models/Stable-diffusion里,本文不提供,自行百度 1 2 3 4 5 6 7 8 9 提示cuda错误,解决方法 torch is not able to use gpu #打开launch.py找到这句代码 commandline_args = os.environ.get('COMMANDLINE_ARGS', "") #改成 commandline_args = os.environ.get('COMMANDLINE_ARGS', "--skip-torch-cuda-test") 1 2 3 4 疑难杂症解决 rocm-gdb依赖libpython3.8解决 进软件和更新——其他软件——添加下面软件源 deb https://ppa.launchpadcontent.net/deadsnakes/ppa/ubuntu jammy main 1 更新一下软件源 sudo apt upgrade sudo apt update 1 2 安装libpython3.8并重新运行amdgpu-install sudo apt install libpython3.8 sudo apt install rocm-dev 1 2 rocm-llvm依赖python但无法安装它 找个目录进行操作 apt download rocm-llvm ar x rocm-llvm_xxxx.xxxxx_amd64.deb tar xf control.tar.xz #编辑文件,如果没有vim将先安装sudo apt install vim vim control #找到如下一行: Depends: python, libc6, libstdc++6|libstdc++8, libstdc++-5-dev|libstdc++-7-dev, libgcc-5-dev|libgcc-7-dev, rocm-core #改为如下内容: Depends: python3, libc6, libstdc++6|libstdc++8, libstdc++-5-dev|libstdc++-7-dev|libstdc++-10-dev, libgcc-5-dev|libgcc-7-dev|libgcc-10-dev, rocm-core #重新打包 tar c postinst prerm control | xz -c > control.tar.xz ar rcs rocm-llvm.deb debian-binary control.tar.xz data.tar.xz #安装前先安装依赖 sudo apt install libstdc++-10-dev libgcc-10-dev rocm-core #安装 sudo dpkg -i rocm-llvm.deb #重新安装驱动 sudo amdgpu-install --no-dkms 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 运行launch.py时出现语法错误/切换python版本版本 多半是你ubuntu默认python不对应 sudo HSA_OVERRIDE_GFX_VERSION=10.3.0 python launch.py --precision full --no-half 1 #先查看本地安装了多少个python ls /usr/bin/python* #正常来讲会出现一下内容 #/usr/bin/python /usr/bin/python3.10-config /usr/bin/python3-futurize #/usr/bin/python3 /usr/bin/python3.8 /usr/bin/python3-pasteurize #/usr/bin/python3.10 /usr/bin/python3-config #我们要用的是python3.10的,所以 sudo rm /usr/bin/python #删除原来的链接 sudo ln -s /usr/bin/python3.10 /usr/bin/python #创建新的链接 python --version #测试 1 2 3 4 5 6 7 8 9 10 Can’t run without a checkpoint. Find and place a .ckpt file into any of those locations. The program will exit. 你没有模型,把模型放进/models/Stable-diffusion里面吧(cpkt文件) 安装完驱动重启黑屏 启动的时候选择第二项(recovery模式)后,再选第一项继续进入系统,进来后卸载驱动 运行后下载插件超时 下载插件的速度三取决与年访问github是否流畅,很卡的话就修改launch.py吧 例 gfpgan_package = os.environ.get('GFPGAN_PACKAGE', "git+https://github.com/TencentARC/GFPGAN.git@8d2447a2d918f8eba5a4a01463fd48e45126a379") 修改成 gfpgan_package = os.environ.get('GFPGAN_PACKAGE', "git+ https://ghproxy.com/https://github.com/TencentARC/GFPGAN.git@8d2447a2d918f8eba5a4a01463fd48e45126a379") 1 2 3 GPU看戏(指GPU不工作) 用root环境运行webui吧(没试过) su #输入密码,如果没设置就用sudo passwd root设置密码 HSA_OVERRIDE_GFX_VERSION=10.3.0 python launch.py --precision full --no-half #HSA_OVERRIDE_GFX_VERSION可以模拟版本可以填9.0.0或者8.0.3(没试过) 1 2 3 4 愉快玩耍 进webui目录执行以下操作 HSA_OVERRIDE_GFX_VERSION=10.3.0 python launch.py --precision full --no-half 1 如果运行时出现什么hip错误找不到gfx1030或者其他版号的可以不用管,等待一会就可以了,后面生成就不会提示,(每次启动第一次运行都会这样) 显卡监控(选装) sudo apt install radeontop radeontop ———————————————— 版权声明:本文为CSDN博主「晓舟 XiaozhouTAT」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。 原文链接:https://blog.csdn.net/qq_44948500/article/details/127346390
-
出现这种情况如图 用的是atlas200和第三方底板
-
请问ManageOne 或者 华为stack 支持通过API对GPU进行生命周期管理吗,与ECS的API接口是否一致?
-
ffasdsdasdasdasd
-
/home/target/*.xlsx 删除的远端目标文件这样写不行 改如何写呢
推荐直播
-
HDC深度解读系列 - Serverless与MCP融合创新,构建AI应用全新智能中枢2025/08/20 周三 16:30-18:00
张昆鹏 HCDG北京核心组代表
HDC2025期间,华为云展示了Serverless与MCP融合创新的解决方案,本期访谈直播,由华为云开发者专家(HCDE)兼华为云开发者社区组织HCDG北京核心组代表张鹏先生主持,华为云PaaS服务产品部 Serverless总监Ewen为大家深度解读华为云Serverless与MCP如何融合构建AI应用全新智能中枢
回顾中 -
关于RISC-V生态发展的思考2025/09/02 周二 17:00-18:00
中国科学院计算技术研究所副所长包云岗教授
中科院包云岗老师将在本次直播中,探讨处理器生态的关键要素及其联系,分享过去几年推动RISC-V生态建设实践过程中的经验与教训。
回顾中 -
一键搞定华为云万级资源,3步轻松管理企业成本2025/09/09 周二 15:00-16:00
阿言 华为云交易产品经理
本直播重点介绍如何一键续费万级资源,3步轻松管理成本,帮助提升日常管理效率!
回顾中
热门标签