-
点量云流近期支撑了一个智慧园区模型网页云推流使用的项目,由于是第一次在项目上使用实时云渲染的技术方案,所以在支撑过程中的很多问题非常典型,今天小编就整个过程的交流做相关分享,希望对有类似问题或需求的伙伴提供一些帮助。项目背景:使用UE5引擎开发的智慧园区模型,最初的计划是配置本地高性能电脑,只需要通过HDMI线连接大屏展示即可。但在验收过程中,业主提出需要在网页上使用,要满足2-3个用户的并发使用。项目上目前已经购买了RTX3080Ti显卡,尝试了webgl和像素流送PixelStreaming的技术路线。但是发现webgl的技术路线,推流后的网页比较糊效果不满意。而像素流送PixelStreaming不稳定,经常会出现崩溃的问题,用户体验非常不好,且目前已有的方案无法满足3个用户的使用。需求分析:基于以上项目背景情况,点量云流认为有以下几个问题需要解决①网页推流使用②需要保证稳定性③在现有硬件配置下尽可能做增加并发用户数 点量云流推流后网页使用,测试过程和疑问分享:在工程师的电脑上安装点量云流渲染服务,工程师的机器是RTX4060显卡,性能比项目现场的机器性能弱。安装了云流渲染服务后,创建了云应用,也就是将要推流的UE应用存储路径告知云流渲染服务。云渲染服务是本地私有化部署,不需要将应用上传到云端。Q1:创建云应用时设置了3个云推流并发,但是电脑上浏览器只能打开一个,其他的链接自动关闭了。这是点量云流渲染系统的一个算力节省策略,同一个电脑同一个浏览器只打开一个推流网页,主要是为了减少GPU和CPU资源占用。如果想要测试多个推流后能支持多少并发,可以用浏览器的无痕模型,或者切换不同的浏览器分别打开。Q2:在现有的GPU和CPU 硬件条件下,如何提升云串流并发数?在点量云流实时渲染系统中,默认的是60帧率,1920*1080的清晰度。在该测试过程中发现,这样的参数设置只能跑2路并发。如果想实现3个并发,在现有硬件基础下,可以通过降低帧率和清晰度的方式,增加并发数。在这个项目中,将帧率降到30以后,就可以实现支持3个并发。测试使用的是RTX4060显卡,而项目上是RTX3080Ti,而3080Ti的性能比4060要高不少,因此在开发环境下测试能实现的化,在生产环境中基本没问题,或者可以将帧率和分辨率在调高一些,在满足3个并发的前提下实现合适的参数组合以实现更好的用户体验。Q3:没用云渲染本地跑1路的时候GPU占用到了90%,实时云渲染推流之后就只能跑1路吗?这个不一定,在本项目中,由于UE模型没有做锁帧,在本地测试的时候确实GPU占用瞬间到了90%,但点量云流系统默认是设置了帧率后自动做锁帧处理。因此该项目中可以支持3并发使用。Q4:如果使用实时渲染推流服务,需要开放哪些端口?还需要30000段开始的一些udp端口,用来传输画面数据,这些是浏览器访问的情况下对浏览器端要用到的。云流服务本地还可能用到一些其他端口,但不一定是浏览器访问的时候用到的,可能是本机服务之间内部通信会用到。具体关于端口的问题可以查看文档:https://doc.dolit.cn/dolitcloudserver/light_portQ5:云推流是否支持https证书设置?点量云流管理平台中可以直接设置https证书,对于自签的私有证书,上传到云流管理平台替换默认的证书文件,还是通过http+ip的形式访问,申请的第三方证书可以用公网域名访问。本项目中是自签的私有证书,上传后无需修改其他的配置,只是原来推流的网页地址是http的,现在换成了https的,不需要考虑端口的切换等问题。直接重新复制要实时渲染应用的推流网址在浏览器重新打开即可。如果需要切换不同的端口也可以自己修改后,用新的端口来访问。Q6:https访问的时候,ip+端口号,后面还要加一串参数,直接ip+端口访问不了,有直接ip+端口能访问的方法么?或者直接用域名访问一定要有参数的,因为实时云渲染系统可以支持多个应用,参数的主要作用就是用来匹配要加载的应用。如果项目中只有一个应用,可以通过调用websdk的方式设置,或者独立做一个网页iframe嵌套实时云渲染网址,或者考虑定制服务。Q7:实时云渲染的前端网页,如果半小时没操作是否能自动下线?这是基础功能,在可视化云流管理平台后台可直接自定义设置,这个机制也是为了节省资源。点量云流官网的测试demo默认设置了3分钟体验时间,也是基于该功能。 Q8:有没有1280*720的分辨率,因为UI要保持16:9的比例在云流管理平台中支持多种分辨率的自定义,可根据项目需要选择适合的分辨率,保存后,重新打开推流网页即可生效。或者在前端页面用户手动修改需要的分辨率和画面比例。在云流管理平台中,点开编辑云应用-高级设置-分辨率,目前支持的分辨率类型有:1280*720、1920*1080、2K、4K、8K等多种。Q9:3个并发,要求带宽要达到多少?如果带宽低,会影响帧率吗?需要的带宽是根据单个并发设置的码率以及并发数来决定的,在本项目中设置的单个并发码率为10M,则3并发总带宽得在30M。如果码率设置的低一些,比如5M,则20M也够用,一般来说在局域网环境中20M的码率非常容易实现。但也不建议码率太低,否则可能会影响画质。以上是智慧园区UE模型实时渲染云推流的交流过程,经过多次反复的比较,最终确定的计划是仍然用1920*1080分辨率推流,同时对UE场景做进一步的优化。在开发环境的RTX4060 8G显存的电脑上能解决3路并发的问题。
-
一般额度审核时间大概要多久呢,自提交申请已经快一个月了。
-
如图这是我的代金券的说明,我想问下可以用于购买弹性云服务器等其他服务器吗?想租Ascend910b只能在modelArts里面租实例吗?弹性云服务器里面的实例里面的GPU都是NVIDIA Tesla系列 并没有Ascend系列的
-
下面是我的详细操作步骤,使用的镜像是:pytorch_2.1.0-cann_8.1.rc1-py_3.10-euler_2.10.11-aarch64-snt9b实例ID:7f74bd20-15bf-485a-9007-a437e1d8c04e创建镜像conda create -n cosyvoice python==3.10 -y 2. 克隆仓库git clone --recursive https://github.com/FunAudioLLM/CosyVoice.git # If you failed to clone the submodule due to network failures, please run the following command until success cd CosyVoice git submodule update --init --recursive 3. 去掉不适配的requriements.txt包# --extra-index-url https://download.pytorch.org/whl/cu121 # --extra-index-url https://aiinfra.pkgs.visualstudio.com/PublicPackages/_packaging/onnxruntime-cuda-12/pypi/simple/ # https://github.com/microsoft/onnxruntime/issues/21684 # tensorrt-cu12==10.0.1; sys_platform == 'linux' # tensorrt-cu12-bindings==10.0.1; sys_platform == 'linux' # tensorrt-cu12-libs==10.0.1; sys_platform == 'linux' # onnxruntime-gpu==1.18.0; sys_platform == 'linux' # onnxruntime==1.18.0; sys_platform == 'darwin' or sys_platform == 'win32' # gradio==5.4.0 conformer==0.3.2 deepspeed==0.15.1; sys_platform == 'linux' diffusers==0.29.0 fastapi==0.115.6 fastapi-cli==0.0.4 gdown==5.1.0 grpcio==1.57.0 grpcio-tools==1.57.0 hydra-core==1.3.2 HyperPyYAML==1.2.2 inflect==7.3.1 librosa==0.10.2 lightning==2.2.4 matplotlib==3.7.5 modelscope==1.20.0 networkx==3.1 omegaconf==2.3.0 onnx==1.16.0 onnxruntime==1.18.0; openai-whisper==20231117 protobuf==4.25 pyarrow==18.1.0 pydantic==2.7.0 pyworld==0.3.4 rich==13.7.1 soundfile==0.12.1 tensorboard==2.14.0 torch==2.1.0 torchaudio==2.1.0 transformers==4.51.3 uvicorn==0.30.0 wetext==0.0.4 wget==3.2 4. 下载requirement source /usr/local/Ascend/ascend-toolkit/set_env.shpip install -r requirements.txtpip install soxpip install torch-npu==2.1.0 5. 修改NPUTorch,使用下面这段推理代码 CosyVoice/cosyvoice/cli/model.py Line36self.device = torch.device('cuda' if torch.cuda.is_available() else 'cpu') 修改为self.device = 'npu' import sys sys.path.append('third_party/Matcha-TTS') from cosyvoice.cli.cosyvoice import CosyVoice, CosyVoice2 from cosyvoice.utils.file_utils import load_wav import torch_npu import torchaudio cosyvoice = CosyVoice2('pretrained_models/CosyVoice2-0.5B', load_jit=False, load_trt=False, load_vllm=False, fp16=False) # NOTE if you want to reproduce the results on https://funaudiollm.github.io/cosyvoice2, please add text_frontend=False during inference # zero_shot usage prompt_speech_16k = load_wav('./asset/zero_shot_prompt.wav', 16000) for i, j in enumerate(cosyvoice.inference_zero_shot('收到好友从远方寄来的生日礼物,那份意外的惊喜与深深的祝福让我心中充满了甜蜜的快乐,笑容如花儿般绽放。', '希望你以后能够做的比我还好呦。', prompt_speech_16k, stream=False)): torchaudio.save('zero_shot_{}.wav'.format(i), j['tts_speech'], cosyvoice.sample_rate) # save zero_shot spk for future usage assert cosyvoice.add_zero_shot_spk('希望你以后能够做的比我还好呦。', prompt_speech_16k, 'my_zero_shot_spk') is True for i, j in enumerate(cosyvoice.inference_zero_shot('收到好友从远方寄来的生日礼物,那份意外的惊喜与深深的祝福让我心中充满了甜蜜的快乐,笑容如花儿般绽放。', '', '', zero_shot_spk_id='my_zero_shot_spk', stream=False)): torchaudio.save('zero_shot_{}.wav'.format(i), j['tts_speech'], cosyvoice.sample_rate) cosyvoice.save_spkinfo() # fine grained control, for supported control, check cosyvoice/tokenizer/tokenizer.py#L248 for i, j in enumerate(cosyvoice.inference_cross_lingual('在他讲述那个荒诞故事的过程中,他突然[laughter]停下来,因为他自己也被逗笑了[laughter]。', prompt_speech_16k, stream=False)): torchaudio.save('fine_grained_control_{}.wav'.format(i), j['tts_speech'], cosyvoice.sample_rate) # instruct usage for i, j in enumerate(cosyvoice.inference_instruct2('收到好友从远方寄来的生日礼物,那份意外的惊喜与深深的祝福让我心中充满了甜蜜的快乐,笑容如花儿般绽放。', '用四川话说这句话', prompt_speech_16k, stream=False)): torchaudio.save('instruct_{}.wav'.format(i), j['tts_speech'], cosyvoice.sample_rate) 出现问题:无法推理 使用下面方式解决后,推理速度极慢:export OMP_NUM_THREADS=1
-
在使用vscode连接远程主机时,报错:远程主机不满足运行VS Code服务器的先决条件原因是本地vscode版本太新。在vscode官网选择低版本重新安装,即可解决。同时,关闭vscode的自动更新概念。
-
远程主机不满足运行VS Code服务器的先决条件
-
请问关于这个可以透露吗,担心练习赛没问题到正式赛的时候time_out
-
在云计算平台上,如何高效管理API接口以提高服务质量?
-
GPU加速云服务器 GACS 能用来训练大模型吗
-
服务器高折扣支持 折上折优惠
-
不同帧工作台的数量会变吗?还是从初始化开始就固定数量了?
-
吐槽 rocm都更新这么多版本了怎么还没有windows的 ~~##RX580用户看过来 rocm4.0版本后就不支持RX580了,垃圾AMD 使用的设备配置 linux:Ubuntu20.04.1 CPU:R9-5900hx GPU:RX6800M 12G python:3.10.6 2022-10-24 23:21:50一键部署工具发布 顺序:1-8-2-3-4-5-7-6 加个源:deb https://ppa.launchpadcontent.net/deadsnakes/ppa/ubuntu jammy main 下载链接https://www.123pan.com/s/xW39-dVMmH提取码:2333 安装GPU驱动 如果你已经安装成功了gpu驱动可以跳过 如果之前装过其它版本没有驱动成功的,在终端输入 sudo amdgpu-install --uninstall卸载驱动 访问amd官网下载amdgpu-install_xxxxxx.xxxxxx_all.deb 进入安装包所在的目录 接着在终端输入:sudo apt install ./amdgpu-install_xxxxxxx-xxxxxx_all.deb(注:amdgpu-install_xxxxxxx-xxxxxx_all.deb指的是你下载的amdgpu版本 然后sudo apt update再sudo apt upgrade -y 开始安装驱动 sudo amdgpu-install --no-dkms sudo apt install rocm-dev //安装完后重启 sudo reboot 1 2 3 4 配置环境 ls -l /dev/dri/render* sudo usermod -a -G render $LOGNAME sudo usermod -a -G video $LOGNAME sudo reboot 1 2 3 4 测试 # 显示gpu性能监控 rocm-smi #查看显卡信息的两条命令(直接在终端输入) /opt/rocm/bin/rocminfo /opt/rocm/opencl/bin/clinfo #有一条报错可能是没安装好 1 2 3 4 5 6 添加path echo ‘export PATH=$PATH:/opt/rocm/bin:/opt/rocm/profiler/bin:/opt/rocm/opencl/bin/x86_64’ | sudo tee -a /etc/profile.d/rocm.sh 安装MIopen #安装hip sudo apt-get install miopen-hip #下载miopenkernels,适用与gfx1030的a卡,如果你不是可以试一下 链接:https://www.123pan.com/s/xW39-oyMmH sudo dpkg -i miopenkernels-gfx1030-36kdb_1.1.0.50200-65_amd64.deb 1 2 3 4 5 RDNA2架构安装pytorch pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/rocm5.1.1 1 RX580(gfx803)用户安装这个 pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/rocm3.7 1 运行stable-diffusion-webui sudo apt install git git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git cd stable-diffusion-webui #一般会提示pip版本太低,更新一下 python -m pip install --upgrade pip wheel pip install -r requirements.txt' -i https://pypi.tuna.tsinghua.edu.cn/simple HSA_OVERRIDE_GFX_VERSION=10.3.0 python launch.py --precision full --no-half #HSA_OVERRIDE_GFX_VERSION可以模拟版本可以填9.0.0或者8.0.3(没试过) //一般来讲会提示没有模型,如果有扔./models/Stable-diffusion里,本文不提供,自行百度 1 2 3 4 5 6 7 8 9 提示cuda错误,解决方法 torch is not able to use gpu #打开launch.py找到这句代码 commandline_args = os.environ.get('COMMANDLINE_ARGS', "") #改成 commandline_args = os.environ.get('COMMANDLINE_ARGS', "--skip-torch-cuda-test") 1 2 3 4 疑难杂症解决 rocm-gdb依赖libpython3.8解决 进软件和更新——其他软件——添加下面软件源 deb https://ppa.launchpadcontent.net/deadsnakes/ppa/ubuntu jammy main 1 更新一下软件源 sudo apt upgrade sudo apt update 1 2 安装libpython3.8并重新运行amdgpu-install sudo apt install libpython3.8 sudo apt install rocm-dev 1 2 rocm-llvm依赖python但无法安装它 找个目录进行操作 apt download rocm-llvm ar x rocm-llvm_xxxx.xxxxx_amd64.deb tar xf control.tar.xz #编辑文件,如果没有vim将先安装sudo apt install vim vim control #找到如下一行: Depends: python, libc6, libstdc++6|libstdc++8, libstdc++-5-dev|libstdc++-7-dev, libgcc-5-dev|libgcc-7-dev, rocm-core #改为如下内容: Depends: python3, libc6, libstdc++6|libstdc++8, libstdc++-5-dev|libstdc++-7-dev|libstdc++-10-dev, libgcc-5-dev|libgcc-7-dev|libgcc-10-dev, rocm-core #重新打包 tar c postinst prerm control | xz -c > control.tar.xz ar rcs rocm-llvm.deb debian-binary control.tar.xz data.tar.xz #安装前先安装依赖 sudo apt install libstdc++-10-dev libgcc-10-dev rocm-core #安装 sudo dpkg -i rocm-llvm.deb #重新安装驱动 sudo amdgpu-install --no-dkms 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 运行launch.py时出现语法错误/切换python版本版本 多半是你ubuntu默认python不对应 sudo HSA_OVERRIDE_GFX_VERSION=10.3.0 python launch.py --precision full --no-half 1 #先查看本地安装了多少个python ls /usr/bin/python* #正常来讲会出现一下内容 #/usr/bin/python /usr/bin/python3.10-config /usr/bin/python3-futurize #/usr/bin/python3 /usr/bin/python3.8 /usr/bin/python3-pasteurize #/usr/bin/python3.10 /usr/bin/python3-config #我们要用的是python3.10的,所以 sudo rm /usr/bin/python #删除原来的链接 sudo ln -s /usr/bin/python3.10 /usr/bin/python #创建新的链接 python --version #测试 1 2 3 4 5 6 7 8 9 10 Can’t run without a checkpoint. Find and place a .ckpt file into any of those locations. The program will exit. 你没有模型,把模型放进/models/Stable-diffusion里面吧(cpkt文件) 安装完驱动重启黑屏 启动的时候选择第二项(recovery模式)后,再选第一项继续进入系统,进来后卸载驱动 运行后下载插件超时 下载插件的速度三取决与年访问github是否流畅,很卡的话就修改launch.py吧 例 gfpgan_package = os.environ.get('GFPGAN_PACKAGE', "git+https://github.com/TencentARC/GFPGAN.git@8d2447a2d918f8eba5a4a01463fd48e45126a379") 修改成 gfpgan_package = os.environ.get('GFPGAN_PACKAGE', "git+ https://ghproxy.com/https://github.com/TencentARC/GFPGAN.git@8d2447a2d918f8eba5a4a01463fd48e45126a379") 1 2 3 GPU看戏(指GPU不工作) 用root环境运行webui吧(没试过) su #输入密码,如果没设置就用sudo passwd root设置密码 HSA_OVERRIDE_GFX_VERSION=10.3.0 python launch.py --precision full --no-half #HSA_OVERRIDE_GFX_VERSION可以模拟版本可以填9.0.0或者8.0.3(没试过) 1 2 3 4 愉快玩耍 进webui目录执行以下操作 HSA_OVERRIDE_GFX_VERSION=10.3.0 python launch.py --precision full --no-half 1 如果运行时出现什么hip错误找不到gfx1030或者其他版号的可以不用管,等待一会就可以了,后面生成就不会提示,(每次启动第一次运行都会这样) 显卡监控(选装) sudo apt install radeontop radeontop ———————————————— 版权声明:本文为CSDN博主「晓舟 XiaozhouTAT」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。 原文链接:https://blog.csdn.net/qq_44948500/article/details/127346390
-
请问ManageOne 或者 华为stack 支持通过API对GPU进行生命周期管理吗,与ECS的API接口是否一致?
-
ffasdsdasdasdasd
-
/home/target/*.xlsx 删除的远端目标文件这样写不行 改如何写呢
推荐直播
-
HDC深度解读系列 - Serverless与MCP融合创新,构建AI应用全新智能中枢2025/08/20 周三 16:30-18:00
张昆鹏 HCDG北京核心组代表
HDC2025期间,华为云展示了Serverless与MCP融合创新的解决方案,本期访谈直播,由华为云开发者专家(HCDE)兼华为云开发者社区组织HCDG北京核心组代表张鹏先生主持,华为云PaaS服务产品部 Serverless总监Ewen为大家深度解读华为云Serverless与MCP如何融合构建AI应用全新智能中枢
回顾中 -
关于RISC-V生态发展的思考2025/09/02 周二 17:00-18:00
中国科学院计算技术研究所副所长包云岗教授
中科院包云岗老师将在本次直播中,探讨处理器生态的关键要素及其联系,分享过去几年推动RISC-V生态建设实践过程中的经验与教训。
回顾中 -
一键搞定华为云万级资源,3步轻松管理企业成本2025/09/09 周二 15:00-16:00
阿言 华为云交易产品经理
本直播重点介绍如何一键续费万级资源,3步轻松管理成本,帮助提升日常管理效率!
回顾中
热门标签