- 昇思,为了AI深思! 昇思,为了AI深思!
- 搞好3080显卡,为了AI。 搞好3080显卡,为了AI。
- 双系统,为了AI。 双系统,为了AI。
- 拆机,为了AI。 拆机,为了AI。
- 本文研究了昇思,这样的研究值得深思。 本文研究了昇思,这样的研究值得深思。
- Windows 11预览版+WSL2+docker+nvidia-docker+MindSpore1.3.0 Windows 11预览版+WSL2+docker+nvidia-docker+MindSpore1.3.0
- @Author:Runsen GPU在gpu上训练使训练神经网络比在cpu上运行快得多Keras支持使用Tensorflow和Theano后端对gpu进行培训文档: https://keras.io/getting-started/faq/#how-can-i-run-keras-on-gpu 安装GPU首先,下载并安装CUDA&CuDNN(假设您使用的是NVIDIA gpu)安装url... @Author:Runsen GPU在gpu上训练使训练神经网络比在cpu上运行快得多Keras支持使用Tensorflow和Theano后端对gpu进行培训文档: https://keras.io/getting-started/faq/#how-can-i-run-keras-on-gpu 安装GPU首先,下载并安装CUDA&CuDNN(假设您使用的是NVIDIA gpu)安装url...
- 在云上使用GPU图形加速功能时,对GPU驱动以及远程连接方式等有一些约束。为了降低用户的学习使用成本,这里给出了一些实践方面的建议。选用合适规格的GPU不同的图形加速场景对GPU的性能或者显存大小有不同的需求,请根据测试软件官方的推荐配置(一般此类软件的官网都会提供)或者云下使用的机器配置,选用合适规格的GPU加速实例。不同显卡的性能对比可参考:https://www.techpowerup... 在云上使用GPU图形加速功能时,对GPU驱动以及远程连接方式等有一些约束。为了降低用户的学习使用成本,这里给出了一些实践方面的建议。选用合适规格的GPU不同的图形加速场景对GPU的性能或者显存大小有不同的需求,请根据测试软件官方的推荐配置(一般此类软件的官网都会提供)或者云下使用的机器配置,选用合适规格的GPU加速实例。不同显卡的性能对比可参考:https://www.techpowerup...
- 1、内核版本与驱动版本不兼容安装驱动报错,如图所示:在安装日志中(/var/log/nvidia-installer.log)看到驱动编译安装过程,由于内核中的某个函数报错,导致驱动编译安装失败;此为GPU驱动版本与特定Linux内核版本的兼容性问题。解决方法:请使用更低版本内核, 或者保持当前linux内核版本但是使用更高版本的的英伟达驱动,具体驱动版本与linux内核版本的兼容性以英伟... 1、内核版本与驱动版本不兼容安装驱动报错,如图所示:在安装日志中(/var/log/nvidia-installer.log)看到驱动编译安装过程,由于内核中的某个函数报错,导致驱动编译安装失败;此为GPU驱动版本与特定Linux内核版本的兼容性问题。解决方法:请使用更低版本内核, 或者保持当前linux内核版本但是使用更高版本的的英伟达驱动,具体驱动版本与linux内核版本的兼容性以英伟...
- 使用modelarts自定义镜像功能将将本地训练环境迁移到modelarts上 使用modelarts自定义镜像功能将将本地训练环境迁移到modelarts上
- 使用华为云GPU加速基于ollama部署本地大模型 使用华为云GPU加速基于ollama部署本地大模型
- @TOC💡身为大学生的我们,往往都只有笔记本,在深度学习中,AlexNet以上的model基本是跑不动了,下面我教大家如何在无公网Ip的情况下用Windows系统的电脑作为服务端,我们通过笔记本来访问设备远程炼丹。准备:VscodeZerotier 配置Zeroiter(内网穿透)首先打开网站注册账号登陆之后,来到这个页面点击建立新Network会出现下面一行,然后点击它:这个id我们要记... @TOC💡身为大学生的我们,往往都只有笔记本,在深度学习中,AlexNet以上的model基本是跑不动了,下面我教大家如何在无公网Ip的情况下用Windows系统的电脑作为服务端,我们通过笔记本来访问设备远程炼丹。准备:VscodeZerotier 配置Zeroiter(内网穿透)首先打开网站注册账号登陆之后,来到这个页面点击建立新Network会出现下面一行,然后点击它:这个id我们要记...
- detect.pyimport argparse #python的命令解析的模块,内置于python,不需要安装import torch.backends.cudnn as cudnn from models.experimental import *from utils.datasets import *from utils.utils import *from models.LPRN... detect.pyimport argparse #python的命令解析的模块,内置于python,不需要安装import torch.backends.cudnn as cudnn from models.experimental import *from utils.datasets import *from utils.utils import *from models.LPRN...
- CUDA CUDA
- CUDA CUDA
上滑加载中
推荐直播
-
昇腾AI算法挑战赛-核心算子如何优化?专家带你深度解析2025/11/17 周一 16:00-17:00
王老师 华为算子专家
昇腾AI算法挑战赛进阶赛战鼓催征!本期直播间,我们特邀华为算子专家王老师,为你深度剖析Matmul、wholereducesum等核心算子的底层原理与优化技巧,直击赛题核心。想提升代码效率、冲击更高排名?锁定直播,带你破局!
回顾中 -
AI编码实干派,“码”力全开2026/02/26 周四 15:00-16:30
谈宗玮/于邦旭/丁俊卿/陈云亮/王一男
【中国,深圳,2026年2月26日】,以“AI编码实干派,码力全开”为主题的华为云码道(CodeArts)代码智能体新春发布会在线上成功召开。华为云码道公测版正式发布,为开发者和企业提供具备工程化能力的智能编码解决方案。
回顾中 -
华为云码道-玩转OpenClaw,开启在线养虾模式2026/03/11 周三 19:00-20:00
刘昱,华为云高级工程师/谈心,华为云技术专家/李海仑,上海圭卓智能科技有限公司CEO
OpenClaw 火爆开发者圈,华为云码道最新推出 Skill ——开发者只需输入一句口令,即可部署一个功能完整的「小龙虾」智能体。直播带你玩转华为云码道,玩转OpenClaw
回顾中
热门标签