- 昇思,为了AI深思! 昇思,为了AI深思!
- 搞好3080显卡,为了AI。 搞好3080显卡,为了AI。
- 双系统,为了AI。 双系统,为了AI。
- 拆机,为了AI。 拆机,为了AI。
- 本文研究了昇思,这样的研究值得深思。 本文研究了昇思,这样的研究值得深思。
- Windows 11预览版+WSL2+docker+nvidia-docker+MindSpore1.3.0 Windows 11预览版+WSL2+docker+nvidia-docker+MindSpore1.3.0
- @Author:Runsen GPU在gpu上训练使训练神经网络比在cpu上运行快得多Keras支持使用Tensorflow和Theano后端对gpu进行培训文档: https://keras.io/getting-started/faq/#how-can-i-run-keras-on-gpu 安装GPU首先,下载并安装CUDA&CuDNN(假设您使用的是NVIDIA gpu)安装url... @Author:Runsen GPU在gpu上训练使训练神经网络比在cpu上运行快得多Keras支持使用Tensorflow和Theano后端对gpu进行培训文档: https://keras.io/getting-started/faq/#how-can-i-run-keras-on-gpu 安装GPU首先,下载并安装CUDA&CuDNN(假设您使用的是NVIDIA gpu)安装url...
- 在云上使用GPU图形加速功能时,对GPU驱动以及远程连接方式等有一些约束。为了降低用户的学习使用成本,这里给出了一些实践方面的建议。选用合适规格的GPU不同的图形加速场景对GPU的性能或者显存大小有不同的需求,请根据测试软件官方的推荐配置(一般此类软件的官网都会提供)或者云下使用的机器配置,选用合适规格的GPU加速实例。不同显卡的性能对比可参考:https://www.techpowerup... 在云上使用GPU图形加速功能时,对GPU驱动以及远程连接方式等有一些约束。为了降低用户的学习使用成本,这里给出了一些实践方面的建议。选用合适规格的GPU不同的图形加速场景对GPU的性能或者显存大小有不同的需求,请根据测试软件官方的推荐配置(一般此类软件的官网都会提供)或者云下使用的机器配置,选用合适规格的GPU加速实例。不同显卡的性能对比可参考:https://www.techpowerup...
- 1、内核版本与驱动版本不兼容安装驱动报错,如图所示:在安装日志中(/var/log/nvidia-installer.log)看到驱动编译安装过程,由于内核中的某个函数报错,导致驱动编译安装失败;此为GPU驱动版本与特定Linux内核版本的兼容性问题。解决方法:请使用更低版本内核, 或者保持当前linux内核版本但是使用更高版本的的英伟达驱动,具体驱动版本与linux内核版本的兼容性以英伟... 1、内核版本与驱动版本不兼容安装驱动报错,如图所示:在安装日志中(/var/log/nvidia-installer.log)看到驱动编译安装过程,由于内核中的某个函数报错,导致驱动编译安装失败;此为GPU驱动版本与特定Linux内核版本的兼容性问题。解决方法:请使用更低版本内核, 或者保持当前linux内核版本但是使用更高版本的的英伟达驱动,具体驱动版本与linux内核版本的兼容性以英伟...
- 使用modelarts自定义镜像功能将将本地训练环境迁移到modelarts上 使用modelarts自定义镜像功能将将本地训练环境迁移到modelarts上
- 使用华为云GPU加速基于ollama部署本地大模型 使用华为云GPU加速基于ollama部署本地大模型
- @TOC💡身为大学生的我们,往往都只有笔记本,在深度学习中,AlexNet以上的model基本是跑不动了,下面我教大家如何在无公网Ip的情况下用Windows系统的电脑作为服务端,我们通过笔记本来访问设备远程炼丹。准备:VscodeZerotier 配置Zeroiter(内网穿透)首先打开网站注册账号登陆之后,来到这个页面点击建立新Network会出现下面一行,然后点击它:这个id我们要记... @TOC💡身为大学生的我们,往往都只有笔记本,在深度学习中,AlexNet以上的model基本是跑不动了,下面我教大家如何在无公网Ip的情况下用Windows系统的电脑作为服务端,我们通过笔记本来访问设备远程炼丹。准备:VscodeZerotier 配置Zeroiter(内网穿透)首先打开网站注册账号登陆之后,来到这个页面点击建立新Network会出现下面一行,然后点击它:这个id我们要记...
- detect.pyimport argparse #python的命令解析的模块,内置于python,不需要安装import torch.backends.cudnn as cudnn from models.experimental import *from utils.datasets import *from utils.utils import *from models.LPRN... detect.pyimport argparse #python的命令解析的模块,内置于python,不需要安装import torch.backends.cudnn as cudnn from models.experimental import *from utils.datasets import *from utils.utils import *from models.LPRN...
- CUDA CUDA
- CUDA CUDA
上滑加载中
推荐直播
-
openEuler Summit 2024
2024/11/16 周六 09:30-12:00
华为讲师团
2024年11月15日-16日,我们将在北京中关村国际创新中心举办 操作系统大会&openEuler Summit 2024,本次大会旨在汇聚全球产业发展力量,邀请思想引领者、商业精英、技术专家、合作伙伴以及全球开源基金会等业界同仁,共同探讨操作系统产业发展方向和未来机遇,联合伙伴展示最新合作成果,分享数字化转型实践,以技术驱动创新不断激发新质生产力。
回顾中 -
华为云AI入门课:AI发展趋势与华为愿景
2024/11/18 周一 18:20-20:20
Alex 华为云学堂技术讲师
本期直播旨在帮助开发者熟悉理解AI技术概念,AI发展趋势,AI实用化前景,了解熟悉未来主要技术栈,当前发展瓶颈等行业化知识。帮助开发者在AI领域快速构建知识体系,构建职业竞争力。
去报名 -
华为云软件开发生产线(CodeArts)10月新特性解读
2024/11/19 周二 19:00-20:00
苏柏亚培 华为云高级产品经理
不知道产品的最新特性?没法和产品团队建立直接的沟通?本期直播产品经理将为您解读华为云软件开发生产线10月发布的新特性,并在直播过程中为您答疑解惑。
去报名
热门标签