- AI编辑神奇DragGan火了:拯救手残党,拖拽实现精准P图🔹 本案例需使用 Pytorch-1.8 GPU-P100 及以上规格运行🔹 点击Run in ModelArts,将会进入到ModelArts CodeLab中,这时需要你登录华为云账号,如果没有账号,则需要注册一个,且要进行实名认证,参考《ModelArts准备工作_简易版》 即可完成账号注册和实名认证。 登录之后,等待片... AI编辑神奇DragGan火了:拯救手残党,拖拽实现精准P图🔹 本案例需使用 Pytorch-1.8 GPU-P100 及以上规格运行🔹 点击Run in ModelArts,将会进入到ModelArts CodeLab中,这时需要你登录华为云账号,如果没有账号,则需要注册一个,且要进行实名认证,参考《ModelArts准备工作_简易版》 即可完成账号注册和实名认证。 登录之后,等待片...
- 在华为云GPU Ant8裸金属服务器中, 使用Megatron-Deepspeed框架训练GPT-2, 分别进行单机单卡和单机多卡训练。 训练完成后给出自动式生成内容,和交互式对话框模式。 在华为云GPU Ant8裸金属服务器中, 使用Megatron-Deepspeed框架训练GPT-2, 分别进行单机单卡和单机多卡训练。 训练完成后给出自动式生成内容,和交互式对话框模式。
- 介绍在 PyTorch 中使用 TensorBoard 跟踪实验并调整超参数实验跟踪涉及记录和监控机器学习实验数据,TensorBoard 是可视化和分析这些数据的有用工具。它可以帮助研究人员了解实验行为、比较模型并做出明智的决策。超参数调整是寻找影响模型学习的配置设置最佳值的过程。示例包括学习率、批量大小和隐藏层数量。适当的调整可以提高模型性能和泛化能力。超参数调整策略包括手动搜索、网格搜... 介绍在 PyTorch 中使用 TensorBoard 跟踪实验并调整超参数实验跟踪涉及记录和监控机器学习实验数据,TensorBoard 是可视化和分析这些数据的有用工具。它可以帮助研究人员了解实验行为、比较模型并做出明智的决策。超参数调整是寻找影响模型学习的配置设置最佳值的过程。示例包括学习率、批量大小和隐藏层数量。适当的调整可以提高模型性能和泛化能力。超参数调整策略包括手动搜索、网格搜...
- 强化学习从基础到进阶-案例与实践[5.1]:Policy Gradient-Cart pole游戏展示 强化学习从基础到进阶-案例与实践[5.1]:Policy Gradient-Cart pole游戏展示
- 强化学习从基础到进阶-案例与实践[4.2]:深度Q网络DQN-Cart pole游戏展示 强化学习从基础到进阶-案例与实践[4.2]:深度Q网络DQN-Cart pole游戏展示
- 强化学习从基础到进阶--案例与实践含面试必知必答[9]:稀疏奖励、reward shaping、curiosity、分层强化学习HRL 强化学习从基础到进阶--案例与实践含面试必知必答[9]:稀疏奖励、reward shaping、curiosity、分层强化学习HRL
- 文章和代码已经归档至【Github仓库:https://github.com/timerring/dive-into-AI 】或者公众号【AIShareLab】回复 神经网络基础 也可获取。 神经网络入门神经网络与多层感知机:基础知识,激活函数、反向传播、损失函数、权值初始化和正则化卷积神经网络:统治图像领域的神经网络结构,发展历史、卷积操作和池化操作循环神经网络:统治序列数据的神经网络结构... 文章和代码已经归档至【Github仓库:https://github.com/timerring/dive-into-AI 】或者公众号【AIShareLab】回复 神经网络基础 也可获取。 神经网络入门神经网络与多层感知机:基础知识,激活函数、反向传播、损失函数、权值初始化和正则化卷积神经网络:统治图像领域的神经网络结构,发展历史、卷积操作和池化操作循环神经网络:统治序列数据的神经网络结构...
- 强化学习从基础到进阶--案例与实践[7]:深度确定性策略梯度DDPG算法、双延迟深度确定性策略梯度TD3算法详解 强化学习从基础到进阶--案例与实践[7]:深度确定性策略梯度DDPG算法、双延迟深度确定性策略梯度TD3算法详解
- 强化学习从基础到进阶-案例与实践[6]:演员-评论员算法(advantage actor-critic,A2C),异步A2C、与生成对抗网络的联系等详解 强化学习从基础到进阶-案例与实践[6]:演员-评论员算法(advantage actor-critic,A2C),异步A2C、与生成对抗网络的联系等详解
- 强化学习从基础到进阶-案例与实践[5]:梯度策略、添加基线(baseline)、优势函数、动作分配合适的分数(credit) 强化学习从基础到进阶-案例与实践[5]:梯度策略、添加基线(baseline)、优势函数、动作分配合适的分数(credit)
- 强化学习从基础到进阶-案例与实践[4]:深度Q网络-DQN、double DQN、经验回放、rainbow、分布式DQN 强化学习从基础到进阶-案例与实践[4]:深度Q网络-DQN、double DQN、经验回放、rainbow、分布式DQN
- 强化学习从基础到进阶-案例与实践[4.1]:深度Q网络-DQN项目实战CartPole-v0 强化学习从基础到进阶-案例与实践[4.1]:深度Q网络-DQN项目实战CartPole-v0
- 对比一下PyTorch 1.0和PyTorch 2.0的一些不同之处:动态图改进:PyTorch 2.0仍然支持动态图(eager mode),并在此基础上进行了改进。除了提高性能外,还加入了对Dynamic Shapes的支持,可以动态变更输入数据的形状,以及对Distributed的扩展支持。编译模式增强:PyTorch 2.0中增加了一个新的编译模式(compile mode),可以在... 对比一下PyTorch 1.0和PyTorch 2.0的一些不同之处:动态图改进:PyTorch 2.0仍然支持动态图(eager mode),并在此基础上进行了改进。除了提高性能外,还加入了对Dynamic Shapes的支持,可以动态变更输入数据的形状,以及对Distributed的扩展支持。编译模式增强:PyTorch 2.0中增加了一个新的编译模式(compile mode),可以在...
- 强化学习从基础到进阶-常见问题和面试必知必答[3]:表格型方法:Sarsa、Qlearning;蒙特卡洛策略、时序差分等以及Qlearning项目实战 强化学习从基础到进阶-常见问题和面试必知必答[3]:表格型方法:Sarsa、Qlearning;蒙特卡洛策略、时序差分等以及Qlearning项目实战
- 强化学习从基础到进阶-案例与实践[3]:表格型方法:Sarsa、Qlearning;蒙特卡洛策略、时序差分等以及Qlearning项目实战 强化学习从基础到进阶-案例与实践[3]:表格型方法:Sarsa、Qlearning;蒙特卡洛策略、时序差分等以及Qlearning项目实战
上滑加载中
推荐直播
-
HDC深度解读系列 - Serverless与MCP融合创新,构建AI应用全新智能中枢2025/08/20 周三 16:30-18:00
张昆鹏 HCDG北京核心组代表
HDC2025期间,华为云展示了Serverless与MCP融合创新的解决方案,本期访谈直播,由华为云开发者专家(HCDE)兼华为云开发者社区组织HCDG北京核心组代表张鹏先生主持,华为云PaaS服务产品部 Serverless总监Ewen为大家深度解读华为云Serverless与MCP如何融合构建AI应用全新智能中枢
回顾中 -
关于RISC-V生态发展的思考2025/09/02 周二 17:00-18:00
中国科学院计算技术研究所副所长包云岗教授
中科院包云岗老师将在本次直播中,探讨处理器生态的关键要素及其联系,分享过去几年推动RISC-V生态建设实践过程中的经验与教训。
回顾中 -
一键搞定华为云万级资源,3步轻松管理企业成本2025/09/09 周二 15:00-16:00
阿言 华为云交易产品经理
本直播重点介绍如何一键续费万级资源,3步轻松管理成本,帮助提升日常管理效率!
回顾中
热门标签