- 第1章中介绍了梯度下降算法训练回归模型,神经网络模型也一样需要使用梯度下降算法来更新参数。然而一个神经网络通常会有上百万的参数,那么如何高效地计算这百万级别的参数是需要重点考虑的问题。神经网络中使用反向传播(Backward Propagation)算法,使得计算梯度更加有效率。在介绍反向传播之前,先来介绍一下链式法则。假设有两个函数y=g(x)和z=h(y),那么z对x的求导过程如下:假设... 第1章中介绍了梯度下降算法训练回归模型,神经网络模型也一样需要使用梯度下降算法来更新参数。然而一个神经网络通常会有上百万的参数,那么如何高效地计算这百万级别的参数是需要重点考虑的问题。神经网络中使用反向传播(Backward Propagation)算法,使得计算梯度更加有效率。在介绍反向传播之前,先来介绍一下链式法则。假设有两个函数y=g(x)和z=h(y),那么z对x的求导过程如下:假设...
- 本章介绍了深度神经网络的几个相关概念,并给出了用MindSpore实现简单神经网络的样例。深度学习(Deep Learning)与传统机器学习最大的不同在于其利用神经网络对数据进行高级抽象。而最基础的神经网络结构为前向神经网络(Feed forwardNeural Network,FNN),又称多层感知机(Multi-Layer Perceptron,MLP)。在介绍多层感知机之前,先来认识... 本章介绍了深度神经网络的几个相关概念,并给出了用MindSpore实现简单神经网络的样例。深度学习(Deep Learning)与传统机器学习最大的不同在于其利用神经网络对数据进行高级抽象。而最基础的神经网络结构为前向神经网络(Feed forwardNeural Network,FNN),又称多层感知机(Multi-Layer Perceptron,MLP)。在介绍多层感知机之前,先来认识...
- 在机器学习中,过拟合(Overfitting)与欠拟合(Underfitting)都是指模型选择不能够很好地拟合数据本身,即模型过于复杂或过于简单。一个过拟合的模型往往有着比数据本身特性更多的参数,为了拟合尽可能多的数据,甚至包括一些错误的样本,这些参数会因过度拟合数据而产生一些噪声。而欠拟合与之相反,其原因是选择的参数或模型不够复杂,例如用线性模型去拟合非线性结构,显然是欠拟合的。图2.7... 在机器学习中,过拟合(Overfitting)与欠拟合(Underfitting)都是指模型选择不能够很好地拟合数据本身,即模型过于复杂或过于简单。一个过拟合的模型往往有着比数据本身特性更多的参数,为了拟合尽可能多的数据,甚至包括一些错误的样本,这些参数会因过度拟合数据而产生一些噪声。而欠拟合与之相反,其原因是选择的参数或模型不够复杂,例如用线性模型去拟合非线性结构,显然是欠拟合的。图2.7...
- 回归问题算法通常是利用一系列属性来预测一个值,预测的值是连续的。例如给出一套房子的一些特征数据,如面积、卧室数等来预测房价,利用最近一周的气温变化和卫星云图来预测未来的气温情况等。如果一套房子实际价格为500万元,通过回归分析的预测值为499万元,则认为这是一个比较好的回归分析。在机器学习问题中,常见的回归分析有线性回归(Linear Regression)、多项式回归(Polynomial... 回归问题算法通常是利用一系列属性来预测一个值,预测的值是连续的。例如给出一套房子的一些特征数据,如面积、卧室数等来预测房价,利用最近一周的气温变化和卫星云图来预测未来的气温情况等。如果一套房子实际价格为500万元,通过回归分析的预测值为499万元,则认为这是一个比较好的回归分析。在机器学习问题中,常见的回归分析有线性回归(Linear Regression)、多项式回归(Polynomial...
- 前言YOLO、SSD、Fast R-CNN等模型在目标检测方面速度较快和精度较高,但是这些模型比较大,不太适合移植到移动端或嵌入式设备;轻量级模型 NanoDet-m,对单阶段检测模型三大模块(Head、Neck、Backbone)进行轻量化,目标加检测速度很快;模型文件大小仅几兆(小于4M)。 NanoDet作者开源代码地址:https://github.com/RangiLyu/nano... 前言YOLO、SSD、Fast R-CNN等模型在目标检测方面速度较快和精度较高,但是这些模型比较大,不太适合移植到移动端或嵌入式设备;轻量级模型 NanoDet-m,对单阶段检测模型三大模块(Head、Neck、Backbone)进行轻量化,目标加检测速度很快;模型文件大小仅几兆(小于4M)。 NanoDet作者开源代码地址:https://github.com/RangiLyu/nano...
- 前面我们用过顺序结构实现过tensorflow2实现手写数字识别,顺序结构的好处是易于初学者理解,但是在实际开发当中,我们一般都用面向对象的方式来进行项目开发,以便达到代码的复用。 前面我们用过顺序结构实现过tensorflow2实现手写数字识别,顺序结构的好处是易于初学者理解,但是在实际开发当中,我们一般都用面向对象的方式来进行项目开发,以便达到代码的复用。
- 前面我们讲过tensorflow2实现手写数字识别,那个是用全连接层做的,这次我们使用卷积层搭建一个模型,并且把模型的准确率和损失的变化过程可视化出来。 前面我们讲过tensorflow2实现手写数字识别,那个是用全连接层做的,这次我们使用卷积层搭建一个模型,并且把模型的准确率和损失的变化过程可视化出来。
- 以pytorch 1.5和tensorflow 1.14为例,如何在Notebook,训练作业,和模型管理上进行配置。 以pytorch 1.5和tensorflow 1.14为例,如何在Notebook,训练作业,和模型管理上进行配置。
- 以pytorch 1.5和tensorflow 1.14为例,如何在Notebook进行配置自定义深度学习框架版本 以pytorch 1.5和tensorflow 1.14为例,如何在Notebook进行配置自定义深度学习框架版本
- 人工智能定义很多,但都不太准确。 中国科学院院士、清华大学人工智能研究院院长张钹院士认为,人工智能是“研究和设计智能体,所谓智能体,是用计算机模拟人类的智能行为”。 人工智能定义很多,但都不太准确。 中国科学院院士、清华大学人工智能研究院院长张钹院士认为,人工智能是“研究和设计智能体,所谓智能体,是用计算机模拟人类的智能行为”。
- 首先来看看梯度下降的一个直观的解释。比如我们在一座大山上的某处位置,由于我们不知道怎么下山,于是决定走一步算一步,也就是在每走到一个位置的时候,求解当前位置的梯度,沿着梯度的负方向,也就是当前最陡峭的位置向下走一步,然后继续求解当前位置梯度,向这一步所在位置沿着最陡峭最易下山的位置走一步。这样一步步的走下去,一直走到觉得我们已经到了山脚。当然这样走下去,有可能我们不能走到山脚,而是到了某一个... 首先来看看梯度下降的一个直观的解释。比如我们在一座大山上的某处位置,由于我们不知道怎么下山,于是决定走一步算一步,也就是在每走到一个位置的时候,求解当前位置的梯度,沿着梯度的负方向,也就是当前最陡峭的位置向下走一步,然后继续求解当前位置梯度,向这一步所在位置沿着最陡峭最易下山的位置走一步。这样一步步的走下去,一直走到觉得我们已经到了山脚。当然这样走下去,有可能我们不能走到山脚,而是到了某一个...
- 知识蒸馏(knowledge distillation)是模型压缩的一种常用的方法,不同于模型压缩中的剪枝和量化,知识蒸馏是通过构建一个轻量化的小模型,利用性能更好的大模型的监督信息,来训练这个小模型,以期达到更好的性能和精度。本文将知识蒸馏技术与检测网络YOLOv5进行结合,对知识蒸馏流程进行详尽的介绍。 知识蒸馏(knowledge distillation)是模型压缩的一种常用的方法,不同于模型压缩中的剪枝和量化,知识蒸馏是通过构建一个轻量化的小模型,利用性能更好的大模型的监督信息,来训练这个小模型,以期达到更好的性能和精度。本文将知识蒸馏技术与检测网络YOLOv5进行结合,对知识蒸馏流程进行详尽的介绍。
- 作为本系列的第三篇文章,介绍度量学习算法的一种典型应用——图像检索,重点介绍目前热门的深度哈希算法。 作为本系列的第三篇文章,介绍度量学习算法的一种典型应用——图像检索,重点介绍目前热门的深度哈希算法。
- 大家好!我是【AI 菌】,一枚逆风生长的程序员。我热爱AI、热爱分享、热爱开源! 这博客是我对学习的一点总结与思考。如果您也对 深度学习、机器视觉、数据结构与算法、编程 等感兴趣,可以关注我的动态,我们一起学习,一起进步~ 大家好!我是【AI 菌】,一枚逆风生长的程序员。我热爱AI、热爱分享、热爱开源! 这博客是我对学习的一点总结与思考。如果您也对 深度学习、机器视觉、数据结构与算法、编程 等感兴趣,可以关注我的动态,我们一起学习,一起进步~
- # 深度学习,共形场论和对称函数## 非线性,过拟合与压缩感知深度学习中,一个非常难以解决的问题是过拟合问题。过拟合的一个解释是参数空间太大,即参数过多。但这个解释非常的浅层。因为如果我们觉得参数过多,那么就可以减少参数啊。但问题的关键在于,正如我们并不知道应该增加什么特征一样,我们也并不知道减少参数的原则。所以有一种叫Drop out 的方法来随机减少节点从而达到减少参数的目的。这都是非常... # 深度学习,共形场论和对称函数## 非线性,过拟合与压缩感知深度学习中,一个非常难以解决的问题是过拟合问题。过拟合的一个解释是参数空间太大,即参数过多。但这个解释非常的浅层。因为如果我们觉得参数过多,那么就可以减少参数啊。但问题的关键在于,正如我们并不知道应该增加什么特征一样,我们也并不知道减少参数的原则。所以有一种叫Drop out 的方法来随机减少节点从而达到减少参数的目的。这都是非常...
上滑加载中
推荐直播
-
通用人工智能(AGI)到来前夕如何实现企业降本增效和应用现代化
2024/04/19 周五 14:00-16:00
李京峰 T3出行VP/CTO
李京峰是T3出行CTO,本次他将分享通用人工智能(AGI)到来前夕,如何实现企业降本增效和应用现代化。
回顾中 -
华为云云原生FinOps解决方案,为您释放云原生最大价值
2024/04/24 周三 16:30-18:00
Roc 华为云云原生DTSE技术布道师
还在对CCE集群成本评估感到束手无策?还在担心不合理的K8s集群资源申请和过度浪费?华为云容器服务CCE全新上线云原生FinOps中心,为用户提供多维度集群成本可视化,结合智能规格推荐、混部、超卖等成本优化手段,助力客户降本增效,释放云原生最大价值。
去报名 -
产教融合专家大讲堂·第①期《高校人才培养创新模式经验分享》
2024/04/25 周四 16:00-18:00
于晓东 上海杉达学院信息科学与技术学院副院长;崔宝才 天津电子信息职业技术学院电子与通信技术系主任
本期直播将与您一起探讨高校人才培养创新模式经验。
去报名
热门标签