- @toc 有关ResNetRS的原理部分,看我以前的论文阅读笔记:ResNet-RS架构复现–CVPR2021 1、ResNet-D架构 ResNetRS是在ResNet-D架构上面的改进,ResNet-D架构的结构如下: 注意,残差边上多了个池化操作。 2、ResNetRS架构 我们提供了有关 ResNet-RS 架构更改的更多详细信息。我们重申 ResNet-RS 是:改进的缩放策... @toc 有关ResNetRS的原理部分,看我以前的论文阅读笔记:ResNet-RS架构复现–CVPR2021 1、ResNet-D架构 ResNetRS是在ResNet-D架构上面的改进,ResNet-D架构的结构如下: 注意,残差边上多了个池化操作。 2、ResNetRS架构 我们提供了有关 ResNet-RS 架构更改的更多详细信息。我们重申 ResNet-RS 是:改进的缩放策...
- 本文章是对《数字图像处理》书中知识概念、定理、公式的总结知识,并给出了自己的理解,部分涉及具体应用代码,主要是原理解析和算法总结。学习数字图像处理能让我们更深入理解计算机视觉领域的内容。 本文章是对《数字图像处理》书中知识概念、定理、公式的总结知识,并给出了自己的理解,部分涉及具体应用代码,主要是原理解析和算法总结。学习数字图像处理能让我们更深入理解计算机视觉领域的内容。
- 机器学习的本质属于应用统计学,其更多地关注如何用计算机统计地估计复杂函数,而不太关注为这些函数提供置信区间,大部分机器学习算法可以分成监督学习和无监督学习两类;通过组合不同的算法部分,例如优化算法、代价函数、模型和数据集可以建立一个完整的机器学习算法。 机器学习的本质属于应用统计学,其更多地关注如何用计算机统计地估计复杂函数,而不太关注为这些函数提供置信区间,大部分机器学习算法可以分成监督学习和无监督学习两类;通过组合不同的算法部分,例如优化算法、代价函数、模型和数据集可以建立一个完整的机器学习算法。
- K 近邻算法(KNN)是一种基本分类和回归方法。KNN 算法的核心思想是如果一个样本在特征空间中的 k 个最相邻的样本中的大多数属于一个类别,那该样本也属于这个类别,并具有这个类别上样本的特性。 K 近邻算法(KNN)是一种基本分类和回归方法。KNN 算法的核心思想是如果一个样本在特征空间中的 k 个最相邻的样本中的大多数属于一个类别,那该样本也属于这个类别,并具有这个类别上样本的特性。
- Low level 特征是较低级别的特征,主要是原始特征,不需要或者需要很少的人工处理和干预,例如文本中的词向量特征,图像特征中的像素点大小,用户 id,商品 id等。High level 特征是经过比较复杂的处理,结合部分业务逻辑或者规则、模型得到的特征,例如人工打分,模型打分等特征,可以用于较复杂的非线性模型。 Low level 特征是较低级别的特征,主要是原始特征,不需要或者需要很少的人工处理和干预,例如文本中的词向量特征,图像特征中的像素点大小,用户 id,商品 id等。High level 特征是经过比较复杂的处理,结合部分业务逻辑或者规则、模型得到的特征,例如人工打分,模型打分等特征,可以用于较复杂的非线性模型。
- 原文链接论文地址:https://arxiv.org/pdf/1501.04587.pdf 摘要阻碍CNN应用于视觉跟踪的主要障碍是缺乏适当标记的训练数据。虽然释放CNN功率的现有应用程序通常需要大量数百万的训练数据,但是视觉跟踪应用程序通常在每个视频的第一帧中仅具有一个标记的示例。我们通过离线预培训CNN,然后将学到的丰富特征层次结构转移到在线跟踪来解决此研究问题。 CNN还在在线跟踪期间... 原文链接论文地址:https://arxiv.org/pdf/1501.04587.pdf 摘要阻碍CNN应用于视觉跟踪的主要障碍是缺乏适当标记的训练数据。虽然释放CNN功率的现有应用程序通常需要大量数百万的训练数据,但是视觉跟踪应用程序通常在每个视频的第一帧中仅具有一个标记的示例。我们通过离线预培训CNN,然后将学到的丰富特征层次结构转移到在线跟踪来解决此研究问题。 CNN还在在线跟踪期间...
- @toc 1、题目及实现思路 题目:假设我们有 4 个 2 维的数据,数据的特征分别是(3,3),(4,3),(1,1),(2,1)。 (3,3),(4,3) 这两个数据的标签为 1, (1,1),(2,1)这两个数据的标签为-1。 构建神经网络来进行分类。 思路:我们要分类的数据是 2 维数据,所以只需要 2 个输入节点(一般输入数据有几个特征,我们就设置几个输入神经元),我们可... @toc 1、题目及实现思路 题目:假设我们有 4 个 2 维的数据,数据的特征分别是(3,3),(4,3),(1,1),(2,1)。 (3,3),(4,3) 这两个数据的标签为 1, (1,1),(2,1)这两个数据的标签为-1。 构建神经网络来进行分类。 思路:我们要分类的数据是 2 维数据,所以只需要 2 个输入节点(一般输入数据有几个特征,我们就设置几个输入神经元),我们可...
- @toc 1、Dropout介绍 Dropout 也是一种用于抵抗过拟合的技术,它试图改变网络本身来对网络进行优化。我 们先来了解一下它的工作机制,当我们训练一个普通的神经网络时,网络的结构可能如图所示。 Dropout 通常是在神经网络隐藏层的部分使用,使用的时候会临时关闭掉一部分的神经 元,我们可以通过一个参数来控制神经元被关闭的概率,网络结构如图所示。更详细的流程如下:在模型训练阶... @toc 1、Dropout介绍 Dropout 也是一种用于抵抗过拟合的技术,它试图改变网络本身来对网络进行优化。我 们先来了解一下它的工作机制,当我们训练一个普通的神经网络时,网络的结构可能如图所示。 Dropout 通常是在神经网络隐藏层的部分使用,使用的时候会临时关闭掉一部分的神经 元,我们可以通过一个参数来控制神经元被关闭的概率,网络结构如图所示。更详细的流程如下:在模型训练阶...
- @toc 正则化 1.1 正则化介绍 正则化也叫作规范化,通常用得比较多的方式是 L1 正则化和 L2 正则化。L1 和 L2 正则 化的使用实际上就是在普通的代价函数(例如均方差代价函数或交叉熵代价函数)后面加上一 个正则项,例如加上了 L1 正则项的交叉熵为:E=−1N∑i=1N[tilnyi+(1−ti)ln(1−yi)]+λ2N∑w∣w∣E=-\frac{1}{N} \sum_... @toc 正则化 1.1 正则化介绍 正则化也叫作规范化,通常用得比较多的方式是 L1 正则化和 L2 正则化。L1 和 L2 正则 化的使用实际上就是在普通的代价函数(例如均方差代价函数或交叉熵代价函数)后面加上一 个正则项,例如加上了 L1 正则项的交叉熵为:E=−1N∑i=1N[tilnyi+(1−ti)ln(1−yi)]+λ2N∑w∣w∣E=-\frac{1}{N} \sum_...
- @toc 1、Bagging:有放回的重采样 袋装(Bagging)是一种采用随机又放回抽样选择训练数据构造分类器进行组合的方法。如同找医生看病,选择多个医生,根据多个医生的诊断结果得出最终结果(多数表决),每个医生具有相同的投票权重。 2、训练阶段 在训练过程中,通过又放回抽样,把训练集变成多份,然后对每份训练集学习一个模型。 3、测试阶段 测试阶段,用上一步得到的每个模型来进行一个... @toc 1、Bagging:有放回的重采样 袋装(Bagging)是一种采用随机又放回抽样选择训练数据构造分类器进行组合的方法。如同找医生看病,选择多个医生,根据多个医生的诊断结果得出最终结果(多数表决),每个医生具有相同的投票权重。 2、训练阶段 在训练过程中,通过又放回抽样,把训练集变成多份,然后对每份训练集学习一个模型。 3、测试阶段 测试阶段,用上一步得到的每个模型来进行一个...
- @toc 1、提升方法(Boosting) 1.1、相关知识 提升方法(Boosting),是一种可以用来减小监督式学习中偏差的机器学习算法。面对的问题是迈可·肯斯(Michael Kearns)提出的:一组“弱学习者”的集合能否生成一个“强学习者”?弱学习者一般是指一个分类器,它的结果只比随机分类好一点点;强学习者指分类器的结果非常接近真值。 在提升方法中,给每个训练元组一个权重。在迭... @toc 1、提升方法(Boosting) 1.1、相关知识 提升方法(Boosting),是一种可以用来减小监督式学习中偏差的机器学习算法。面对的问题是迈可·肯斯(Michael Kearns)提出的:一组“弱学习者”的集合能否生成一个“强学习者”?弱学习者一般是指一个分类器,它的结果只比随机分类好一点点;强学习者指分类器的结果非常接近真值。 在提升方法中,给每个训练元组一个权重。在迭...
- @toc 1、GBDT 1.1 GBDT定义 GBDT、Treelink、 GBRT(Gradient Boost Regression Tree)、Tree Net、MART(Multiple Additive Regression Tree)算法都是以决策树为基分类器的集成算法,通常由多棵决策树构成,通常是上百棵树且每棵树规模都较小(即树的深度都比较浅)。进行模型预测的时候,对于输入的... @toc 1、GBDT 1.1 GBDT定义 GBDT、Treelink、 GBRT(Gradient Boost Regression Tree)、Tree Net、MART(Multiple Additive Regression Tree)算法都是以决策树为基分类器的集成算法,通常由多棵决策树构成,通常是上百棵树且每棵树规模都较小(即树的深度都比较浅)。进行模型预测的时候,对于输入的...
- @toc 1、概述 LSTM网络是序列模型,一般比较适合处理序列问题。这里把它用于手写数字图片的分类,其实就相当于把图片看作序列。 一张MNIST数据集的图片是28×2828\times 2828×28的大小,我们可以把每一行看作是一个序列输入,那么一张图片就是28行,序列长度为28;每一行有28个数据,每个序列输入28个值。 这里我们可以将LSTM和CNN的代码结果进行对比。 2、L... @toc 1、概述 LSTM网络是序列模型,一般比较适合处理序列问题。这里把它用于手写数字图片的分类,其实就相当于把图片看作序列。 一张MNIST数据集的图片是28×2828\times 2828×28的大小,我们可以把每一行看作是一个序列输入,那么一张图片就是28行,序列长度为28;每一行有28个数据,每个序列输入28个值。 这里我们可以将LSTM和CNN的代码结果进行对比。 2、L...
- @[toc](基于Tensorflow的Quick Draw图像分类) 1、数据集介绍 Google的“Quick Draw”数据集是一个开源的数据集。该数据集共有345个类别,共5000万张图片,所有这些图片都是由参与挑战的1500万名用户在20s或者更短的时间内绘制完成。 这里将在10个类别的100万张图片上进行学习,为了测试模型的辨别力,特意选择了一些比较相似的图像 2、Quick... @[toc](基于Tensorflow的Quick Draw图像分类) 1、数据集介绍 Google的“Quick Draw”数据集是一个开源的数据集。该数据集共有345个类别,共5000万张图片,所有这些图片都是由参与挑战的1500万名用户在20s或者更短的时间内绘制完成。 这里将在10个类别的100万张图片上进行学习,为了测试模型的辨别力,特意选择了一些比较相似的图像 2、Quick...
- @toc 1、简介 我们这里使用张量的基本操作去完成三层神经网络的实现:out=ReLU(ReLu(ReLU(X@W1+b1)@W2+b2)@W3+b3)out=ReLU(ReLu(ReLU(X@W_1+b_1)@W_2+b_2)@W_3+b3)out=ReLU(ReLu(ReLU(X@W1+b1)@W2+b2)@W3+b3) 采用的数据集是MNIST手写数字图片数据集,输入节... @toc 1、简介 我们这里使用张量的基本操作去完成三层神经网络的实现:out=ReLU(ReLu(ReLU(X@W1+b1)@W2+b2)@W3+b3)out=ReLU(ReLu(ReLU(X@W_1+b_1)@W_2+b_2)@W_3+b3)out=ReLU(ReLu(ReLU(X@W1+b1)@W2+b2)@W3+b3) 采用的数据集是MNIST手写数字图片数据集,输入节...
上滑加载中
推荐直播
-
HDC深度解读系列 - Serverless与MCP融合创新,构建AI应用全新智能中枢2025/08/20 周三 16:30-18:00
张昆鹏 HCDG北京核心组代表
HDC2025期间,华为云展示了Serverless与MCP融合创新的解决方案,本期访谈直播,由华为云开发者专家(HCDE)兼华为云开发者社区组织HCDG北京核心组代表张鹏先生主持,华为云PaaS服务产品部 Serverless总监Ewen为大家深度解读华为云Serverless与MCP如何融合构建AI应用全新智能中枢
回顾中 -
关于RISC-V生态发展的思考2025/09/02 周二 17:00-18:00
中国科学院计算技术研究所副所长包云岗教授
中科院包云岗老师将在本次直播中,探讨处理器生态的关键要素及其联系,分享过去几年推动RISC-V生态建设实践过程中的经验与教训。
回顾中 -
一键搞定华为云万级资源,3步轻松管理企业成本2025/09/09 周二 15:00-16:00
阿言 华为云交易产品经理
本直播重点介绍如何一键续费万级资源,3步轻松管理成本,帮助提升日常管理效率!
回顾中
热门标签