- 从数学上看,如果向量v与变换A满足 Av=λv 则称向量v是变换A的一个特征向量,λ是相应的特征值。其中是将变换作用于v得到的向量。这一等式被称作“特征值方程”。 特征值和特征向量的几何和物理意义 摘自《线性代数的几何意义》 我们知道,矩阵乘法对应了一个变换,是把任意一个向量变成另一个方向或长度都大多不同的新向量。在这个变换的过程中,原向量主要发生旋转、伸缩... 从数学上看,如果向量v与变换A满足 Av=λv 则称向量v是变换A的一个特征向量,λ是相应的特征值。其中是将变换作用于v得到的向量。这一等式被称作“特征值方程”。 特征值和特征向量的几何和物理意义 摘自《线性代数的几何意义》 我们知道,矩阵乘法对应了一个变换,是把任意一个向量变成另一个方向或长度都大多不同的新向量。在这个变换的过程中,原向量主要发生旋转、伸缩...
- epoch,iteration,batch,batch_size epoch:训练时,所有训练图像通过网络训练一次(一次前向传播+一次后向传播);测试时,所有测试图像通过网络一次(一次前向传播)。Caffe不用这个参数。 batch_size:1个batch包含的图像数目,通常设为2的n次幂,常用的包括64,128,256。 &... epoch,iteration,batch,batch_size epoch:训练时,所有训练图像通过网络训练一次(一次前向传播+一次后向传播);测试时,所有测试图像通过网络一次(一次前向传播)。Caffe不用这个参数。 batch_size:1个batch包含的图像数目,通常设为2的n次幂,常用的包括64,128,256。 &...
- 机器学习(一)——K-近邻(KNN)算法 最近在看《机器学习实战》这本书,因为自己本身很想深入的了解机器学习算法,加之想学python,就在朋友的推荐之下选择了这本书进行学习。 一 . K-近邻算法(KNN)概述 最简单最初级的分类器是将全部的训练数据所对应... 机器学习(一)——K-近邻(KNN)算法 最近在看《机器学习实战》这本书,因为自己本身很想深入的了解机器学习算法,加之想学python,就在朋友的推荐之下选择了这本书进行学习。 一 . K-近邻算法(KNN)概述 最简单最初级的分类器是将全部的训练数据所对应...
- 思想 一般化的跟踪问题可以分解成如下几步: 1. 在帧中,在当前位置附近采样,训练一个回归器。这个回归器能计算一个小窗口采样的响应。 2. 在帧中,在前一帧位置附近采样,用前述回归器判断每个采样的响应。 3. 响应最强的采样作为本帧位置。 循环矩阵表示图像块 在图像中,循环位移操作可以用来近似采样窗口的位移。 训练时,围绕着当前位置进行的一系列位移采样可以用二维... 思想 一般化的跟踪问题可以分解成如下几步: 1. 在帧中,在当前位置附近采样,训练一个回归器。这个回归器能计算一个小窗口采样的响应。 2. 在帧中,在前一帧位置附近采样,用前述回归器判断每个采样的响应。 3. 响应最强的采样作为本帧位置。 循环矩阵表示图像块 在图像中,循环位移操作可以用来近似采样窗口的位移。 训练时,围绕着当前位置进行的一系列位移采样可以用二维...
- pix2pixHD是pix2pix的重要升级,可以实现高分辨率图像生成和图片的语义编辑。对于一个生成对抗网络(GAN),学习的关键就是理解生成器、判别器和损失函数这三部分。pix2pixHD的生成器和判别器都是多尺度的,单一尺度的生成器和判别器的结构和pix2pix是一样的。损失函数由GAN loss、Feature matching loss和Content loss组成。... pix2pixHD是pix2pix的重要升级,可以实现高分辨率图像生成和图片的语义编辑。对于一个生成对抗网络(GAN),学习的关键就是理解生成器、判别器和损失函数这三部分。pix2pixHD的生成器和判别器都是多尺度的,单一尺度的生成器和判别器的结构和pix2pix是一样的。损失函数由GAN loss、Feature matching loss和Content loss组成。...
- 证明relu6能比leaky relu有更好的效果,收敛也更快。 pelee mouse 测试集 map 94.57 训练集 ? yolov3 测试集map 95 训练集99% 卷积层得来的特征: 输入是416*416: 13*13 一个特征点代表32*32像素的图像,检测大目标,最小检测32*32的图像,基于1280是96*96的图... 证明relu6能比leaky relu有更好的效果,收敛也更快。 pelee mouse 测试集 map 94.57 训练集 ? yolov3 测试集map 95 训练集99% 卷积层得来的特征: 输入是416*416: 13*13 一个特征点代表32*32像素的图像,检测大目标,最小检测32*32的图像,基于1280是96*96的图...
- 本文提出一种训练速度更快、参数量更少的卷积神经网络EfficientNetV2。我们采用了训练感知NAS与缩放技术对训练速度与参数量进行联合优化,NAS的搜索空间采用了新的op(比如Fused-MBConv)进行扩充。实验表明:相比其他SOTA方案,所提EfficientNetV2收敛速度更快,模型更小(6.8x)。 在训练过程中,我们可以通过逐步提升图像大... 本文提出一种训练速度更快、参数量更少的卷积神经网络EfficientNetV2。我们采用了训练感知NAS与缩放技术对训练速度与参数量进行联合优化,NAS的搜索空间采用了新的op(比如Fused-MBConv)进行扩充。实验表明:相比其他SOTA方案,所提EfficientNetV2收敛速度更快,模型更小(6.8x)。 在训练过程中,我们可以通过逐步提升图像大...
- 梯度中心化(gradient centralization,GC) 开源实现: https://github.com/Yonghongwei/Gradient-Centralization/blob/31caa1d49e7760e62a64a54eabc8f2403fddf38a/GC_code/Fine-grained_classification/SG... 梯度中心化(gradient centralization,GC) 开源实现: https://github.com/Yonghongwei/Gradient-Centralization/blob/31caa1d49e7760e62a64a54eabc8f2403fddf38a/GC_code/Fine-grained_classification/SG...
- pytorch 多gpu训练: # -*- coding:utf-8 -*- from __future__ import division import datetime import torch import torch.nn as nn import torch.nn.functional as F from torch.autograd pytorch 多gpu训练: # -*- coding:utf-8 -*- from __future__ import division import datetime import torch import torch.nn as nn import torch.nn.functional as F from torch.autograd
- 参考:http://blog.sina.com.cn/s/blog_54d460e40101ec00.html 概率指事件随机发生的机率,对于均匀分布函数,概率密度等于一段区间(事件的取值范围)的概率除以该段区间的长度,它的值是非负的,可以很大也可以很小。 对于随机变量X的分布函数F(x),如果存在非负可积函数f(x),使得对任意实数x,有 ... 参考:http://blog.sina.com.cn/s/blog_54d460e40101ec00.html 概率指事件随机发生的机率,对于均匀分布函数,概率密度等于一段区间(事件的取值范围)的概率除以该段区间的长度,它的值是非负的,可以很大也可以很小。 对于随机变量X的分布函数F(x),如果存在非负可积函数f(x),使得对任意实数x,有 ...
- Batch Normalization BN的基本思想其实相当直观:因为深层神经网络在做非线性变换前的激活输入值(就是那个x=WU+B,U是输入)随着网络深度加深或者在训练过程中,其分布逐渐发生偏移或者变动,之所以训练收敛慢,一般是整体分布逐渐往非线性函数的取值区间的上下限两端靠近(对于Sigmoid函数来说,意味着激活输入值WU+B是大的负值或正值),所... Batch Normalization BN的基本思想其实相当直观:因为深层神经网络在做非线性变换前的激活输入值(就是那个x=WU+B,U是输入)随着网络深度加深或者在训练过程中,其分布逐渐发生偏移或者变动,之所以训练收敛慢,一般是整体分布逐渐往非线性函数的取值区间的上下限两端靠近(对于Sigmoid函数来说,意味着激活输入值WU+B是大的负值或正值),所...
- 11年it研发经验,从一个会计转行为算法工程师,学过C#,c++,java,android,php,go,js,python,CNN神经网络,四千多篇博文,三千多篇原创,只为与你分享,共同成长,一起进步,关注我,给你分享更多干货知识! 发现menet训练分配gpu代码: cvd ="4,5"# os.environ['CUDA_VISIBLE_DEVICES'].str... 11年it研发经验,从一个会计转行为算法工程师,学过C#,c++,java,android,php,go,js,python,CNN神经网络,四千多篇博文,三千多篇原创,只为与你分享,共同成长,一起进步,关注我,给你分享更多干货知识! 发现menet训练分配gpu代码: cvd ="4,5"# os.environ['CUDA_VISIBLE_DEVICES'].str...
- Softmax 个人理解:在训练的时候,加上角度margin,把预测出来的值减小,往0那里挤压,离标注距离更大,减少训练得分,加大loss,增加训练收敛难度。 不明白的有个问题?减去m后,如果出现负数怎么办? 以下有的内容参考: https://zhuanlan.zhihu.com/p/97475133 softmax... Softmax 个人理解:在训练的时候,加上角度margin,把预测出来的值减小,往0那里挤压,离标注距离更大,减少训练得分,加大loss,增加训练收敛难度。 不明白的有个问题?减去m后,如果出现负数怎么办? 以下有的内容参考: https://zhuanlan.zhihu.com/p/97475133 softmax...
- 0 相关源码 将结合前述知识进行综合实战,以达到所学即所用。文本情感分类这个项目会将分类算法、文本特征提取算法等进行关联,使大家能够对Spark的具体应用有一个整体的感知与了解。 1 项目总体概况 2 数据集概述 数据集 3 数据预处理 4 文本特征提取 官方文档介绍 提取,转换和选择特征 本节介绍了使用特征的算法,大致分为以下几组:提取:从“原始... 0 相关源码 将结合前述知识进行综合实战,以达到所学即所用。文本情感分类这个项目会将分类算法、文本特征提取算法等进行关联,使大家能够对Spark的具体应用有一个整体的感知与了解。 1 项目总体概况 2 数据集概述 数据集 3 数据预处理 4 文本特征提取 官方文档介绍 提取,转换和选择特征 本节介绍了使用特征的算法,大致分为以下几组:提取:从“原始...
- 0 相关源码 1 k-平均算法(k-means clustering)概述 1.1 回顾无监督学习 ◆ 分类、回归都属于监督学习 ◆ 无监督学习是不需要用户去指定标签的 ◆ 而我们看到的分类、回归算法都需要用户输入的训练数据集中给定一个个明确的y值 1.2 k-平均算法与无监督学习 ◆ k-平均算法是无监督学习的一种 ◆ 它不需要人为指定一个因变量,即标... 0 相关源码 1 k-平均算法(k-means clustering)概述 1.1 回顾无监督学习 ◆ 分类、回归都属于监督学习 ◆ 无监督学习是不需要用户去指定标签的 ◆ 而我们看到的分类、回归算法都需要用户输入的训练数据集中给定一个个明确的y值 1.2 k-平均算法与无监督学习 ◆ k-平均算法是无监督学习的一种 ◆ 它不需要人为指定一个因变量,即标...
上滑加载中
推荐直播
-
Skill 构建 × 智能创作:基于华为云码道的 AI 内容生产提效方案2026/03/25 周三 19:00-20:00
余伟,华为云软件研发工程师/万邵业(万少),华为云HCDE开发者专家
本次直播带来两大实战:华为云码道 Skill-Creator 手把手搭建专属知识库 Skill;如何用码道提效 OpenClaw 小说文本,打造从大纲到成稿的 AI 原创小说全链路。技术干货 + OPC创作思路,一次讲透!
回顾中 -
码道新技能,AI 新生产力——从自动视频生成到开源项目解析2026/04/08 周三 19:00-21:00
童得力-华为云开发者生态运营总监/何文强-无人机企业AI提效负责人
本次华为云码道 Skill 实战活动,聚焦两大 AI 开发场景:通过实战教学,带你打造 AI 编程自动生成视频 Skill,并实现对 GitHub 热门开源项目的智能知识抽取,手把手掌握 Skill 开发全流程,用 AI 提升研发效率与内容生产力。
回顾中 -
华为云码道:零代码股票智能决策平台全功能实战2026/04/18 周六 10:00-12:00
秦拳德-中软国际教育卓越研究院研究员、华为云金牌讲师、云原生技术专家
利用Tushare接口获取实时行情数据,采用Transformer算法进行时序预测与涨跌分析,并集成DeepSeek API提供智能解读。同时,项目深度结合华为云CodeArts(码道)的代码智能体能力,实现代码一键推送至云端代码仓库,建立起高效、可协作的团队开发新范式。开发者可快速上手,从零打造功能完整的个股筛选、智能分析与风险管控产品。
回顾中
热门标签