- LightCNN https://github.com/AlfredXiangWu/LightCNN 文章中提出了一种 Light CNN架构的卷积神经网络,适用于有大量噪声的人脸识别数据集; 提出了 maxout 的变体,叫做 Max-Feature-Map (MFM) maxout 使用多个特征图进行任意凸激活函数的线性... LightCNN https://github.com/AlfredXiangWu/LightCNN 文章中提出了一种 Light CNN架构的卷积神经网络,适用于有大量噪声的人脸识别数据集; 提出了 maxout 的变体,叫做 Max-Feature-Map (MFM) maxout 使用多个特征图进行任意凸激活函数的线性...
- Group Convolution分组卷积,最早见于AlexNet——2012年Imagenet的冠军方法,Group Convolution被用来切分网络,使其在2个GPU上并行运行,AlexNet网络结构如下: Convolution VS Group Convolution 在介绍Group Convolution前,先回顾下常规卷积... Group Convolution分组卷积,最早见于AlexNet——2012年Imagenet的冠军方法,Group Convolution被用来切分网络,使其在2个GPU上并行运行,AlexNet网络结构如下: Convolution VS Group Convolution 在介绍Group Convolution前,先回顾下常规卷积...
- 小模型中的一个代表作MobileNet v1,它是一种基于流水线结构,使用深度级可分离卷积构建的轻量级神经网络,并通过两个超参数的引入使得开发人员可以基于自己的应用和资源限制选择合适的模型,如下面的1和2 MobileNet是基于深度级可分离卷积构建的网络,其实这种结构最早是出现在GoogleNet v3的inception中,它是将标准卷积... 小模型中的一个代表作MobileNet v1,它是一种基于流水线结构,使用深度级可分离卷积构建的轻量级神经网络,并通过两个超参数的引入使得开发人员可以基于自己的应用和资源限制选择合适的模型,如下面的1和2 MobileNet是基于深度级可分离卷积构建的网络,其实这种结构最早是出现在GoogleNet v3的inception中,它是将标准卷积...
- 1 Attention 和 Self-Attention Attention的核心思想是:从关注全部到关注重点。Attention 机制很像人类看图片的逻辑,当看一张图片的时候,我们并没有看清图片的全部内容,而是将注意力集中在了图片的焦点上。大家看下面这张图自行体会: 对于CV中早期的Attention,例如:SENet,CBAM,通常... 1 Attention 和 Self-Attention Attention的核心思想是:从关注全部到关注重点。Attention 机制很像人类看图片的逻辑,当看一张图片的时候,我们并没有看清图片的全部内容,而是将注意力集中在了图片的焦点上。大家看下面这张图自行体会: 对于CV中早期的Attention,例如:SENet,CBAM,通常...
- 假设 输入数据维度为W*W Filter大小 F×F 步长 S padding的像素数 P 可以得出 N = (W − F + 2P )/S+1 输出大小为 N×N 假设 输入数据维度为W*W Filter大小 F×F 步长 S padding的像素数 P 可以得出 N = (W − F + 2P )/S+1 输出大小为 N×N
- 什么是全连接神经网络,怎么理解“全连接”? 对n-1层和n层而言 n-1层的任意一个节点,都和第n层所有节点有连接。即第n层的每个节点在进行计算的时候,激活函数的输入是n-1层所有节点的加权。 全连接是一种不错的模式,但是网络很大的时候,训练速度回很慢。部分连接就是认为的切断某两个节点直接的连接,这样训练时计算量大大减... 什么是全连接神经网络,怎么理解“全连接”? 对n-1层和n层而言 n-1层的任意一个节点,都和第n层所有节点有连接。即第n层的每个节点在进行计算的时候,激活函数的输入是n-1层所有节点的加权。 全连接是一种不错的模式,但是网络很大的时候,训练速度回很慢。部分连接就是认为的切断某两个节点直接的连接,这样训练时计算量大大减...
- 参考:http://www.cnblogs.com/pegasus/archive/2011/05/19/2051416.html 这里讨论利用输入图像中像素的小邻域来产生输出图像的方法,在信号处理中这种方法称为滤波(filtering)。其中,最常用的是线性滤波:输出像素是输入邻域像素的加权和。 1.相关算子(Correlation Operator)... 参考:http://www.cnblogs.com/pegasus/archive/2011/05/19/2051416.html 这里讨论利用输入图像中像素的小邻域来产生输出图像的方法,在信号处理中这种方法称为滤波(filtering)。其中,最常用的是线性滤波:输出像素是输入邻域像素的加权和。 1.相关算子(Correlation Operator)...
- X(t)为随机过程,a(t)=E(X(t))为期望,Y(t)为另一随机过程 自相关函数的定义为: R(s,t)=E(X(s)*X(t)) 互相关函数的定义为: R(s,t)=E(X(s)*Y(t)) 事实上,在图象处理中,自相关和互相关函数的定义如下:设原函数是f(t),则自相关函数定义为R(u)=f(t)*f(-t),其中*表示卷积;设两个函数分别... X(t)为随机过程,a(t)=E(X(t))为期望,Y(t)为另一随机过程 自相关函数的定义为: R(s,t)=E(X(s)*X(t)) 互相关函数的定义为: R(s,t)=E(X(s)*Y(t)) 事实上,在图象处理中,自相关和互相关函数的定义如下:设原函数是f(t),则自相关函数定义为R(u)=f(t)*f(-t),其中*表示卷积;设两个函数分别...
- 'steps': [8, 16, 32],决定特征图大小 feature_maps images/steps # 'min_sizes': [[28, 35], [48, 70], [110, 170]], anchors尺寸 # 'steps': [8, 16, 32],决定特征图大小 images/steps  ... 'steps': [8, 16, 32],决定特征图大小 feature_maps images/steps # 'min_sizes': [[28, 35], [48, 70], [110, 170]], anchors尺寸 # 'steps': [8, 16, 32],决定特征图大小 images/steps  ...
- from collections import OrderedDict import timeimport torchimport torch.nn as nnimport torch.nn.functional as Ffrom torch.nn import init def _make_divisible(v, divisor, min_value=N... from collections import OrderedDict import timeimport torchimport torch.nn as nnimport torch.nn.functional as Ffrom torch.nn import init def _make_divisible(v, divisor, min_value=N...
- Curve-GCN是一种高效交互式图像标注方法,其性能优于Polygon-RNN++。在自动模式下运行时间为29.3ms,在交互模式下运行时间为2.6ms,比Polygon-RNN ++分别快10倍和100倍。 https://mp.weixin.qq.com/s?__biz=MzI5MDUyMDIxNA==&mid=... Curve-GCN是一种高效交互式图像标注方法,其性能优于Polygon-RNN++。在自动模式下运行时间为29.3ms,在交互模式下运行时间为2.6ms,比Polygon-RNN ++分别快10倍和100倍。 https://mp.weixin.qq.com/s?__biz=MzI5MDUyMDIxNA==&mid=...
- 原文: http://blog.sina.com.cn/s/blog_6df50e1a01019z95.html 1.使用模板处理图像相关概念 模板:矩阵方块,其数学含义是一种卷积运算。 卷积运算:可看作是加权求和的过程,使用到的图像区域中的每个... 原文: http://blog.sina.com.cn/s/blog_6df50e1a01019z95.html 1.使用模板处理图像相关概念 模板:矩阵方块,其数学含义是一种卷积运算。 卷积运算:可看作是加权求和的过程,使用到的图像区域中的每个...
- 3*3卷积核不降尺寸做法: self.conv_1x1_last = conv_bn_relu(nin=96, nout=96, kernel_size=3, stride=1, padding=1, bias=False) 降尺寸做法: conv_bn_relu(nin=80, nout=96, kernel_size=3, stride=2, pad... 3*3卷积核不降尺寸做法: self.conv_1x1_last = conv_bn_relu(nin=96, nout=96, kernel_size=3, stride=1, padding=1, bias=False) 降尺寸做法: conv_bn_relu(nin=80, nout=96, kernel_size=3, stride=2, pad...
- VariFocalNet | IoU-aware同V-Focal Loss全面提升密集目标检测(附YOLOV5测试代码) 观察到,核心网络是resnet50,resnet101 如果推理报错,参考: https://github.com/hyz-xmaster/VarifocalNet/issues/1 准确地对大量候选检测器进行排名是高性能密集目标检测器的关键。尽管... VariFocalNet | IoU-aware同V-Focal Loss全面提升密集目标检测(附YOLOV5测试代码) 观察到,核心网络是resnet50,resnet101 如果推理报错,参考: https://github.com/hyz-xmaster/VarifocalNet/issues/1 准确地对大量候选检测器进行排名是高性能密集目标检测器的关键。尽管...
- 论文笔记:https://zhuanlan.zhihu.com/p/33158548 论文链接:https://arxiv.org/abs/1711.07264 这篇文章从题目上看就一目了然:捍卫two-stage object detector. 我们知道Object detection分为两大门派: 一类是two-stagede... 论文笔记:https://zhuanlan.zhihu.com/p/33158548 论文链接:https://arxiv.org/abs/1711.07264 这篇文章从题目上看就一目了然:捍卫two-stage object detector. 我们知道Object detection分为两大门派: 一类是two-stagede...
上滑加载中
推荐直播
-
华为云码道-AI时代应用开发利器2026/03/18 周三 19:00-20:00
童得力,华为云开发者生态运营总监/姚圣伟,华为云HCDE开发者专家
本次直播由华为专家带你实战应用开发,看华为云码道(CodeArts)代码智能体如何在AI时代让你的创意应用快速落地。更有华为云HCDE开发者专家带你用码道玩转JiuwenClaw,让小艺成为你的AI助理。
回顾中 -
Skill 构建 × 智能创作:基于华为云码道的 AI 内容生产提效方案2026/03/25 周三 19:00-20:00
余伟,华为云软件研发工程师/万邵业(万少),华为云HCDE开发者专家
本次直播带来两大实战:华为云码道 Skill-Creator 手把手搭建专属知识库 Skill;如何用码道提效 OpenClaw 小说文本,打造从大纲到成稿的 AI 原创小说全链路。技术干货 + OPC创作思路,一次讲透!
回顾中 -
码道新技能,AI 新生产力——从自动视频生成到开源项目解析2026/04/08 周三 19:00-21:00
童得力-华为云开发者生态运营总监/何文强-无人机企业AI提效负责人
本次华为云码道 Skill 实战活动,聚焦两大 AI 开发场景:通过实战教学,带你打造 AI 编程自动生成视频 Skill,并实现对 GitHub 热门开源项目的智能知识抽取,手把手掌握 Skill 开发全流程,用 AI 提升研发效率与内容生产力。
回顾中
热门标签