- 全卷积网络(FCN)与图像分割 从图像分类到图像分割 卷积神经网络(CNN)自2012年以来,在图像分类和图像检测等方面取得了巨大的成就和广泛的应用。 CNN的强大之处在于它的多层结构能自动学习特征,并且可以学习到多个层次的特征:较浅的卷积层感知域较小,学习到一些局部区域的特征;较深的卷积层具有较大的感知域,能够学习到更加抽象一些... 全卷积网络(FCN)与图像分割 从图像分类到图像分割 卷积神经网络(CNN)自2012年以来,在图像分类和图像检测等方面取得了巨大的成就和广泛的应用。 CNN的强大之处在于它的多层结构能自动学习特征,并且可以学习到多个层次的特征:较浅的卷积层感知域较小,学习到一些局部区域的特征;较深的卷积层具有较大的感知域,能够学习到更加抽象一些...
- LightCNN https://github.com/AlfredXiangWu/LightCNN 文章中提出了一种 Light CNN架构的卷积神经网络,适用于有大量噪声的人脸识别数据集; 提出了 maxout 的变体,叫做 Max-Feature-Map (MFM) maxout 使用多个特征图进行任意凸激活函数的线性... LightCNN https://github.com/AlfredXiangWu/LightCNN 文章中提出了一种 Light CNN架构的卷积神经网络,适用于有大量噪声的人脸识别数据集; 提出了 maxout 的变体,叫做 Max-Feature-Map (MFM) maxout 使用多个特征图进行任意凸激活函数的线性...
- Group Convolution分组卷积,最早见于AlexNet——2012年Imagenet的冠军方法,Group Convolution被用来切分网络,使其在2个GPU上并行运行,AlexNet网络结构如下: Convolution VS Group Convolution 在介绍Group Convolution前,先回顾下常规卷积... Group Convolution分组卷积,最早见于AlexNet——2012年Imagenet的冠军方法,Group Convolution被用来切分网络,使其在2个GPU上并行运行,AlexNet网络结构如下: Convolution VS Group Convolution 在介绍Group Convolution前,先回顾下常规卷积...
- 小模型中的一个代表作MobileNet v1,它是一种基于流水线结构,使用深度级可分离卷积构建的轻量级神经网络,并通过两个超参数的引入使得开发人员可以基于自己的应用和资源限制选择合适的模型,如下面的1和2 MobileNet是基于深度级可分离卷积构建的网络,其实这种结构最早是出现在GoogleNet v3的inception中,它是将标准卷积... 小模型中的一个代表作MobileNet v1,它是一种基于流水线结构,使用深度级可分离卷积构建的轻量级神经网络,并通过两个超参数的引入使得开发人员可以基于自己的应用和资源限制选择合适的模型,如下面的1和2 MobileNet是基于深度级可分离卷积构建的网络,其实这种结构最早是出现在GoogleNet v3的inception中,它是将标准卷积...
- 1 Attention 和 Self-Attention Attention的核心思想是:从关注全部到关注重点。Attention 机制很像人类看图片的逻辑,当看一张图片的时候,我们并没有看清图片的全部内容,而是将注意力集中在了图片的焦点上。大家看下面这张图自行体会: 对于CV中早期的Attention,例如:SENet,CBAM,通常... 1 Attention 和 Self-Attention Attention的核心思想是:从关注全部到关注重点。Attention 机制很像人类看图片的逻辑,当看一张图片的时候,我们并没有看清图片的全部内容,而是将注意力集中在了图片的焦点上。大家看下面这张图自行体会: 对于CV中早期的Attention,例如:SENet,CBAM,通常...
- 假设 输入数据维度为W*W Filter大小 F×F 步长 S padding的像素数 P 可以得出 N = (W − F + 2P )/S+1 输出大小为 N×N 假设 输入数据维度为W*W Filter大小 F×F 步长 S padding的像素数 P 可以得出 N = (W − F + 2P )/S+1 输出大小为 N×N
- 什么是全连接神经网络,怎么理解“全连接”? 对n-1层和n层而言 n-1层的任意一个节点,都和第n层所有节点有连接。即第n层的每个节点在进行计算的时候,激活函数的输入是n-1层所有节点的加权。 全连接是一种不错的模式,但是网络很大的时候,训练速度回很慢。部分连接就是认为的切断某两个节点直接的连接,这样训练时计算量大大减... 什么是全连接神经网络,怎么理解“全连接”? 对n-1层和n层而言 n-1层的任意一个节点,都和第n层所有节点有连接。即第n层的每个节点在进行计算的时候,激活函数的输入是n-1层所有节点的加权。 全连接是一种不错的模式,但是网络很大的时候,训练速度回很慢。部分连接就是认为的切断某两个节点直接的连接,这样训练时计算量大大减...
- 参考:http://www.cnblogs.com/pegasus/archive/2011/05/19/2051416.html 这里讨论利用输入图像中像素的小邻域来产生输出图像的方法,在信号处理中这种方法称为滤波(filtering)。其中,最常用的是线性滤波:输出像素是输入邻域像素的加权和。 1.相关算子(Correlation Operator)... 参考:http://www.cnblogs.com/pegasus/archive/2011/05/19/2051416.html 这里讨论利用输入图像中像素的小邻域来产生输出图像的方法,在信号处理中这种方法称为滤波(filtering)。其中,最常用的是线性滤波:输出像素是输入邻域像素的加权和。 1.相关算子(Correlation Operator)...
- X(t)为随机过程,a(t)=E(X(t))为期望,Y(t)为另一随机过程 自相关函数的定义为: R(s,t)=E(X(s)*X(t)) 互相关函数的定义为: R(s,t)=E(X(s)*Y(t)) 事实上,在图象处理中,自相关和互相关函数的定义如下:设原函数是f(t),则自相关函数定义为R(u)=f(t)*f(-t),其中*表示卷积;设两个函数分别... X(t)为随机过程,a(t)=E(X(t))为期望,Y(t)为另一随机过程 自相关函数的定义为: R(s,t)=E(X(s)*X(t)) 互相关函数的定义为: R(s,t)=E(X(s)*Y(t)) 事实上,在图象处理中,自相关和互相关函数的定义如下:设原函数是f(t),则自相关函数定义为R(u)=f(t)*f(-t),其中*表示卷积;设两个函数分别...
- 'steps': [8, 16, 32],决定特征图大小 feature_maps images/steps # 'min_sizes': [[28, 35], [48, 70], [110, 170]], anchors尺寸 # 'steps': [8, 16, 32],决定特征图大小 images/steps  ... 'steps': [8, 16, 32],决定特征图大小 feature_maps images/steps # 'min_sizes': [[28, 35], [48, 70], [110, 170]], anchors尺寸 # 'steps': [8, 16, 32],决定特征图大小 images/steps  ...
- from collections import OrderedDict import timeimport torchimport torch.nn as nnimport torch.nn.functional as Ffrom torch.nn import init def _make_divisible(v, divisor, min_value=N... from collections import OrderedDict import timeimport torchimport torch.nn as nnimport torch.nn.functional as Ffrom torch.nn import init def _make_divisible(v, divisor, min_value=N...
- Curve-GCN是一种高效交互式图像标注方法,其性能优于Polygon-RNN++。在自动模式下运行时间为29.3ms,在交互模式下运行时间为2.6ms,比Polygon-RNN ++分别快10倍和100倍。 https://mp.weixin.qq.com/s?__biz=MzI5MDUyMDIxNA==&mid=... Curve-GCN是一种高效交互式图像标注方法,其性能优于Polygon-RNN++。在自动模式下运行时间为29.3ms,在交互模式下运行时间为2.6ms,比Polygon-RNN ++分别快10倍和100倍。 https://mp.weixin.qq.com/s?__biz=MzI5MDUyMDIxNA==&mid=...
- 原文: http://blog.sina.com.cn/s/blog_6df50e1a01019z95.html 1.使用模板处理图像相关概念 模板:矩阵方块,其数学含义是一种卷积运算。 卷积运算:可看作是加权求和的过程,使用到的图像区域中的每个... 原文: http://blog.sina.com.cn/s/blog_6df50e1a01019z95.html 1.使用模板处理图像相关概念 模板:矩阵方块,其数学含义是一种卷积运算。 卷积运算:可看作是加权求和的过程,使用到的图像区域中的每个...
- 3*3卷积核不降尺寸做法: self.conv_1x1_last = conv_bn_relu(nin=96, nout=96, kernel_size=3, stride=1, padding=1, bias=False) 降尺寸做法: conv_bn_relu(nin=80, nout=96, kernel_size=3, stride=2, pad... 3*3卷积核不降尺寸做法: self.conv_1x1_last = conv_bn_relu(nin=96, nout=96, kernel_size=3, stride=1, padding=1, bias=False) 降尺寸做法: conv_bn_relu(nin=80, nout=96, kernel_size=3, stride=2, pad...
- VariFocalNet | IoU-aware同V-Focal Loss全面提升密集目标检测(附YOLOV5测试代码) 观察到,核心网络是resnet50,resnet101 如果推理报错,参考: https://github.com/hyz-xmaster/VarifocalNet/issues/1 准确地对大量候选检测器进行排名是高性能密集目标检测器的关键。尽管... VariFocalNet | IoU-aware同V-Focal Loss全面提升密集目标检测(附YOLOV5测试代码) 观察到,核心网络是resnet50,resnet101 如果推理报错,参考: https://github.com/hyz-xmaster/VarifocalNet/issues/1 准确地对大量候选检测器进行排名是高性能密集目标检测器的关键。尽管...
上滑加载中
推荐直播
-
AI编码实干派,“码”力全开2026/02/26 周四 15:00-16:30
谈宗玮/于邦旭/丁俊卿/陈云亮/王一男
【中国,深圳,2026年2月26日】,以“AI编码实干派,码力全开”为主题的华为云码道(CodeArts)代码智能体新春发布会在线上成功召开。华为云码道公测版正式发布,为开发者和企业提供具备工程化能力的智能编码解决方案。
回顾中 -
华为云码道-玩转OpenClaw,在线养虾2026/03/11 周三 19:00-21:00
刘昱,华为云高级工程师/谈心,华为云技术专家/李海仑,上海圭卓智能科技有限公司CEO
OpenClaw 火爆开发者圈,华为云码道最新推出 Skill ——开发者只需输入一句口令,即可部署一个功能完整的「小龙虾」智能体。直播带你玩转华为云码道,玩转OpenClaw
回顾中 -
华为云码道-AI时代应用开发利器2026/03/18 周三 19:00-20:00
童得力,华为云开发者生态运营总监/姚圣伟,华为云HCDE开发者专家
本次直播由华为专家带你实战应用开发,看华为云码道(CodeArts)代码智能体如何在AI时代让你的创意应用快速落地。更有华为云HCDE开发者专家带你用码道玩转JiuwenClaw,让小艺成为你的AI助理。
回顾中
热门标签