-
在OpenCV中,它给我们提供了cv2.fitEllipse()函数绘制最优拟合椭圆。其完整的定义如下:def fitEllipse(points): 复制代码其中points参数与前文一致,而它的返回值是RotatedRect类型,这是因为该函数返回的是拟合椭圆的外接矩形,包括矩形的质心,宽高,旋转角度等信息,这些信息正好与椭圆的中心点,轴长度,旋转角度一致。下面,我们来使用该函数绘制最优拟合椭圆,这里我们选取如上图所示的一张矩形图。具体代码如下:import cv2 img = cv2.imread("27.jpg") cv2.imshow("img1", img) # 转换为灰度图像 gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY) ret, binary = cv2.threshold(gray, 127, 255, cv2.THRESH_BINARY) contours, hierarchy = cv2.findContours(binary, cv2.RETR_LIST, cv2.CHAIN_APPROX_SIMPLE) ellipse = cv2.fitEllipse(contours[0]) cv2.ellipse(img, ellipse, (0, 0, 255), 3) cv2.imshow("img2", img) cv2.waitKey() cv2.destroyAllWindows() 复制代码运行之后,效果如下所示:作者:极客学编程链接:https://juejin.cn/post/6987018772653539341来源:掘金著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
-
最小包围圆形框既然有最小包围矩形框,那么一定就有最小包围圆形框。在OpenCV中,它给我们提供cv2.minEnclosingCircle()函数来绘制最小包围圆形框。函数的完整定义如下:def minEnclosingCircle(points): 复制代码这里的参数与上面的points参数一致,但是其返回值并不相同,毕竟绘制圆形肯定与绘制矩形的参数肯定不一样。它有两个返回值,一个是圆形的中心坐标(x,y),一个是圆形的半径r。下面,我们直接来绘制上面椭圆的最小包围圆形框。具体代码如下所示:import cv2 import numpy as np img = cv2.imread("26_4.jpg") cv2.imshow("img1", img) # 转换为灰度图像 gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY) ret, binary = cv2.threshold(gray, 127, 255, cv2.THRESH_BINARY) contours, hierarchy = cv2.findContours(binary, cv2.RETR_LIST, cv2.CHAIN_APPROX_SIMPLE) (x, y), r = cv2.minEnclosingCircle(contours[0]) center = (int(x), int(y)) r = int(r) cv2.circle(img, center, r, (255, 255, 255), 2) cv2.imshow("img2", img) cv2.waitKey() cv2.destroyAllWindows() 复制代码运行之后,效果如下所示:作者:极客学编程链接:https://juejin.cn/post/6987018772653539341来源:掘金著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
-
前言在计算轮廓时,可能并不需要实际的轮廓,而仅需要一个接近于轮廓的近似多边形。比如矩形其实都是差不多的轮廓,都是长宽不相等且平行的四边形,那么只要提供一个近似的轮廓,我们就可以区分形状。在OpenCV中,它给我们提供了cv2.boundingRect()函数来绘制轮廓的矩形边界,其完整定义如下:def boundingRect(array): 复制代码array:前面已经介绍过,array是一个灰度图像,或者轮廓。该函数返回3个值时,是矩形边界的左上角顶点的坐标值以及矩形边界的宽与高。返回4个值时,是矩形左上角顶点的x坐标,y坐标,以及宽高。绘制椭圆的矩形边界现在,我们还是使用前面的一张椭圆图形,如下图所示:得到图形之后,我们使用上面的函数,计算该图像轮廓的4值,代码如下:import cv2 img = cv2.imread("26_1.jpg") # 转换为灰度图像 gray = cv2.cvtColor(img1, cv2.COLOR_BGR2GRAY) ret, binary = cv2.threshold(gray, 127, 255, cv2.THRESH_BINARY) contours, hierarchy = cv2.findContours(binary, cv2.RETR_LIST, cv2.CHAIN_APPROX_SIMPLE) x, y, w, h = cv2.boundingRect(contours[0]) print(x, y, w, h) 复制代码运行之后,控制台输出如下内容:这里我们得到了椭圆的矩形左上角坐标为(53,120),其宽高分别为272与84。既然我们已经得到了其矩形边界的坐标以及宽高,那么我们可以开始绘制其矩形边界。前面提取轮廓绘制用的是cv2.drawContours()函数,这里同样也是。代码如下:import cv2 import numpy as np img = cv2.imread("26_1.jpg") cv2.imshow("img1",img) # 转换为灰度图像 gray= cv2.cvtColor(img, cv2.COLOR_BGR2GRAY) ret, binary = cv2.threshold(gray, 127, 255, cv2.THRESH_BINARY) contours, hierarchy = cv2.findContours(binary, cv2.RETR_LIST, cv2.CHAIN_APPROX_SIMPLE) x, y, w, h = cv2.boundingRect(contours[0]) rect=np.array([[[x,y],[x+w,y],[x+w,y+h],[x,y+h]]])#1 cv2.drawContours(img,[rect],-1,(255,255,255),2)#1 cv2.imshow("img2",img) cv2.waitKey() cv2.destroyAllWindows() 复制代码运行之后,其椭圆的矩形边界就被我们标记出来了,效果如下:当然,这里我们还可以使用另一个函数cv2.rectangle()来绘制矩形边界,值需要更换上面代码中注释1的两个代码,具体如下所示:cv2.rectangle(img, (x, y), (x + w, y + h), (255, 255,255),2) 复制代码最小包围矩形框在OpenCV中,它还提供了cv2.minAreaRect()来绘制最小包围矩形框,其完整定义如下:def minAreaRect(points): 复制代码其中points参数是轮廓,返回值为矩形特征信息,包括矩形的中心(x,y),宽高,以及旋转角度。特别注意,minAreaRect函数的返回值并不能直接代入drawContours()函数中。因此,我们必须将其转换为符合要求的结构才能接着操作。通过cv2.boxPoint()函数就可以转换为符合drawContours()的结构参数。还是上面那张图,不过我们用旋转后的椭圆原图,代码如下:import cv2 import numpy as np img = cv2.imread("26_4.jpg") cv2.imshow("img1",img) # 转换为灰度图像 gray= cv2.cvtColor(img, cv2.COLOR_BGR2GRAY) ret, binary = cv2.threshold(gray, 127, 255, cv2.THRESH_BINARY) contours, hierarchy = cv2.findContours(binary, cv2.RETR_LIST, cv2.CHAIN_APPROX_SIMPLE) rect= cv2.minAreaRect(contours[0]) print(rect) points=cv2.boxPoints(rect) print(points) points=np.int0(points) print(points) cv2.drawContours(img,[points],0,(255,255,255),2) cv2.imshow("img2",img) cv2.waitKey() cv2.destroyAllWindows() 复制代码运行之后,图像效果以及控制台的输出信息如下:这里我们可以清楚的看到minAreaRect()函数返回值的转换过程。先通过boxPoints()函数转换为drawContours()函数能接受的参数格式,然后通过取整转换为具体的像素坐标值。作者:极客学编程链接:https://juejin.cn/post/6987018772653539341来源:掘金著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
-
什么是Hu矩Hu矩是归一化中心矩的线性组合。Hu矩在图像的旋转,缩放,平移等操作后,仍然保持矩的特征不变,所以经常会用到Hu矩来识别图像的特征。在OpenCV中,我们可以通过cv2.HuMoments()函数获取Hu矩。该函数使用cv2.moments()函数的返回值作为参数,返回7个Hu矩值。其完整定义如下:def HuMoments(m, hu=None): 复制代码m:是由函数cv2.moments()计算得到的矩特征值获取Hu矩值下面,我们就通过该函数获取下图的Hu矩值。具体代码如下所示:import cv2 img = cv2.imread("24.jpg") cv2.imshow("img", img) # 转换为灰度图像 img_gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY) hu=cv2.HuMoments(cv2.moments(img_gray)).flatten() print(hu) 复制代码运行之后,我们会得到7个值的list数组:形状匹配前面我们已经介绍,通过Hu矩可以判断两个轮廓是否一致。而为了更直观的比较Hu矩值,OpenCV给我们提供了cv2.matchShapes()来对两个对象的Hu矩进行比较。其完整定义如下:def matchShapes(contour1, contour2, method, parameter): 复制代码contour1:需要对比的轮廓1,或者灰度图像contour2:需要对比的轮廓2,或者灰度图像method:比较两个轮廓的Hu矩方法,取值如下表:取值含义cv2.CONTOURS_MATCH_11cv2.CONTOURS_MATCH_12cv2.CONTOURS_MATCH_13parameter:应用于method的特定参数,该参数为扩展参数OpenCV4.X还不支持该参数,因此该参数设置为0。下面,我们通过几张图测试形状匹配,原图如下:其中24是之前用到的图与后面图形都不一样,而26所有的图形都是从同一个椭圆变换而来的,比如26_2是26_1等比例放大之后的图像,26_4是26_1移动并旋转一定角度的图像。下面,我们来通过matchShapes来判断图形,代码如下:import cv2 img1 = cv2.imread("26_1.jpg") img2 = cv2.imread("26_2.jpg") img3 = cv2.imread("24.jpg") img4 = cv2.imread("26_4.jpg") # 转换为灰度图像 gray1 = cv2.cvtColor(img1, cv2.COLOR_BGR2GRAY) gray2 = cv2.cvtColor(img2, cv2.COLOR_BGR2GRAY) gray3 = cv2.cvtColor(img3, cv2.COLOR_BGR2GRAY) gray4 = cv2.cvtColor(img4, cv2.COLOR_BGR2GRAY) contours1, hierarchy1 = cv2.findContours(gray1, cv2.RETR_LIST, cv2.CHAIN_APPROX_SIMPLE) contours2, hierarchy2 = cv2.findContours(gray2, cv2.RETR_LIST, cv2.CHAIN_APPROX_SIMPLE) contours3, hierarchy3 = cv2.findContours(gray3, cv2.RETR_LIST, cv2.CHAIN_APPROX_SIMPLE) contours4, hierarchy4 = cv2.findContours(gray4, cv2.RETR_LIST, cv2.CHAIN_APPROX_SIMPLE) ret1 = cv2.matchShapes(contours1[0], contours2[0], 1, 0.0) ret2 = cv2.matchShapes(contours1[0], contours3[0], 1, 0.0) ret3 = cv2.matchShapes(contours1[0], contours4[0], 1, 0.0) print(ret1) print(ret2) print(ret3) 复制代码这里26_1与26_2,24,26_4分别对比,控制台输出结果如下:可以看到,与放大移动旋转的图像比,输出值都是0。这是因为相似的图像通过平移,缩放,旋转后,cv2.matchShapes()的值仍然接近与0。而24图的矩形与椭圆并不是一个轮廓。所以其差别非常大,自然返回值也大。作者:极客学编程链接:https://juejin.cn/post/6987018233500925983来源:掘金著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
-
什么是矩特征通过前篇博文的学习,我们知道如何从图像中分解轮廓。而矩特征是比较两个轮廓最简单的方法,通过它们的轮廓矩就能判断。首先,轮廓矩代表了一个轮廓,一副图像,一组点集的全局特征。矩信息包含了对应对象不同类型的几何特征,比如大小,位置,角度,形状等。矩特征被广泛应用在图像识别,模式识别的场景中。矩的计算在OpenCV中,它给我们提供了cv2.moments()函数来获取图像的轮廓矩,其完整的定义如下:def moments(array, binaryImage=None): 复制代码array:可以是点集,也可以是灰度图像或二值图像。当array为点集时,函数会把这些点集当成轮廓中的顶点,把整个点集作为一条轮廓,而不是把它们当成独立的点来看。binaryImage:布尔类型,当它为True时,array内所有的非零值都被处理为1。该参数仅在array为图像时有效。通过该函数,我们能判断两个轮廓是否相似。例如,由两个轮廓,不管它们出现在图像的哪个位置,我们都可以通过函数cv2.moments()矩特征判断其面积是否一致。矩的特征上面我们说的一般是空间矩,但是矩特征分为3种,主要包括:(1)空间矩零阶矩:m00一阶矩:m10,m01二阶矩:m20,m11,m02三阶矩:m30,m21,m12,m03(2)中心矩二阶中心矩:mu20,mu11,mu02三阶中心矩:mu30,mu21,mu12,mu03(3)归一化中心矩二阶Hu矩:nu20,nu11,nu02三阶Hu矩:nu30,nu21,nu12,nu03对于零阶矩来说,通过上面的比较就可以判断面积是否一致。但是对于更高阶的图像来说,矩特征会随着位置的变化而变化的。为了解决这种问题,所以中心矩诞生了。中心矩是通过减去均值而获取平移的不变性,因而能够比较不同位置的两个对象是否一致。很明显,中心矩具有平移不变性特征。除了平移之外,在图像中我们还会碰到缩放的情况,也就是说,我们同样喜欢缩放后也能判断其特征。这个时候,就需要归一化中心矩。归一化中心矩通过除于物体总尺寸而获得缩放不变性。它通过上述计算提取对象的归一化中心矩属性值,该属性值不仅具有平移不变性,还具有缩放不变性。cv2.moments()函数会同时计算上述空间矩,中心矩以及归一化中心矩提取一副图像的特征矩这里,我们还是通过本文首图来分析函数的具体返回值,代码如下:import cv2 img = cv2.imread("24.jpg") cv2.imshow("img", img) # 转换为灰度图像 img_gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY) # 转换为二值图 ret, binary = cv2.threshold(img_gray, 127, 255, cv2.THRESH_BINARY) # 获取图像的轮廓参数 contours, hierarchy = cv2.findContours(binary, cv2.RETR_LIST, cv2.CHAIN_APPROX_SIMPLE) for i in range(len(contours)): print(str(i),cv2.moments(contours[i])) 复制代码运行之后,控制台会输出如下信息:可以看到,轮廓的所有矩特征都会一一列出来。正好对应我们上面列举的矩的特征分类。计算轮廓的面积通过上面的矩特征,我们可以计算轮廓的面积。在OpenCV中,它给我们提供cv2.contourArea()函数用于计算轮廓的面积,它接受cv2.findContours()函数的返回值contours作为参数。具体代码如下所示:import cv2 img = cv2.imread("24.jpg") cv2.imshow("img", img) # 转换为灰度图像 img_gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY) # 转换为二值图 ret, binary = cv2.threshold(img_gray, 127, 255, cv2.THRESH_BINARY) # 获取图像的轮廓参数 contours, hierarchy = cv2.findContours(binary, cv2.RETR_LIST, cv2.CHAIN_APPROX_SIMPLE) for i in range(len(contours)): print("轮廓"+str(i)+"的面积" + str(cv2.contourArea(contours[i]))) 复制代码运行之后,我们会得到3个轮廓的面积值:通过该函数,我们可以筛选面积大于特定值,或者小于特性值的轮廓。计算轮廓的长度在OpenCV中,它给我们提供了cv2.arcLength()函数来计算轮廓的长度,其完整定义如下:def arcLength(curve, closed): 复制代码curve:轮廓closed:布尔类型,用来表示轮廓是否是封闭的。该值为True时,表示轮廓是封闭的。这里还是一样,用本文首图作为测试对象,代码如下:import cv2 img = cv2.imread("24.jpg") cv2.imshow("img", img) # 转换为灰度图像 img_gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY) # 转换为二值图 ret, binary = cv2.threshold(img_gray, 127, 255, cv2.THRESH_BINARY) # 获取图像的轮廓参数 contours, hierarchy = cv2.findContours(binary, cv2.RETR_LIST, cv2.CHAIN_APPROX_SIMPLE) for i in range(len(contours)): print("轮廓"+str(i)+"的长度" + str(cv2.arcLength(contours[i],True))) 复制代码运行之后,控制台会输出如下信息:作者:极客学编程链接:https://juejin.cn/post/6986577991082082317来源:掘金著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
-
什么是图像轮廓在前面的边缘检测中,虽然我们能够检测出边缘信息,但边缘是不连续的,检测到的边缘并不是一个整体。而图像的轮廓负责将边缘连接起来形成一个整体,用于后续的计算。需要特别注意,图像的轮廓是非常重要的一个特征信息,通过对图像轮廓的操作,我们能够获取目标图像的大小,位置以及方向等信息。查找图像轮廓图像中一个轮廓对应着一系列的点,这些点以某种形式表示图像中的一条曲线。在OpenCV中,它给我们提供了函数cv2.findContours()用于查找图像的轮廓,并能够根据参数返回特定表示方式的轮廓。该函数的完整定义如下:def findContours(image, mode, method, contours=None, hierarchy=None): 复制代码image:原始图像,所有非0值处理为1,所有0值保持不变mode:轮廓检索模式参数含义cv2.RETR_EXTERNAL只检测外轮廓cv2.RETR_LIST对检测到的轮廓不建立等级关系cv2.RETR_CCOMP检测所有轮廓并将它们组织成两级层次关系。上层为外边界,下层为内孔边界。如果内孔内还有一个连同物体,那么这个物体的边界仍然位于顶层cv2.RETR_TREE建立一个等级树结构轮廓method:轮廓的近似方法参数含义cv2.CHAIN_APPROX_NONE存储所有的轮廓点,相邻两个点的像素位置差不超过1cv2.CHAIN_APPROX_SIMPLE压缩水平方向,垂直方向,对象线方向的元素,只保留该方向的终点坐标。例如,在极端的情况下,一个矩形只需要用4个点来保存轮廓信息cv2.CHAIN_APPROX_TC89_L1使用teh_Chinl chain近似算法的一种风格cv2.CHAIN_APPROX_TC89_KCOS使用teh_Chinl chain近似算法的一种风格contours:返回的轮廓。比如一个图像中有3个不交叉的形状:圆,矩形以及正反向。那么它就是一个长度为3的list,也就是有3个轮廓,contours[i][j]就是第i个轮廓的第j个点。当然,图像的轮廓并不一定是不交叉的,假如几个形状的轮廓相互交叉,那么就形成了父子关系,contours[i]用4个元素来说明轮廓的层次关系。Next:后一个轮廓的索引编号Previous:前一个轮廓的索引编号First_Child:第一个子轮廓的索引编号Parent:父轮廓的索引编号如果上面参数都为空,也就是前面讲的各个形状轮廓不交叉的情况。且值为“-1”。特别注意,轮廓的层次结构是由参数mode决定的,也就是说,使用不同的mode,得到的轮廓编号是不一样的,hierarchy也不一样。hierarchy:图像的拓扑信息其返回值为3个参数:image,contours以及hierarchy。而在OpenCV4.X版本中,该函数返回值只有两个:contours,hierarchy。作者:极客学编程链接:https://juejin.cn/post/6986511752577941511来源:掘金著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
-
什么是图像金字塔图像金字塔是由一副图像的多个不同分辨率的子图所构成的图像集合。该组图像是由单个图像通过不断地降低采样所产生的,最小的图像可能仅仅只有一个像素点。分辨率从低到高,逐渐降低的图像集合。通常level0是原图,每往上一层图像的宽高降低为原来的一半,以此类推。比如假如level0的原图宽高为N,那么level1的宽高就为N/2,得到的就是(N/2)*(N/2)大小的图像。最简单的金字塔是通过删除图像的偶数行或偶数列得到。当然,也可以先对原始图像进行滤波,得到原始图像的近似图像,然后将近似图像的偶数行与偶数列删除以获取向下采样的结果。至于滤波一般有以下两种选择:(1)高斯滤波器:采用高斯滤波器对原图像滤波,得到高斯金字塔。(2)领域滤波器:采用领域平均技术求原始图像的近似图像,得到平均金字塔。高斯金字塔在OpenCV中,它给我们提供函数cv2.pyrDown()实现高斯金字塔中的向下采样。其完整定义如下:def pyrDown(src, dst=None, dstsize=None, borderType=None): 复制代码src:原始图像dstsize:目标图像大小borderType:边界类型,只支持BORDER_DEFAULT。经过原理的介绍,我们知道输入图像的默认值为Size((src.cols+1)/2,(src.rows+1)/2),而高斯滤波器的矩阵如下所示:当然,有高斯金字塔中的向下采样,自然也有高斯金字塔中的向上采样,在OpenCV中,该函数为cv2.pyrUp(),其完整定义如下:def pyrUp(src, dst=None, dstsize=None, borderType=None): 复制代码至于参数是一样的,这里不在赘述,当然dstsize默认是Size(src.cols2,src.rows2)。需要特别注意的是,虽然图像向下采样,在进行向上采样,会恢复到原来的图像大小。但是其都是不可逆的。也就说,在经历两次采样之后,得到的图像虽然大小一致,但二者像素并不一致,因为丢失的行列不可能无缘无故的生成。拉普拉斯金字塔虽然说,在使用高斯滤波器进行向下采样之后,在进行向上采样不能恢复原来的图像。但我们可以通过拉普拉斯金字塔来恢复原来的图像。因为这些丢失的信息,构成的就是拉普拉斯金字塔。拉普拉斯金字塔的数学定义如下:其中,Li表示拉普拉斯金字塔的第i层,Gi表示高斯金字塔中的第i层。作者:极客学编程链接:https://juejin.cn/post/6986243416371757069来源:掘金著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
-
什么是Canny边缘检测Canny边缘检测是一种使用多级边缘检测算法检测边缘的方法。该方法由John F. Canny于1986年发表。Canny边缘检测主要分为4个步骤:(1)去噪。噪声会影响边缘检测的准确性,因此首先要将噪声过滤掉。(2)计算梯度的幅度与方向(3)非极大值抑制,即适当地让边缘“变瘦”。(4)确定边缘。使用双阈值算法确定最终的边缘信息。在实际的图像边缘检测中,我们一般先用高斯滤波去除图像噪声(1),然后计算梯度的幅度与角度两个值(2),接着遍历图像中的像素点,去除所有非边缘的点(3)。最后,去除噪声所产生的虚边缘得到最终的边缘信息。(4)在OpenCV中,它给我们提供了cv2.Canny()函数用于Canny边缘检测,其完整定义如下:def Canny(image, threshold1, threshold2, edges=None, apertureSize=None, L2gradient=None): 复制代码image:8位输入图像threshold1:处理过程中的第一个阈值threshold2:处理过程中的第二个阈值edges:计算得到的边缘图像apertureSize:Sobel滤波器的孔径大小L2gradient:计算图像梯度幅度的标识。它是一个布尔类型,默认值为False。如果为True,则使用更精确的L2范数进行计算,也就是两个方向的导数的平方和再开方,否则使用L1范数(直接将两个方向导数的绝对值相加),数学公式如下:作者:极客学编程链接:https://juejin.cn/post/6986242226209144862来源:掘金著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
-
【功能模块】通过交叉编译好opencv库后,引入 opencv头文件与库文件后,编译链接失败。【操作步骤&问题现象】1、2、【截图信息】【日志】(可选,上传日志内容或者附件)
-
【功能模块】按照aarch64架构linux文档在x86服务器上编译opencv后,引入Mindstuio中使用报错,希望尽快回复,急!【操作步骤&问题现象】1、2、【截图信息】【日志信息】(可选,上传日志内容或者附件)
-
已手动下载好了opencv-4.2.0.tar.gz,请问如何手动安装。
-
【功能模块】运行build.sh时出错请问华为的服务器里面没有装这个库吗?【操作步骤&问题现象】【截图信息】【日志信息】(可选,上传日志内容或者附件)
-
Laplacian滤波器Laplacian滤波器是一种二阶导数算子,其具有旋转不变性,可以满足不同方向的图像边缘锐化的要求。通常情况下,其算子的系数之和需要为零。例如,下面的算子矩阵就是Laplacian算子,和也为0。其具体原理如下,假设我们的图像还是p1-p9的9个像素点。Laplacian算子与图像的矩阵就会如下图所示:就算像素点P5的近似导数值,如下:P5lap=(P2+P4+P6+P8)-4*P5在OpenCV中,它给我们提供cv2.Laplacian()函数来实现Laplacian滤波器,其完整定义如下:def Laplacian(src, ddepth, dst=None, ksize=None, scale=None, delta=None, borderType=None): 复制代码这些参数与前文的参数基本一致,这里不在赘述。不过需要注意的是,kszie用于计算导数的核尺寸,该值必须是正数的奇数。当kszie的为1时,就是上面的(1,-4)矩阵。下面,我们使用Laplacian滤波器测试一下效果,代码如下:import cv2 img = cv2.imread("4.jpg", cv2.IMREAD_UNCHANGED) laplacian=cv2.Laplacian(img,cv2.CV_64F,ksize=1) result=cv2.convertScaleAbs(laplacian) cv2.imshow("img", img) cv2.imshow("result", result) cv2.waitKey() cv2.destroyAllWindows() 复制代码运行之后,效果如下: 综上所述,Sobel与Scharr滤波器计算的都是一阶近似导数的值,而Laplacian滤波器计算的是二阶近似导数值。作者:极客学编程链接:https://juejin.cn/post/6986242260899725348来源:掘金著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
-
Scharr滤波器OpenCV还给我们提供了Scharr滤波器,该滤波器与Sobel滤波器具有同样的处理速度,且精度更高。可以把它看出Sobel滤波器的改良版本,其核通常为: 在OpenCV中,它提供函数cv2.Scharr()来计算Scharr滤波器,其完整定义如下:def Scharr(src, ddepth, dx, dy, dst=None, scale=None, delta=None, borderType=None): 复制代码参数与Sobel滤波器一摸一样,不懂的可以会看上一篇,这里不在赘述。同样的,其计算的梯度(导数)也与Sobel滤波器一摸一样,有X方向的,Y方向的,XY叠加的。(需要特别注意,Scharr滤波器没有XY方向的,只有叠加的,如果设置dx,dy都等于1会报错)这里我们同样来实现这3种效果,并进行对比,首先是X方向的:import cv2 img = cv2.imread("4.jpg", cv2.IMREAD_UNCHANGED) sobel_x=cv2.Scharr(img,cv2.CV_64F,1,0) result=cv2.convertScaleAbs(sobel_x) cv2.imshow("img", img) cv2.imshow("result", result) cv2.waitKey() cv2.destroyAllWindows() 复制代码运行之后,效果如下: 接着是Y方向的:import cv2 img = cv2.imread("4.jpg", cv2.IMREAD_UNCHANGED) sobel_y=cv2.Scharr(img,cv2.CV_64F,0,1) result=cv2.convertScaleAbs(sobel_y) cv2.imshow("img", img) cv2.imshow("result", result) cv2.waitKey() cv2.destroyAllWindows() 复制代码运行之后,效果如下: 最后,是XY叠加的:import cv2 img = cv2.imread("4.jpg", cv2.IMREAD_UNCHANGED) sobel_x=cv2.Scharr(img,cv2.CV_64F,1,0) sobel_y=cv2.Scharr(img,cv2.CV_64F,0,1) abs_x=cv2.convertScaleAbs(sobel_x) abs_y=cv2.convertScaleAbs(sobel_y) result=cv2.addWeighted(abs_x,0.5,abs_y,0.5,0) cv2.imshow("img", img) cv2.imshow("result", result) cv2.waitKey() cv2.destroyAllWindows() 复制代码运行之后,效果如下: Scharr滤波器与Sobel滤波器的区别是,Sobel滤波器精确度不高,核结构较小,而Scharr滤波器具有更高的精度,下图对比就能发现。来源:掘金著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
-
Sobel滤波器Sobel滤波器是一种离散的微分算子,该算子结合了高斯平滑和微分求导运算。该算子利用局部差分寻找边缘,计算所得的是一个梯度的近似值。具体的原理如下:将Sobel滤波器与原始图像进行卷积计算,可以计算水平方向上的像素值变化情况。例如,当Sobel滤波器的大小为3*3时,水平方向偏导数的计算方式如下:如果需要计算P5水平方向偏导数(梯度),则公式如下:P5x=(P3-P1)+2*(P6-P4)+(P9-P7)如果需要计算P5垂直方向偏导数(梯度),则公式如下:P5y=(P7-P1)+2*(P8-P2)+(P9-P3)在OpenCV中,它给我们提供cv2.Sobel()函数实现Sobel滤波器,其函数定义如下:def Sobel(src, ddepth, dx, dy, dst=None, ksize=None, scale=None, delta=None, borderType=None): 复制代码src:原始图像ddepth:输出图像的深度,详细取值如下表:输入图像深度输出图像深度cv2.CV_8U-1/cv2.CV_16S/cv2.CV_32F/cv2/CV_64Fcv2.CV_16U/cv2.CV_16S-1/cv2.CV_32F/cv2.CV_64Fcv2.CV_32F-1/cv2.CV_32F/cv2.CV_64Fcv2.CV_64F-1/cv2.CV_64Fdx:代表X方向的求导阶数dy:代表Y方向的求导阶数ksize:Sobel核的大小,该值为-1时,则会使用Sobel滤波器进行运算scale:计算导数值所采用的缩放因子,默认值为1,时没有缩放的delta:加载目标图像上的值,该值可选,默认为0borderType:边界样式,前面博文有详细介绍,这里不在赘述。需要注意的是,如果将ddepth参数设置为-1,让处理结果与原图像保持一致,可以会得到错误的结果。实际上,这么做会导致梯度值可能出现负数。如果处理的是8位图像,意味着指定运算的结果也是8位图类型,那么所有的负数会自动截断为0,发生信息丢失。为了避免信息丢失,在计算时先使用更高的数据类型cv2.CV_64F,再通过取绝对值将其映射为cv2.CV_8U类型。所以,我们使用Sobel滤波器常常会将ddepth设置为cv2.CV_64F。计算X方向梯度语法格式为:cv2.Sobel(src,ddepth,1,0) 复制代码计算Y方向梯度语法格式为:cv2.Sobel(src,ddepth,0,1) 复制代码计算XY方向梯度语法格式为:cv2.Sobel(src,ddepth,1,1) 复制代码计算XY叠加梯度语法格式为:dx=cv2.Sobel(src,ddepth,1,0) dy=cv2.Sobel(src,ddepth,0,1) dst=cv2.addWeighted(src1,alpha,src2,beta,gamma) 复制代码因为可能会出现负数,我们还需要使用另一个函数取绝对值,该函数为:cv2.convertScaleAbs(),其完整定义如下:def convertScaleAbs(src, dst=None, alpha=None, beta=None): 复制代码alpha:调节系数,可选值,默认为1beta:调节亮度值,默认为0下面,我们来使用Sobel滤波器,获取图像水平方向的边缘信息,代码如下:import cv2 img = cv2.imread("4.jpg", cv2.IMREAD_UNCHANGED) sobel_x=cv2.Sobel(img,cv2.CV_64F,1,0) result=cv2.convertScaleAbs(sobel_x) cv2.imshow("img", img) cv2.imshow("result", result) cv2.waitKey() cv2.destroyAllWindows() 复制代码运行之后,效果如下所示:接着,我们来使用Sobel滤波器,获取图像垂直方向的边缘信息,代码如下:import cv2 img = cv2.imread("4.jpg", cv2.IMREAD_UNCHANGED) sobel_y=cv2.Sobel(img,cv2.CV_64F,0,1)#更改这一行就行 result=cv2.convertScaleAbs(sobel_y) cv2.imshow("img", img) cv2.imshow("result", result) cv2.waitKey() cv2.destroyAllWindows() 复制代码运行之后,效果如下:接着,我们来计算XY方向梯度,代码如下:import cv2 img = cv2.imread("4.jpg", cv2.IMREAD_UNCHANGED) sobel_xy=cv2.Sobel(img,cv2.CV_64F,1,1)#都设置为1 result=cv2.convertScaleAbs(sobel_xy) cv2.imshow("img", img) cv2.imshow("result", result) cv2.waitKey() cv2.destroyAllWindows() 复制代码运行之后,效果如下:最后,我们来计算其水平垂直两个方向的叠加边缘信息,代码如下:import cv2 img = cv2.imread("4.jpg", cv2.IMREAD_UNCHANGED) sobel_x=cv2.Sobel(img,cv2.CV_64F,1,0) sobel_y=cv2.Sobel(img,cv2.CV_64F,0,1) abx_x=cv2.convertScaleAbs(sobel_x) abx_y=cv2.convertScaleAbs(sobel_y) result=cv2.addWeighted(sobel_x,0.5,sobel_y,0.5,0) cv2.imshow("img", img) cv2.imshow("result", result) cv2.waitKey() cv2.destroyAllWindows() 复制代码运行之后,效果如下:作者:极客学编程链接:https://juejin.cn/post/6985831555889365028来源:掘金著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
上滑加载中
推荐直播
-
OpenHarmony应用开发之网络数据请求与数据解析
2025/01/16 周四 19:00-20:30
华为开发者布道师、南京师范大学泰州学院副教授,硕士研究生导师,开放原子教育银牌认证讲师
科技浪潮中,鸿蒙生态强势崛起,OpenHarmony开启智能终端无限可能。当下,其原生应用开发适配潜力巨大,终端设备已广泛融入生活各场景,从家居到办公、穿戴至车载。 现在,机会敲门!我们的直播聚焦OpenHarmony关键的网络数据请求与解析,抛开晦涩理论,用真实案例带你掌握数据访问接口,轻松应对复杂网络请求、精准解析Json与Xml数据。参与直播,为开发鸿蒙App夯实基础,抢占科技新高地,别错过!
回顾中 -
Ascend C高层API设计原理与实现系列
2025/01/17 周五 15:30-17:00
Ascend C 技术专家
以LayerNorm算子开发为例,讲解开箱即用的Ascend C高层API
回顾中
热门标签