O3.4 opencv图形拼接+答题卡识别

一·图形拼接

逻辑

  1. 导入必要的库

python

import cv2
import numpy as np
import sys

导入cv2库用于图像处理,numpy库用于数值计算,sys库用于与 Python 解释器进行交互,例如退出程序。

  1. 定义图像显示函数
def cv_show(name, img):cv2.imshow(name, img)cv2.waitKey(0)

cv_show函数用于在窗口中显示图像,并等待用户按键关闭窗口。它接受两个参数,name是窗口名称,img是要显示的图像。

  1. 定义特征检测与描述函数

python

def detectAndDescribe(image):gray = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY)  descriptor = cv2.SIFT_create()  (kps, des) = descriptor.detectAndCompute(gray, None)kps_float = np.float32([kp.pt for kp in kps])return (kps, kps_float, des)  
  • 函数detectAndDescribe接受一个图像作为输入。
  • 首先将彩色图像转换为灰度图像,因为 SIFT 算法通常在灰度图像上进行操作。
  • 创建 SIFT 特征提取器对象descriptor
  • 使用descriptor.detectAndCompute方法同时检测图像中的关键点并计算这些关键点的描述符。kps是关键点列表,des是描述符。
  • 将关键点的坐标转换为numpyfloat32类型数组kps_float,方便后续计算。
  • 最后返回关键点集kps、关键点坐标数组kps_float以及描述符des
  1. 读取并显示拼接图片
imageA = cv2.imread("1.jpg")
cv_show('imageA', imageA)
imageB = cv2.imread("2.jpg")
cv_show('imageB', imageB)

使用cv2.imread分别读取两张要拼接的图像1.jpg2.jpg,并通过cv_show函数在不同窗口中显示原始图像,让用户可以直观查看。

  1. 计算图片特征点及描述符

python

(kpsA, kps_floatA, desA) = detectAndDescribe(imageA)
(kpsB, kps_floatB, desB) = detectAndDescribe(imageB)

对图像imageAimageB分别调用detectAndDescribe函数,获取它们的关键点集、关键点坐标数组以及描述符。

  1. 建立匹配器并进行特征匹配

python

matcher = cv2.BFMatcher()
rawMatches = matcher.knnMatch(desB, desA, 2)
good = []
matches = []
for m in rawMatches:if len(m) == 2 and m[0].distance < 0.65 * m[1].distance:good.append(m)matches.append((m[0].queryIdx, m[0].trainIdx))
  • 创建cv2.BFMatcher对象matcher,这是一个暴力匹配器,用于匹配两个图像的特征描述符。虽然代码注释提到在匹配大型训练集合时FlannBasedMatcher速度更快,但这里使用了BFMatcher
  • 使用matcher.knnMatch方法对图像imageBimageA的描述符进行 K 近邻匹配,k = 2表示为图像imageB的每个描述符在图像imageA的描述符中寻找最近的两个匹配。
  • 遍历所有匹配结果rawMatches,通过比率测试筛选出较好的匹配点。当最近距离与次近距离的比值小于 0.65 时,认为该匹配是一个好的匹配,将其添加到good列表中,并将匹配点在两个图像中的索引添加到matches列表中。
  1. 绘制匹配点连线并显示

python

vis = cv2.drawMatchesKnn(imageB, kpsB, imageA, kpsA, good, None,flags=cv2.DRAW_MATCHES_FLAGS_DRAW_RICH_KEYPOINTS)
cv_show("Keypoint Matches", vis)

使用cv2.drawMatchesKnn函数绘制匹配点之间的连线。该函数接受图像imageB及其关键点kpsB、图像imageA及其关键点kpsA、筛选后的匹配对good等参数。flags=cv2.DRAW_MATCHES_FLAGS_DRAW_RICH_KEYPOINTS参数表示绘制更丰富的关键点信息。绘制结果保存在vis中,然后通过cv_show函数在名为Keypoint Matches的窗口中显示绘制了匹配连线的图像。

  1. 透视变换与图像拼接

python

if len(matches) > 4:  ptsB = np.float32([kps_floatB[i] for (i, _) in matches])  ptsA = np.float32([kps_floatA[i] for (_, i) in matches])  (H, mask) = cv2.findHomography(ptsB, ptsA, cv2.RANSAC, 10)
else:print('图片未找到4个以上的匹配点')sys.exit()result = cv2.warpPerspective(imageB, H, (imageB.shape[1] + imageA.shape[1], imageB.shape[0]))
cv_show('resultB', result)
result[0:imageA.shape[0], 0:imageA.shape[1]] = imageA
cv_show('result', result)
  • 当筛选后的匹配对数量大于 4 时,可以计算视角变换矩阵。
  • matches列表中提取图像imageBimageA的匹配点坐标,分别存储在ptsBptsA中。
  • 使用cv2.findHomography函数计算透视变换矩阵H,这里使用cv2.RANSAC方法,并设置最大允许重投影错误阈值为 10。RANSAC方法可以有效剔除误匹配点,提高变换矩阵的准确性。
  • 如果匹配点数量小于 4,则打印提示信息并退出程序。
  • 使用计算得到的透视变换矩阵H,对图像imageB进行透视变换,得到变换后的图像result。变换后的图像宽度是两张原始图像宽度之和,高度与图像imageB相同。
  • 将图像imageA放置在result图像的最左端,完成图像拼接。
  • 最后通过cv_show函数分别显示变换后的图像resultB和拼接后的最终图像result

代码

import cv2
import numpy as np
import sys
def cv_show(name, img):cv2.imshow(name, img)cv2.waitKey(0)
def detectAndDescribe(image):gray = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY)  # 将彩色图片转换成灰度图descriptor = cv2.SIFT_create()  # 建立SIFT生成器# 检测SIFT特征点,并计算描述符,第二个参数为掩膜(kps, des) = descriptor.detectAndCompute(gray, None)# 将结果转换成NumPy数组kps_float = np.float32([kp.pt for kp in kps])# kp.pt 包含两个值,分别是关键点在图像中的 x 和 y 坐标。这些坐标通常是浮点数,可以精确地描述关键点在图像中的位置。return (kps, kps_float, des)  # 返回特征点集,及对应的描述特征
'''读取拼接图片'''
imageA = cv2.imread("1.jpg")
cv_show('imageA', imageA)
imageB = cv2.imread("2.jpg")
cv_show('imageB', imageB)
'''计算图片特征点及描述符'''
(kpsA, kps_floatA, desA) = detectAndDescribe(imageA)
(kpsB, kps_floatB, desB) = detectAndDescribe(imageB)
'''建立暴力匹配器BFMatcher,在匹配大型训练集合时使用FlannBasedMatcher速度更快。'''
matcher = cv2.BFMatcher()
# knnMatch(queryDescriptors, trainDescriptors, k, mask=None, compactResult=None)
# 使用KNN检测来自A、B图的SIFT特征匹配对,参数说明:
# queryDescriptors:匹配图像A的描述符
# trainDescriptors:匹配图像B的描述符
# k:最佳匹配的描述符个数。一般K=2。
# 返回的数据结构描述:
# distance:匹配的特征点描述符的欧式距离,数值越小也就说明俩个特征点越相近。
# queryIdx:测试图像的特征点描述符的下标(第几个特征点描述符),同时也是描述符对应特征点的下标。
# trainIdx:样本图像的特征点描述符下标, 同时也是描述符对应特征点的下标。
rawMatches = matcher.knnMatch(desB, desA, 2)
good = []
matches = []
for m in rawMatches:# 当最近距离跟次近距离的比值小于0.65值时,保留此匹配对if len(m) == 2 and m[0].distance < 0.65 * m[1].distance:good.append(m)# 存储两个点在featuresA, featuresB中的索引值matches.append((m[0].queryIdx, m[0].trainIdx))
# print(len(good))
# print(matches)# drawMatchesKnn(img1, keypoints1, img2, keypoints2, matches1to2, outImg, matchColor=None, singlePointColor=None, matchesMask=None, flags=None)绘制匹配图片
# 参数:img1:第一张原始图像。
# keypoints1:第一张原始图像的关键点。
# img2:第二张原始图像。
# keypoints2:第二张原始图像的关键点。
# matches1to2:从第一个图像到第二个图像的匹配,这意味着keypoints1[i]在keypoints2[Matches[i]中有一个对应的点。
# outImg:绘制结果图像。
# matchColor:匹配连线与关键点点的颜色,当matchColor == Scalar::all(-1)时,代表取随机颜色。
# singlePointColor:没有匹配项的关键点的颜色,当singlePointColor == Scalar::all(-1)时,代表取随机颜色。
# matchesMask:确定绘制哪些匹配项的掩码。如果掩码为空,则绘制所有匹配项。
# flags:绘图功能的一些标志。具体有:
#   cv.DRAW_MATCHES_FLAGS_DEFAULT
#   cv.DRAW_MATCHES_FLAGS_DRAW_RICH_KEYPOINTS
#   cv.DRAW_MATCHES_FLAGS_DRAW_OVER_OUTIMG
#   cv.DRAW_MATCHES_FLAGS_NOT_DRAW_SINGLE_POINTS
vis = cv2.drawMatchesKnn(imageB, kpsB, imageA, kpsA, good, None,flags=cv2.DRAW_MATCHES_FLAGS_DRAW_RICH_KEYPOINTS)
cv_show("Keypoint Matches", vis)'''透视变换'''
if len(matches) > 4:  # 当筛选后的匹配对大于4时,计算视角变换矩阵。# 获取匹配对的点坐标ptsB = np.float32([kps_floatB[i] for (i, _) in matches])  # matches是通过阈值筛选之后的特征点对象,ptsA = np.float32([kps_floatA[i] for (_, i) in matches])  # kps_floatA是图片A中的全部特征点坐标# 计算透视变换矩阵# findHomography(srcPoints, dstPoints, method=None, ransacReprojThreshold=None, mask=None, maxIters=None,confidence=None)# 计算视角变换矩阵,透视变换函数,与cv2.getPerspectiveTransform()的区别在与可多个数据点变换# 参数srcPoints:图片A的匹配点坐标# 参数dstPoints:图片B的匹配点坐标# 参数method:计算变换矩阵的方法。#   0 – 使用所有的点,最小二乘#   RANSAC – 基于随机样本一致性,见 https://zhuanlan.zhihu.com/p/402727549#   LMEDS – 最小中值#   RHO –基于渐近样本一致性# ransacReprojThreshold:最大允许重投影错误阈值。该参数只有在method参数为RANSAC与RHO的时启用,默认为3# 返回值:中H为变换矩阵,mask是掩模标志,指示哪些点对是内点,哪些是外点。 内点:指那些与估计的模型非常接近的数据点,通常是正确匹配或真实数据。  外点:指那些与估计的模型不一致的数据点,通常是噪声、错误匹配或其他异常值。(H, mask) = cv2.findHomography(ptsB, ptsA, cv2.RANSAC, 10)
else:print('图片未找到4个以上的匹配点')sys.exit()result = cv2.warpPerspective(imageB, H, (imageB.shape[1] + imageA.shape[1], imageB.shape[0]))
cv_show('resultB', result)
# 将图片A传入result图片最左端
result[0:imageA.shape[0], 0:imageA.shape[1]] = imageA
cv_show('result', result)

二·答题卡识别

逻辑

1. 导入必要的库和定义全局变量

python

import numpy as np
import cv2
ANSWER_KEY = {0: 1, 1: 4, 2: 0, 3: 3, 4: 1}  

导入numpycv2库,分别用于数值计算和图像处理。定义ANSWER_KEY字典,存储正确答案。

2. 定义辅助函数

order_points函数

python

def order_points(pts):  rect = np.zeros((4, 2), dtype="float32")s = pts.sum(axis=1)rect[0] = pts[np.argmin(s)]  rect[2] = pts[np.argmax(s)]  diff = np.diff(pts, axis=1)rect[1] = pts[np.argmin(diff)]  rect[3] = pts[np.argmax(diff)]  return rect

该函数对输入的四个点进行排序,确定它们分别是左上角、右上角、右下角和左下角的点。通过计算点坐标的和与差来找到对应的位置。

four_point_transform函数

python

def four_point_transform(image, pts):  rect = order_points(pts)  (tl, tr, br, bl) = rectwidthA = np.sqrt(((br[0] - bl[0]) ** 2) + ((br[1] - bl[1]) ** 2))widthB = np.sqrt(((tr[0] - tl[0]) ** 2) + ((tr[1] - tl[1]) ** 2))maxWidth = max(int(widthA), int(widthB))heightA = np.sqrt(((tr[0] - br[0]) ** 2) + ((tr[1] - br[1]) ** 2))heightB = np.sqrt(((tl[0] - bl[0]) ** 2) + ((tl[1] - bl[1]) ** 2))maxHeight = max(int(heightA), int(heightB))dst = np.array([[0, 0],[maxWidth - 1, 0],[maxWidth - 1, maxHeight - 1],[0, maxHeight - 1]],dtype="float32")M = cv2.getPerspectiveTransform(rect, dst)warped = cv2.warpPerspective(image, M, (maxWidth, maxHeight))return warped  

该函数对输入图像进行透视变换。首先调用order_points函数对四个点进行排序,然后计算变换后图像的宽度和高度,定义目标点的坐标,计算透视变换矩阵M,并应用该矩阵对图像进行变换,返回变换后的图像。

sort_contours函数

python

def sort_contours(cnts, method="left-to-right"):  reverse = Falsei = 0if method == "right-to-left" or method == "bottom-to-top":reverse = Trueif method == "top-to-bottom" or method == "bottom-to-top":i = 1boundingBoxes = [cv2.boundingRect(c) for c in cnts](cnts, boundingBoxes) = zip(*sorted(zip(cnts, boundingBoxes),key=lambda b: b[1][i], reverse=reverse))return cnts, boundingBoxes

该函数根据指定的方法(如从左到右、从上到下等)对轮廓进行排序。通过计算轮廓的外接矩形,并根据外接矩形的指定维度(xy坐标)进行排序。

cv_show函数

python

def cv_show(name, img):cv2.imshow(name, img)cv2.waitKey(0)

用于显示图像,接受窗口名称name和要显示的图像img,并等待用户按键关闭窗口。

3. 图像预处理

python

image = cv2.imread(r'./images/test_01.png')
contours_img = image.copy()
gray = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY)
blurred = cv2.GaussianBlur(gray, (5, 5), 0)
cv_show('blurred', blurred)
edged = cv2.Canny(blurred, 75, 200)
cv_show('edged', edged)
  • 读取图像,并复制一份用于绘制轮廓。
  • 将彩色图像转换为灰度图像。
  • 使用高斯模糊平滑图像,以减少噪声。
  • 使用 Canny 边缘检测算法检测图像边缘。

4. 轮廓检测与答题卡定位

python

cnts = cv2.findContours(edged.copy(), cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE)[-2]
cv2.drawContours(contours_img, cnts, -1, (0, 0, 255), 3)
cv_show('contours_img', contours_img)
docCnt = Nonecnts = sorted(cnts, key=cv2.contourArea, reverse=True)
for c in cnts:  peri = cv2.arcLength(c, True)approx = cv2.approxPolyDP(c, 0.02 * peri, True)  if len(approx) == 4:docCnt = approxbreak
  • 查找图像中的所有轮廓,并在复制的图像上绘制轮廓。
  • 根据轮廓面积对轮廓进行排序,从大到小遍历轮廓。
  • 对每个轮廓进行近似,当近似轮廓的顶点数为 4 时,认为找到了答题卡的轮廓。

5. 透视变换与阈值处理

python

warped_t = four_point_transform(image, docCnt.reshape(4, 2))
warped_new=warped_t.copy()
cv_show('warped', warped_t)warped = cv2.cvtColor(warped_t, cv2.COLOR_BGR2GRAY)thresh = cv2.threshold(warped, 0, 255,cv2.THRESH_BINARY_INV | cv2.THRESH_OTSU)[1]
cv_show('thresh', thresh)
  • 对原图像进行透视变换,得到校正后的图像。
  • 将校正后的图像转换为灰度图像,并进行阈值处理,使用cv2.THRESH_BINARY_INV | cv2.THRESH_OTSU自动确定阈值并进行反向二值化。

6. 答案区域检测与判断

python

thresh_Contours = thresh.copy()
cnts = cv2.findContours(thresh, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE)[1]
warped_Contours = cv2.drawContours(warped_t, cnts, -1, (0, 255, 0), 1)
cv_show('warped_Contours', warped_Contours)
questionCnts = []for c in cnts:  (x, y, w, h) = cv2.boundingRect(c)ar = w / float(h)if w >= 20 and h >= 20 and 0.9<= ar <= 1.1:questionCnts.append(c)
print(len(questionCnts))
questionCnts = sort_contours(questionCnts, method="top-to-bottom")[0]
correct = 0
for (q, i) in enumerate(np.arange(0, len(questionCnts), 5)):cnts = sort_contours(questionCnts[i:i + 5])[0]  bubbled = Nonefor (j, c) in enumerate(cnts):mask = np.zeros(thresh.shape, dtype="uint8")cv2.drawContours(mask, [c], -1, 255, -1)  cv_show('mask', mask)thresh_mask_and = cv2.bitwise_and(thresh, thresh, mask=mask)cv_show('thresh_mask_and', thresh_mask_and)total = cv2.countNonZero(thresh_mask_and)  if bubbled is None or total > bubbled[0]:  bubbled = (total, j)color = (0, 0, 255)k = ANSWER_KEY[q]if k == bubbled[1]:  color = (0, 255, 0)correct += 1cv2.drawContours(warped_new, [cnts[k]], -1, color, 3)  cv_show('warpeding', warped_new)
score = (correct / 5.0) * 100
print("[INFO] score: {:.2f}%".format(score))
cv2.putText(warped_new, "{:.2f}%".format(score), (10, 30),cv2.FONT_HERSHEY_SIMPLEX, 0.9, (0, 0, 255), 2)
  • 查找阈值图像中的轮廓,筛选出符合条件(面积和宽高比)的轮廓,认为是答案选项的轮廓。
  • 对答案选项轮廓按从上到下排序,每 5 个轮廓为一组,对应一道题目。
  • 对于每组轮廓,通过创建掩膜并与阈值图像进行与运算,统计非零像素数来确定被选中的答案选项。
  • 将选中的答案与正确答案对比,统计正确数量,并在图像上绘制结果(正确为绿色,错误为红色)。
  • 计算得分并在图像上显示。

7. 结果显示

python

cv2.imshow("Original", image)
cv2.imshow("Exam", warped_new)
cv2.waitKey(0)

显示原始图像和批改后的图像。

作业提示分析

作业要求实现抠图,例如抠出图片中的手机、猫、狗等物体。可以按照以下步骤:

  1. 轮廓检测:使用类似代码中的轮廓检测方法,如cv2.findContours,检测出目标物体的轮廓。
  2. 创建轮廓 mask:根据检测到的轮廓,使用cv2.drawContours创建一个掩膜图像,将目标物体区域填充为白色(255),其余区域为黑色(0)。
  3. 与运算实现抠图:将原始图像与掩膜图像进行cv2.bitwise_and运算,这样就可以只保留目标物体区域的图像,实现抠图效果。例如:

python

# 假设已经检测到目标轮廓并创建了mask
mask = np.zeros(image.shape[:2], dtype='uint8')
cv2.drawContours(mask, [target_contour], -1, 255, -1)
cropped = cv2.bitwise_and(image, image, mask=mask)
cv_show('Cropped', cropped)

整体来看,这段代码结构清晰,逐步实现了答题卡图像的处理和答案批改功能。通过对代码的理解,可以按照作业提示进一步实现抠图功能

代码

# 导入工具包
import numpy as np
import cv2
ANSWER_KEY = {0: 1, 1: 4, 2: 0, 3: 3, 4: 1}  # 正确答案
def order_points(pts):  # 找出4个坐标位置rect = np.zeros((4, 2), dtype="float32")s = pts.sum(axis=1)rect[0] = pts[np.argmin(s)]  # 左上rect[2] = pts[np.argmax(s)]  # 右下diff = np.diff(pts, axis=1)rect[1] = pts[np.argmin(diff)]  # 右上rect[3] = pts[np.argmax(diff)]  # 左下return rect
def four_point_transform(image, pts):  # 获取输入坐标点,并做透视变换rect = order_points(pts)  # 找出4个坐标位置(tl, tr, br, bl) = rect# 计算输入的w和h值widthA = np.sqrt(((br[0] - bl[0]) ** 2) + ((br[1] - bl[1]) ** 2))widthB = np.sqrt(((tr[0] - tl[0]) ** 2) + ((tr[1] - tl[1]) ** 2))maxWidth = max(int(widthA), int(widthB))heightA = np.sqrt(((tr[0] - br[0]) ** 2) + ((tr[1] - br[1]) ** 2))heightB = np.sqrt(((tl[0] - bl[0]) ** 2) + ((tl[1] - bl[1]) ** 2))maxHeight = max(int(heightA), int(heightB))# 变换后对应坐标位置dst = np.array([[0, 0],[maxWidth - 1, 0],[maxWidth - 1, maxHeight - 1],[0, maxHeight - 1]],dtype="float32")# 计算变换矩阵M = cv2.getPerspectiveTransform(rect, dst)warped = cv2.warpPerspective(image, M, (maxWidth, maxHeight))return warped  # 返回变换后结果
def sort_contours(cnts, method="left-to-right"):  # 对轮廓进行排序reverse = Falsei = 0if method == "right-to-left" or method == "bottom-to-top":reverse = Trueif method == "top-to-bottom" or method == "bottom-to-top":i = 1boundingBoxes = [cv2.boundingRect(c) for c in cnts](cnts, boundingBoxes) = zip(*sorted(zip(cnts, boundingBoxes),key=lambda b: b[1][i], reverse=reverse))return cnts, boundingBoxes
def cv_show(name, img):cv2.imshow(name, img)cv2.waitKey(0)# 预处理
image = cv2.imread(r'./images/test_01.png')
contours_img = image.copy()
gray = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY)
blurred = cv2.GaussianBlur(gray, (5, 5), 0)
cv_show('blurred', blurred)
edged = cv2.Canny(blurred, 75, 200)
cv_show('edged', edged)# 轮廓检测
cnts = cv2.findContours(edged.copy(), cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE)[-2]
cv2.drawContours(contours_img, cnts, -1, (0, 0, 255), 3)
cv_show('contours_img', contours_img)
docCnt = None# 根据轮廓大小进行排序,准备透视变换
cnts = sorted(cnts, key=cv2.contourArea, reverse=True)
for c in cnts:  # 遍历每一个轮廓peri = cv2.arcLength(c, True)approx = cv2.approxPolyDP(c, 0.02 * peri, True)  # 轮廓近似if len(approx) == 4:docCnt = approxbreak
# 执行透视变换
warped_t = four_point_transform(image, docCnt.reshape(4, 2))
warped_new=warped_t.copy()
cv_show('warped', warped_t)warped = cv2.cvtColor(warped_t, cv2.COLOR_BGR2GRAY)# 阈值处理
thresh = cv2.threshold(warped, 0, 255,cv2.THRESH_BINARY_INV | cv2.THRESH_OTSU)[1]
cv_show('thresh', thresh)
thresh_Contours = thresh.copy()
# 找到每一个圆圈轮廓
cnts = cv2.findContours(thresh, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE)[1]
warped_Contours = cv2.drawContours(warped_t, cnts, -1, (0, 255, 0), 1)
cv_show('warped_Contours', warped_Contours)
questionCnts = []for c in cnts:  # 遍历轮廓并计算比例和大小(x, y, w, h) = cv2.boundingRect(c)ar = w / float(h)# 根据实际情况指定标准if w >= 20 and h >= 20 and 0.9<= ar <= 1.1:questionCnts.append(c)
print(len(questionCnts))
# 按照从上到下进行排序
questionCnts = sort_contours(questionCnts, method="top-to-bottom")[0]
correct = 0
# 每排有5个选项
for (q, i) in enumerate(np.arange(0, len(questionCnts), 5)):cnts = sort_contours(questionCnts[i:i + 5])[0]  # 排序bubbled = None# 遍历每一个结果for (j, c) in enumerate(cnts):# 使用mask来判断结果mask = np.zeros(thresh.shape, dtype="uint8")cv2.drawContours(mask, [c], -1, 255, -1)  # -1表示填充cv_show('mask', mask)# 通过计算非零点数量来算是否选择这个答案# 利用掩膜(mask)进行“与”操作,只保留mask位置中的内容thresh_mask_and = cv2.bitwise_and(thresh, thresh, mask=mask)cv_show('thresh_mask_and', thresh_mask_and)total = cv2.countNonZero(thresh_mask_and)  # 统计灰度值不为0的像素数if bubbled is None or total > bubbled[0]:  # 通过阈值判断,保存灰度值最大的序号bubbled = (total, j)# 对比正确答案color = (0, 0, 255)k = ANSWER_KEY[q]if k == bubbled[1]:  # 判断正确color = (0, 255, 0)correct += 1cv2.drawContours(warped_new, [cnts[k]], -1, color, 3)  # 绘图cv_show('warpeding', warped_new)
score = (correct / 5.0) * 100
print("[INFO] score: {:.2f}%".format(score))
cv2.putText(warped_new, "{:.2f}%".format(score), (10, 30),cv2.FONT_HERSHEY_SIMPLEX, 0.9, (0, 0, 255), 2)
cv2.imshow("Original", image)
cv2.imshow("Exam", warped_new)
cv2.waitKey(0)# 作业:实现抠图,比如抠出图片中的手机、猫、狗.....  创建一个轮廓mask,通过与运算实现抠图

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若转载,请注明出处:http://www.pswp.cn/news/922228.shtml
繁体地址,请注明出处:http://hk.pswp.cn/news/922228.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

SQL注入常见攻击点与防御详解

SQL注入是一种非常常见且危险的Web安全漏洞。攻击者通过将恶意的SQL代码插入到应用程序的输入参数中&#xff0c;欺骗后端数据库执行这些非预期的命令&#xff0c;从而可能窃取、篡改、删除数据或获得更高的系统权限。以下是详细、准确的SQL注入点分类、说明及举例&#xff1a;…

EKSPod 资源利用率配置修复:从占位符到完整资源分析系统

概述 在 Kubernetes 集群管理过程中,资源利用率的监控和优化是保证应用性能和成本效益的关键环节。近期,我们对 EKSPod 管理界面的资源利用率显示功能进行了全面修复,将原先简单的占位符文本升级为完整的资源分析系统。本文将详细介绍这次修复的背景、方案、实现细节和最终…

Linux内核(架构)

文章目录Linux内核架构概述核心子系统详解1、进程管理2、内存管理3、虚拟文件系统(VFS)4、设备驱动模型掌握Linux内核核心技术阶段1&#xff1a;基础准备阶段2&#xff1a;内核基础阶段3&#xff1a;深入子系统阶段4&#xff1a;高级主题&#xff08;持续学习&#xff09;调试和…

基于数据挖掘的单纯冠心病与冠心病合并糖尿病的证治规律对比研究

标题:基于数据挖掘的单纯冠心病与冠心病合并糖尿病的证治规律对比研究内容:1.摘要 背景&#xff1a;冠心病和冠心病合并糖尿病在临床上较为常见&#xff0c;且二者在证治方面可能存在差异&#xff0c;但目前相关系统研究较少。目的&#xff1a;对比基于数据挖掘的单纯冠心病与冠…

即梦AI快速P图

原图&#xff1a; 模型选择3.0效果比较好&#xff0c;提示词“根据提供图片&#xff0c;要求把两边脸变小&#xff0c;要求把脸变尖&#xff0c;要求眼妆变淡&#xff0c;眼睛更有神&#xff0c;要求提亮面部肤色要求面部均匀&#xff0c;面部要磨皮!鼻头高光和鼻翼两边阴影变淡…

【办公类-109-04】20250913圆牌卡片(接送卡被子卡床卡入园卡_word编辑单面)

背景需求: 为了发被子,我做了全校批量的圆形挂牌,可以绑在“被子包”提手上,便于再操场上发放被子时,很多老师可以协助根据学号发放。 https://blog.csdn.net/reasonsummer/article/details/149755556?spm=1011.2415.3001.5331https://blog.csdn.net/reasonsummer/arti…

Shoptnt 促销计算引擎详解:策略模式与责任链的完美融合

在电商系统中&#xff0c;促销计算是业务逻辑最复杂、变更最频繁的模块之一。它不仅需要处理多种促销类型&#xff08;满减、折扣、优惠券等&#xff09;&#xff0c;还要管理它们之间的优先级和互斥关系。 Shoptnt 设计了一套基于 策略模式 (Strategy Pattern) 和 责任链模式…

【HTTP 请求格式】从请求行 到 请求体

引言 在前后端开发中&#xff0c;前端和后端之间的交互主要依赖于 HTTP&#xff08;HyperText Transfer Protocol&#xff0c;超文本传输协议&#xff09;。HTTP 是互联网通信的基础&#xff0c;它定义了客户端&#xff08;通常是浏览器或App&#xff09;和服务器之间如何交换数…

【自记】SQL 中 GROUPING 和 GROUPING SETS 语句的案例说明

我们用一个生活中的例子来理解&#xff0c;比如你开了家小超市&#xff0c;想统计「销售额」&#xff0c;但需要从多个角度看&#xff08;比如按 “日期 商品”、“仅日期”、“仅商品”、“整体总销售额”&#xff09;。假设你的销售数据长这样&#xff08;简化版&#xff09…

C语言第五课:if、else 、if else if else 控制语句

C语言第五课&#xff1a;if、else 、if else if else 控制语句if else 、if else if else 联合使用编程快速学习平台if else 、if else if else 联合使用 代码示列 #include <stdio.h> int main(){//设置中文编码输出到控制台system("chcp 65001");//今天星…

七彩喜智慧养老:用科技温暖晚年,让关爱永不掉线

“当银发潮遇见科技力&#xff0c;养老方式正在发生一场静悄悄的变革。”你有没有想过&#xff1a;当父母年迈独居时&#xff0c;如何确保他们的安全&#xff1f;当老人突然摔倒&#xff0c;如何第一时间获得救助&#xff1f;当慢性病需要长期管理&#xff0c;如何避免频繁奔波…

window显示驱动开发—为头装载和专用监视器生成自定义合成器应用(二)

显示相关的 API 的比较 API用途和目标受众DisplayInformation用于检索 CoreWindow 的呈现和布局属性。HdmiDisplayInformation用于枚举和设置受限模式集的仅限 Xbox 的 API。 高度专用于 Xbox 媒体应用方案。DisplayMonitor用于查询物理监视器设备的属性。 不公开有关操作系统…

Linux 高性能 I/O 事件通知机制的核心系统调用—— `epoll_ctl`

epoll 是 Linux 上处理大量文件描述符 I/O 事件的高效模型&#xff0c;而 epoll_ctl 则是你用来指挥 epoll 实例&#xff08;epoll instance&#xff09;的“遥控器”&#xff0c;负责向它添加、修改或删除需要监视的文件描述符&#xff08;FD&#xff09;及其感兴趣的事件。1.…

mysql 必须在逗号分隔字符串和JSON字段之间二选一,怎么选

如果必须在逗号分隔字符串和JSON字段之间二选一&#xff0c;那么 JSON字段是明显更好的选择。以下是详细的对比分析&#xff1a;对比结论&#xff08;直接看这里&#xff09;方面JSON字段逗号分隔字符串胜出方查询能力✅ 丰富的JSON函数支持❌ 只能使用LIKE模糊查询JSON数据验证…

DPI和DIP的区别

DPI 和 DIP 是两个在计算机图形和移动开发领域常见的术语&#xff0c;它们都与屏幕显示和尺寸有关&#xff0c;但含义和用途不同。 DPI (Dots Per Inch) 定义&#xff1a;DPI 的全称是 Dots Per Inch&#xff0c;即每英寸点数。它是一个衡量物理密度的单位&#xff0c;表示在…

数据帮助我们理解未知世界

主持人 尼古拉安根&#xff1a; 大家好&#xff0c;我是挪威南方财富基金首席执行官尼古拉安根。今天非常荣幸能与大卫斯皮格尔哈尔特爵士对话。坦率地说&#xff0c;他不仅是世界上最优秀的统计学家之一&#xff0c;也是我见过的最佳风险沟通者。他撰写了大量优秀著作&#xf…

在使用git的很多操作是保持工作区干净

这是一条铁律下面是错误操作&#xff1a;自己明明写完了代码&#xff0c;想要提交。此时你的工作区长这样你的提交顺序是&#xff1a;git pull -> git commit -> git push但是现实往往不这样&#xff0c;万一拉下来的代码和你当前工作区的代码有冲突&#xff0c;你必须要…

通过语法推导树快速求短语,简单短语和句柄

第一步&#xff1a;写出规范推导&#xff08;最右&#xff09;序列 规范推导就是最右推导。我们的目标是从起始符号 E 出发&#xff0c;通过每步替换最右边的非终结符&#xff0c;最终得到句型 R(Pi)。 文法 G[E]: E :: RP | PP :: (E) | iR :: RP | RP* | P | P* 推导过程&…

智能学习辅助系统-部门管理开发

文章目录准备工作工程搭建增删改查查询部门删除部门新增部门修改部门查询回显修改数据日志技术准备工作 需求&#xff1a;部门管理的查询、新增、修改、删除 使用REST风格的URL&#xff1a; GET &#xff1a; 查询POST &#xff1a;新增PUT &#xff1a; 修改DELETE &#x…

【图解】idea中快速查找maven冲突

现象 今天启动项目时&#xff0c;总是以下报错&#xff0c;并退出SLF4J: Class path contains multiple SLF4J bindings. SLF4J: Found binding in [jar:file:/F:/.m2/repository/org/apache/logging/log4j/log4j-slf4j-impl/2.13.3/log4j-slf4j-impl-2.13.3.jar!/org/slf4j/im…