成人国产在线小视频_日韩寡妇人妻调教在线播放_色成人www永久在线观看_2018国产精品久久_亚洲欧美高清在线30p_亚洲少妇综合一区_黄色在线播放国产_亚洲另类技巧小说校园_国产主播xx日韩_a级毛片在线免费

資訊專欄INFORMATION COLUMN

opencv python 使用特征匹配和單應(yīng)性查找對(duì)象

BDEEFE / 902人閱讀

摘要:為了解決這個(gè)問(wèn)題,算法使用和可以通過(guò)參數(shù)來(lái)設(shè)定所以好的匹配提供的正確的估計(jì)被稱為,剩下的被稱為返回一個(gè)掩模,這個(gè)掩模確定了和點(diǎn)

Feature Matching + Homography to find Objects

聯(lián)合使用特征提取和 calib3d 模塊中的 findHomography 在復(fù)雜圖像中查找已知對(duì)象.

之前在一張雜亂的圖像中找到了一個(gè)對(duì)象(的某些部分)的位置.這些信息足以幫助我們?cè)谀繕?biāo)圖像中準(zhǔn)確的找到(查詢圖像)對(duì)象.為了達(dá)到這個(gè)目的可以使用 calib3d 模塊中的cv2.findHomography()函數(shù).如果將這兩幅圖像中的特征點(diǎn)集傳給這個(gè)函數(shù),他就會(huì)找到這個(gè)對(duì)象的透視圖變換.然后就可以使用函數(shù) cv2.perspectiveTransform() 找到這個(gè)對(duì)象了.至少要 4 個(gè)正確的點(diǎn)才能找到這種變換.在匹配過(guò)程可能會(huì)有一些錯(cuò)誤,而這些錯(cuò)誤會(huì)影響最終結(jié)果。為了解決這個(gè)問(wèn)題,算法使用 RANSACLEAST_MEDIAN(可以通過(guò)參數(shù)來(lái)設(shè)定).所以好的匹配提供的正確的估計(jì)被稱為 inliers,剩下的被稱為outliers.cv2.findHomography() 返回一個(gè)掩模,這個(gè)掩模確定了 inlier 和outlier 點(diǎn).

import numpy as np
import cv2
import matplotlib.pyplot as plt

MIN_MATCH_COUNT = 10

img1 = cv2.imread("img.jpg",0)          # queryImage
img2 = cv2.imread("img1.jpg",0) # trainImage

# Initiate SIFT detector
sift = cv2.xfeatures2d.SIFT_create()


# find the keypoints and descriptors with SIFT
kp1, des1 = sift.detectAndCompute(img1,None)
kp2, des2 = sift.detectAndCompute(img2,None)

FLANN_INDEX_KDTREE = 0
index_params = dict(algorithm = FLANN_INDEX_KDTREE, trees = 5)
search_params = dict(checks = 50)

flann = cv2.FlannBasedMatcher(index_params, search_params)

matches = flann.knnMatch(des1,des2,k=2)

# store all the good matches as per Lowe"s ratio test.
good = []
for m,n in matches:
    if m.distance < 0.7*n.distance:
        good.append(m)
if len(good)>MIN_MATCH_COUNT:
    src_pts = np.float32([ kp1[m.queryIdx].pt for m in good ]).reshape(-1,1,2)
    dst_pts = np.float32([ kp2[m.trainIdx].pt for m in good ]).reshape(-1,1,2)

    M, mask = cv2.findHomography(src_pts, dst_pts, cv2.RANSAC,5.0)
    matchesMask = mask.ravel().tolist()

    h,w = img1.shape
    pts = np.float32([ [0,0],[0,h-1],[w-1,h-1],[w-1,0] ]).reshape(-1,1,2)
    dst = cv2.perspectiveTransform(pts,M)

    img2 = cv2.polylines(img2,[np.int32(dst)],True,255,3, cv2.LINE_AA)

else:
    print("Not enough matches are found - %d/%d" % (len(good),MIN_MATCH_COUNT))
    matchesMask = None

# Finally we draw our inliers (if successfully found the object) or matching keypoints (if failed).

draw_params = dict(matchColor = (0,255,0), # draw matches in green color
                   singlePointColor = None,
                   matchesMask = matchesMask, # draw only inliers
                   flags = 2)

img3 = cv2.drawMatches(img1,kp1,img2,kp2,good,None,**draw_params)

plt.imshow(img3, "gray"),plt.show()

文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請(qǐng)注明本文地址:http://systransis.cn/yun/42098.html

相關(guān)文章

  • opencv python SIFT(尺度不變特征變換)

    摘要:理論前面講的角點(diǎn)檢測(cè)器中的角點(diǎn)在旋轉(zhuǎn)的圖像中也是角點(diǎn),但是縮放呢如果縮放圖像,則角可能不是角例如,檢查下面的簡(jiǎn)單圖像,當(dāng)在同一窗口中放大時(shí),小窗口內(nèi)的小圖像中的角是平坦的所以角點(diǎn)檢測(cè)器不是尺度不變的所以,在年,不列顛哥倫比亞大學(xué)的在他的論 Introduction to SIFT (Scale-Invariant Feature Transform) 理論 前面講的Harris角點(diǎn)檢...

    marek 評(píng)論0 收藏0
  • opencv python 特征匹配

    摘要:匹配器匹配非常簡(jiǎn)單,首先在第一幅圖像中選取一個(gè)關(guān)鍵點(diǎn)然后依次與第二幅圖像的每個(gè)關(guān)鍵點(diǎn)進(jìn)行描述符距離測(cè)試,最后返回距離最近的關(guān)鍵點(diǎn)對(duì)于匹配器,首先我們必須使用創(chuàng)建對(duì)象。 Feature Matching Brute-Force匹配器 Brute-Force匹配非常簡(jiǎn)單,首先在第一幅圖像中選取一個(gè)關(guān)鍵點(diǎn)然后依次與第二幅圖像的每個(gè)關(guān)鍵點(diǎn)進(jìn)行(描述符)距離測(cè)試,最后返回距離最近的關(guān)鍵點(diǎn). 對(duì)于...

    macg0406 評(píng)論0 收藏0

發(fā)表評(píng)論

0條評(píng)論

最新活動(dòng)
閱讀需要支付1元查看
<