opencv-python圖像配準(匹配和疊加)的實現(xiàn)
圖像配準需是指對不同條件下得到的兩幅或多幅圖像進行匹配、疊加的過程。最簡單的做法就是求得原圖像到目標圖像之間的透視變換矩陣,將原圖像按照矩陣進行變換,就可以得到和目標圖像相似的效果。透視變換是將成像投影到一個新的視平面,也稱作投影映射。
透視變換實質(zhì)上是將二維的圖片變換到三維的坐標系中之后再變換到另一個二維坐標系,與仿射變換相比透視變換實現(xiàn)的效果要多一些。求解精確矩陣和透視變換可以很容易地在opencv-python中實現(xiàn)。
import cv2 as cv import numpy as np import matplotlib.pyplot as plt original_image = cv.imread("Image A.jpg") target_image = cv.imread("Image B.jpg") # 生成透視矩陣 src_points = np.array([[957, 1655], [2177, 1170], [2676, 24], [2487, 1931]], dtype=np.float32) den_points = np.array([[687, 1150], [2000, 996], [2757, 18], [2098, 1819]], dtype=np.float32) # getPerspectiveTransform可以得到從點集src_points到點集den_points的透視變換矩陣 T = cv.getPerspectiveTransform(src_points, den_points) # 進行透視變換 # 注意透視變換第三個參數(shù)為變換后圖片大小,格式為(高度,寬度) warp_imgae = cv.warpPerspective(original_image, T, (target_image.shape[1], target_image.shape[0])) plt.imshow(warp_imgae) plt.show()
進行四點變換前后的結果為
opencv-python也可以計算超過四個點的兩數(shù)組點之間的變換矩陣。對原圖像選擇7個點進行透視變換的結果為
# 設置原始和目標特征點 src_more_point = np.float32([[957, 1655], [2177, 1170], [620, 2586], [1280, 2316], [2487, 1931], [937, 758], [2676, 24]]).reshape(-1, 1, 2) den_more_point = np.float32([[687, 1150], [2000, 996], [121, 1974], [927, 1886], [2098, 1819], [899, 280], [2757, 18]]).reshape(-1, 1, 2) # 調(diào)用庫函數(shù)計算特征矩陣 # cv.findHomography第三個參數(shù)為計算單位矩陣所用的方法,0為常規(guī)算法,cv.RANSAC為基于RANSAC的魯棒算法,cv.LMEDS為最小中值 # 魯棒算法,cv.RHO基于PROSAC的魯棒算法.第四個參數(shù)取值范圍在1到10,絕一個點對的閾值。原圖像的點經(jīng)過變換后點與目標圖像上對應 # 點的誤差.返回值中H為變換矩陣.mask是掩模,在線的點. H, status = cv.findHomography(src_more_point, den_more_point, cv.RANSAC, 5.0) # 進行透視變換 warped_more_point_image = cv.warpPerspective(original_image, H, (target_image.shape[1], target_image.shape[0]))
對4個點、7個點和opencv-python函數(shù)庫自動匹配的效果對比如下
可以看出如果匹配點選擇恰當,三種方法的效果并沒有太大區(qū)別。
調(diào)用庫函數(shù)的圖像自動匹配代碼如下
# 用AKAZE庫函數(shù)進行自動特征檢測,AKAZE與SIFT等屬于相似的 特征檢測,但是有一些不同 akaze = cv.AKAZE_create() # Find the keypoints and descriptors with SIFT kp1, des1 = akaze.detectAndCompute(original_image_gray, None) kp2, des2 = akaze.detectAndCompute(target_image_gray, None) bf = cv.BFMatcher() matches = bf.knnMatch(des1, des2, k=2) good_matches = [] for m, n in matches: if m.distance < 0.75 * n.distance: good_matches.append([m]) # 畫出符合條件的匹配點的連線 img3 = cv.drawMatchesKnn(original_image_gray, kp1, target_image_gray, kp2, good_matches, None, flags=cv.DrawMatchesFlags_NOT_DRAW_SINGLE_POINTS) cv.imwrite('matches.jpg', img3) src_automatic_points = np.float32([kp1[m[0].queryIdx].pt for m in good_matches]).reshape(-1, 1, 2) den_automatic_points = np.float32([kp2[m[0].trainIdx].pt for m in good_matches]).reshape(-1, 1, 2) # 調(diào)用庫函數(shù)計算特征矩陣 H, status = cv.findHomography(src_more_point, den_more_point, cv.RANSAC, 5.0) # 進行透視變換 warped_automatic_image = cv.warpPerspective(original_image, H, (target_image.shape[1], target_image.shape[0])) # 繪制圖像 my_draw(warped_automatic_image, tip='automatic')
到此這篇關于opencv-python圖像配準的實現(xiàn)的文章就介紹到這了,更多相關opencv-python圖像配準內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關文章希望大家以后多多支持腳本之家!
相關文章
Python+Pygame實戰(zhàn)之文字劇情游戲的實現(xiàn)
這篇文章主要為大家詳細介紹了如何利用Python和Pygame實現(xiàn)兩款文字劇情游戲——《巨龍之洞》和《太空礦工》,感興趣的小伙伴可以了解一下2022-12-12Spectral?clustering譜聚類算法的實現(xiàn)代碼
譜聚類是從圖論中演化出來的算法,它的主要思想是把所有的數(shù)據(jù)看做空間中的點,這些點之間可以用邊連接起來,今天通過本文給大家介紹Spectral?clustering譜聚類算法的實現(xiàn),感興趣的朋友一起看看吧2022-04-04Python中break語句和continue語句的用法講解
在Python中,break語句和continue語句一般用于循環(huán)語句中,這篇文章主要介紹了Python中break語句和continue語句的用法小結,需要的朋友可以參考下2022-12-12