python進(jìn)階學(xué)習(xí)實(shí)時(shí)目標(biāo)跟蹤示例詳解
前言
本程序主要實(shí)現(xiàn)了python的opencv人工智能視覺模塊的目標(biāo)跟蹤功能。
項(xiàng)目介紹
區(qū)域性鎖定目標(biāo)實(shí)時(shí)動(dòng)態(tài)跟蹤(適用 警方追捕,無人機(jī)鎖定拍攝等)
首先先介紹幾種AI視覺算法
特性:
1.BOOSTING:算法原理類似于Harr cascdes(AdaBoost),是一種很老的算法。這個(gè)算法速度慢并且不準(zhǔn)。
2.MIL:比BOOSTING準(zhǔn)一點(diǎn)
3.KCF:速度比BOOSTING和MIL更快,與BOOSTING和MIL一樣不能很好的處理遮擋問題。
4.CSRT:比KCF更準(zhǔn)一些,但是速度比KCF慢
5.MedianFlow:對于快速移動(dòng)的目標(biāo)和外形比那花迅速的目標(biāo)效果不好
6.TLD:會(huì)產(chǎn)生朵的false-posittives
7.MOSSE:算法速度非??欤菧?zhǔn)確率比不上KCF和CSRT,在一些追求算法的速度場合很適用
8.GOTURN:OpenCV中自帶的唯一一個(gè)基于深度學(xué)習(xí)的算法,運(yùn)行短發(fā)需要提前下載好模型文件
分別對應(yīng)的伴生的函數(shù):
kcf:cv2.legacy.TrackerKCF_create csrt:cv2.legacy.TrackerCSRT_create boosting:cv2.legacy.TrackerBoosting_create mil:cv2.legacy.TrackerMIL_create tld:cv2.legacy.TrackerTLD_create medianflow:cv2.legacy.TrackerMedianFlow_create mosse:cv2.legacy.TrackerMOSSE_create
詳細(xì)代碼講解
導(dǎo)入cv模塊
ret,frame = cap.read()
import cv2
使用csrt算法,引用伴生函數(shù),并賦值給tracker
tracker = cv2.legacy.TrackerCSRT_create()
讀取視頻流
cap = cv2.VideoCapture('11.mp4')
先讀取到第一幀
ret,frame = cap.read()
使用selectROI(前景),畫框?qū)⒛繕?biāo)框起,并賦值給bbox
bbox = cv2.selectROI('A',frame,fromCenter=False,showCrosshair=True)
初始化tracker,將上面的兩個(gè)值傳入
tracker.init(frame,bbox)
讀取每一幀
ret,frame = cap.read()
根據(jù)每一幀來更新tracker
ok,box = tracker.update(frame)
若讀取成功,就定位畫框,并跟隨
if ok : (x,y,w,h) = [int(v) for v in box] cv2.rectangle(frame,pt1=(int(x),int(y)),pt2=(int(x)+int(w),int(y)+int(h)),color=(0,255,0),thickness=2)
顯示視頻流
cv2.imshow('A', frame)
等待50毫秒或按空格鍵退出
if cv2.waitKey(50) == ord(' '): break
釋放視頻流和釋放窗口
cap.release() cv2.destroyAllWindows()
完整代碼及注釋:
import cv2 tracker = cv2.legacy.TrackerCSRT_create()#使用csrt算法,引用伴生函數(shù),并賦值給tracker cap = cv2.VideoCapture('11.mp4')#讀取視頻流 ret,frame = cap.read()#先讀取第一幀 bbox = cv2.selectROI('A',frame,fromCenter=False,showCrosshair=True)#使用selectROI(前景),畫框?qū)⒛繕?biāo)框起,并賦值給bbox tracker.init(frame,bbox)#初始化tracker,將上面的兩個(gè)值傳入 while True: ret,frame = cap.read()#讀取每一幀 ok,box = tracker.update(frame)#根據(jù)每一幀來跟新tracker # 若讀取成功,我們就定位畫框,并跟隨 if ok : (x,y,w,h) = [int(v) for v in box] cv2.rectangle(frame,pt1=(int(x),int(y)),pt2=(int(x)+int(w),int(y)+int(h)),color=(0,255,0),thickness=2) cv2.imshow('A', frame)#顯示視頻流 if cv2.waitKey(50) == ord(' '):#等待50毫秒或鍵盤按空格鍵退出 break # 釋放視頻流,釋放窗口 cap.release() cv2.destroyAllWindows()
結(jié)果演示
區(qū)域性全部實(shí)時(shí)動(dòng)態(tài)目標(biāo)跟蹤(適用夜視跟蹤,范圍性觀察等)
思路構(gòu)建
1.先將實(shí)時(shí)攝像流或錄制視頻流,灰度轉(zhuǎn)化并高斯模糊
2.用二值化算法將流中的物體輪廓擴(kuò)充
3.分別先讀到第一幀和第二幀,讓其對比
4.尋找對比后,流的輪廓位置,并開啟簡易模式
5.過濾物體的矩陣輪廓將其定位繪出
詳細(xì)代碼講解
導(dǎo)入cv模塊
import cv2
將視頻流轉(zhuǎn)換并讓其高斯模糊
gray = cv2.cvtColor(frame,cv2.COLOR_BGR2GRAY) blur = cv2.GaussianBlur(gray,(5,5),0)
二值化擴(kuò)充
_,thresh = cv2.threshold(blur,20,255,cv2.THRESH_BINARY) dilated = cv2.dilate(thresh,None,iterations=3) return dilated
讀取視頻流或?qū)崟r(shí)攝像流
cap = cv2.VideoCapture('11.mp4')
讀取第一幀
ret,frame1 = cap.read()
讀取第二幀
ret,frame2 = cap.read()
判斷cap是否為打開狀態(tài)
while cap.isOpened():
若為打開,則第一幀與第二幀比較
diff = cv2.absdiff(frame1,frame2) mask = filter_img(diff)
尋找比較后的物體輪廓,并開啟簡易模式
contours,_ = cv2.findContours(mask,cv2.RETR_TREE,cv2.CHAIN_APPROX_SIMPLE)
使用方框?qū)⒁曨l流中的物體框出,得到矩陣的寬高
(x,y,w,h) = cv2.boundingRect(contour)
若矩陣的面積小于10(根據(jù)視頻流中物體的大小來定義),直接無視
if cv2.contourArea(contour) < 10:
將過濾的物體的矩陣輪廓繪出(一定要用int整形)
cv2.rectangle(frame1,pt1=(int(x),int(y)),pt2=(int(x)+int(w),int(y)+int(h)),color=(0,255,0),thickness=1)
將第一幀顯示
cv2.imshow('A',frame1)
將上面賦值的mask顯示
cv2.imshow('B',mask)
實(shí)現(xiàn)前后幀對比,并定位物體運(yùn)動(dòng)軌跡
1.將第二幀賦值給第一幀
frame1 = frame2
2.再將cap讀到的賦值給第二幀()
ret,frame2 = cap.read()
等待50毫秒或者按空格結(jié)束
if cv2.waitKey(50) == ord(' '): break
釋放視頻流及釋放窗口
cap.release() cv2.destroyAllWindows()
完整代碼及注釋:
import cv2 def filter_img(frame): #將視頻流轉(zhuǎn)換灰度并讓其高斯模糊 gray = cv2.cvtColor(frame,cv2.COLOR_BGR2GRAY) blur = cv2.GaussianBlur(gray,(5,5),0) #二值化將其擴(kuò)充 _,thresh = cv2.threshold(blur,20,255,cv2.THRESH_BINARY) dilated = cv2.dilate(thresh,None,iterations=3) return dilated # 讀取視頻流 cap = cv2.VideoCapture('11.mp4') ret,frame1 = cap.read()#讀到第一幀 ret,frame2 = cap.read()#讀到第二幀 while cap.isOpened():#判斷cap是否打開 diff = cv2.absdiff(frame1,frame2)#若打開,則第一幀和第二幀作比較 mask = filter_img(diff) contours,_ = cv2.findContours(mask,cv2.RETR_TREE,cv2.CHAIN_APPROX_SIMPLE)#尋找視頻流的輪廓,簡單模式 #用方框?qū)⒁曨l流中的物體用矩形框出 for contour in contours: (x,y,w,h) = cv2.boundingRect(contour)#得到矩陣的寬高 if cv2.contourArea(contour) < 10:#若矩陣的面積小于200,就無視(太小了) continue cv2.rectangle(frame1,pt1=(int(x),int(y)),pt2=(int(x)+int(w),int(y)+int(h)),color=(0,255,0),thickness=1)#將過濾的物體的矩陣輪廓繪出 # cv2.drawContours(frame1,contours,-1,(0,255,0),2)#將視頻流中的物體輪廓畫出 cv2.imshow('A',frame1)#將第一幀顯示 cv2.imshow('B',mask)#將mask也顯示 frame1 = frame2#將第二幀賦值給第一幀 ret,frame2 = cap.read()#再將cap讀到的賦值給第二幀 if cv2.waitKey(50) == ord(' '):#等待五十毫秒或者按空格結(jié)束 break #銷毀cap流 cap.release() #釋放窗口 cv2.destroyAllWindows()
結(jié)果顯示
以上就是python進(jìn)階學(xué)習(xí)實(shí)時(shí)目標(biāo)跟蹤示例詳解的詳細(xì)內(nèi)容,更多關(guān)于python進(jìn)階實(shí)時(shí)目標(biāo)跟蹤的資料請關(guān)注腳本之家其它相關(guān)文章!
相關(guān)文章
Python繪制多因子柱狀圖的實(shí)現(xiàn)示例
本文主要介紹了Python繪制多因子柱狀圖的實(shí)現(xiàn)示例,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2022-05-05使用Python的Tornado框架實(shí)現(xiàn)一個(gè)簡單的WebQQ機(jī)器人
這篇文章主要介紹了使用Python的Tornado框架實(shí)現(xiàn)一個(gè)簡單的WebQQ機(jī)器人,Tornado的異步特性可以提高I/O性能,需要的朋友可以參考下2015-04-04對web.py設(shè)置favicon.ico的方法詳解
今天小編就為大家分享一篇對web.py設(shè)置favicon.ico的方法詳解,具有很好的參考價(jià)值,希望對大家有所幫助。一起跟隨小編過來看看吧2018-12-12Python 窗體(tkinter)下拉列表框(Combobox)實(shí)例
這篇文章主要介紹了Python 窗體(tkinter)下拉列表框(Combobox)實(shí)例,具有很好的參考價(jià)值,希望對大家有所幫助。一起跟隨小編過來看看吧2020-03-03Pytorch中accuracy和loss的計(jì)算知識點(diǎn)總結(jié)
在本片文章里小編給大家整理的是關(guān)于Pytorch中accuracy和loss的計(jì)算相關(guān)知識點(diǎn)內(nèi)容,有需要的朋友們可以學(xué)習(xí)下。2019-09-09Python深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)基本原理
人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Networks,簡寫為ANNs)也簡稱為神經(jīng)網(wǎng)絡(luò)(NNs)或稱作連接模型(Connection Model),它是一種模仿動(dòng)物神經(jīng)網(wǎng)絡(luò)行為特征,進(jìn)行分布式并行信息處理的算法數(shù)學(xué)模型2021-10-10在django admin詳情表單顯示中添加自定義控件的實(shí)現(xiàn)
這篇文章主要介紹了在django admin詳情表單顯示中添加自定義控件的實(shí)現(xiàn),具有很好的參考價(jià)值,希望對大家有所幫助。一起跟隨小編過來看看吧2020-03-03