OpenCV實(shí)現(xiàn)車(chē)牌定位(C++)
最近開(kāi)始接觸 C++ 了,就拿一個(gè) OpenCV 小項(xiàng)目來(lái)練練手。在車(chē)牌自動(dòng)識(shí)別系統(tǒng)中,從汽車(chē)圖像的獲取到車(chē)牌字符處理是一個(gè)復(fù)雜的過(guò)程,本文就以一個(gè)簡(jiǎn)單的方法來(lái)處理車(chē)牌定位。
我國(guó)的汽車(chē)牌照一般由七個(gè)字符和一個(gè)點(diǎn)組成,車(chē)牌字符的高度和寬度是固定的,分別為90mm和45mm,七個(gè)字符之間的距離也是固定的12mm,點(diǎn)分割符的直徑是10mm。
使用的圖片是從百度上隨便找的(侵刪),展示一下原圖和灰度圖:
#include <iostream>
#include <opencv2/highgui/highgui.hpp>
#include <opencv2/imgproc.hpp>
#include <opencv2/imgproc/types_c.h>
using namespace std;
using namespace cv;
int main() {
// 讀入原圖
Mat img = imread("license.jpg");
Mat gray_img;
// 生成灰度圖像
cvtColor(img, gray_img, CV_BGR2GRAY);
// 在窗口中顯示游戲原畫(huà)
imshow("原圖", img);
imshow("灰度圖", gray_img);
waitKey(0);
return 0;
}


灰度圖像的每一個(gè)像素都是由一個(gè)數(shù)字量化的,而彩色圖像的每一個(gè)像素都是由三個(gè)數(shù)字組成的向量量化的,使用灰度圖像會(huì)更方便后續(xù)的處理。
圖像降噪
每一副圖像都包含某種程度的噪聲,在大多數(shù)情況下,需要平滑技術(shù)(也常稱(chēng)為濾波或者降噪技術(shù))進(jìn)行抑制或者去除,這些技術(shù)包括基于二維離散卷積的高斯平滑、均值平滑、基于統(tǒng)計(jì)學(xué)方法的中值平滑等。這里采用基于二維離散卷積的高斯平滑對(duì)灰度圖像進(jìn)行降噪處理,處理后的圖像效果如下:

形態(tài)學(xué)處理
完成了高斯去噪以后,為了后面更加準(zhǔn)確的提取車(chē)牌的輪廓,我們需要對(duì)圖像進(jìn)行形態(tài)學(xué)處理,在這里,我們對(duì)它進(jìn)行開(kāi)運(yùn)算,處理后如下所示:

開(kāi)運(yùn)算呢就是先進(jìn)行 erode 再進(jìn)行 dilate 的過(guò)程就是開(kāi)運(yùn)算,它具有消除亮度較高的細(xì)小區(qū)域、在纖細(xì)點(diǎn)處分離物體,對(duì)于較大物體,可以在不明顯改變其面積的情況下平滑其邊界等作用。
erode 操作也就是腐蝕操作,類(lèi)似于卷積,也是一種鄰域運(yùn)算,但計(jì)算的不是加權(quán)求和,而是對(duì)鄰域中的像素點(diǎn)按灰度值進(jìn)行排序,然后選擇該組的最小值作為輸出的灰度值。
dilate 操作就是膨脹操作,與腐蝕操作類(lèi)似,膨脹是取每一個(gè)位置鄰域內(nèi)的最大值。既然是取鄰域內(nèi)的最大值,那么顯然膨脹后的輸出圖像的總體亮度的平均值比起原圖會(huì)有所上升,而圖像中較亮物體的尺寸會(huì)變大;相反,較暗物體的尺寸會(huì)減小,甚至消失。
閾值分割
完成初步的形態(tài)學(xué)處理以后,我們需要對(duì)圖像進(jìn)行閾值分割,我們?cè)谶@里采用了 Otsu 閾值處理,處理后的效果如下所示:

對(duì)圖像進(jìn)行數(shù)字處理時(shí),我們需要把圖像分成若干個(gè)特定的、具有獨(dú)特性質(zhì)的區(qū)域,每一個(gè)區(qū)域代表一個(gè)像素的集合,每一個(gè)集合又代表一個(gè)物體,而完成該過(guò)程的技術(shù)通常稱(chēng)為圖像分割,它是從圖像處理到圖像分析的關(guān)鍵步驟。其實(shí)這個(gè)過(guò)程不難理解,就好比我們?nèi)祟?lèi)看景物一樣,我們所看到的世界是由許許多多的物體組合而成的,就像教室是由人、桌子、書(shū)本、黑板等等組成。我們通過(guò)閾值處理,就是希望能夠從背景中分離出我們的研究對(duì)象。
邊緣檢測(cè)
經(jīng)過(guò)Otsu閾值分割以后,我們要對(duì)圖像進(jìn)行邊緣檢測(cè),我們這里采用的是Canny邊緣檢測(cè),處理后的結(jié)果如下:

接下來(lái)再進(jìn)行一次閉運(yùn)算和開(kāi)運(yùn)算,填充白色物體內(nèi)細(xì)小黑色空洞的區(qū)域并平滑其邊界,處理后的效果如下:

這個(gè)時(shí)候,車(chē)牌的輪廓已經(jīng)初步被選出來(lái)了,只是還有一些白色塊在干擾。
上述過(guò)程的代碼:
// 得出輪廓
bool contour(Mat image, vector<vector<Point>> &contours, vector<Vec4i> &hierarchy) {
Mat img_gau, img_open, img_seg, img_edge;
// 高斯模糊
GaussianBlur(image, img_gau, Size(7, 7), 0, 0);
// 開(kāi)運(yùn)算
Mat element = getStructuringElement(MORPH_RECT, Size(23, 23));
morphologyEx(img_gau, img_open, MORPH_OPEN, element);
addWeighted(img_gau, 1, img_open, -1, 0, img_open);
// 閾值分割
threshold(img_open, img_seg, 0, 255, THRESH_BINARY + THRESH_OTSU);
// 邊緣檢測(cè)
Canny(img_seg, img_edge, 200, 100);
element = getStructuringElement(MORPH_RECT, Size(22, 22));
morphologyEx(img_edge, img_edge, MORPH_CLOSE, element);
morphologyEx(img_edge, img_edge, MORPH_OPEN, element);
findContours(img_edge, contours, hierarchy, RETR_TREE, CHAIN_APPROX_SIMPLE, Point());
return true;
}
選取輪廓
現(xiàn)在我們已經(jīng)有了輪廓,我們需要篩選出車(chē)牌所在的那個(gè)輪廓,由于車(chē)牌寬和高的比例是固定的,依據(jù)這個(gè)幾何特征,我們進(jìn)行篩選,效果如圖:


代碼如下:
// 車(chē)牌輪廓點(diǎn)
Point2f(*choose_contour(vector<vector<Point>> contours))[2] {
int size = (int)contours.size();
int i_init = 0;
Point2f (*contours_result)[2] = new Point2f[size][2];
for (int i = 0; i < size; i++){
// 獲取邊框數(shù)據(jù)
RotatedRect number_rect = minAreaRect(contours[i]);
Point2f rect_point[4];
number_rect.points(rect_point);
float width = rect_point[0].x - rect_point[1].x;
float height = rect_point[0].y - rect_point[3].y;
// 用寬高比篩選
if (width < height) {
float temp = width;
width= height;
height = temp;
}
float ratio = width / height;
if (2.5 < ratio && ratio < 5.5) {
contours_result[i_init][0] = rect_point[0];
contours_result[i_init][1] = rect_point[2];
i_init++;
}
}
return contours_result;
}
// 截取車(chē)牌區(qū)域
int license_gain(Point2f (*choose_license)[2], Mat img) {
int size = (int)(_msize(choose_license) / sizeof(choose_license[0]));
// 繪制方框
for (int i = 0; i < size; i++) {
if ((int)choose_license[i][0].x > 1 && (int)choose_license[i][0].y > 1) {
int x = (int)choose_license[i][1].x;
int y = (int)choose_license[i][1].y;
int width = (int)(choose_license[i][0].x) - (int)(choose_license[i][1].x);
int height = (int)(choose_license[i][0].y) - (int)(choose_license[i][1].y);
Rect choose_rect(x, y, width, height);
Mat number_img = img(choose_rect);
rectangle(img, choose_license[i][0], choose_license[i][1], Scalar(0, 0, 255), 2, 1, 0);
imshow("車(chē)牌單獨(dú)顯示" + to_string(i), number_img);
}
}
imshow("繪制方框", img);
return 0;
}
最后的 main 函數(shù):
int main() {
// 讀入原圖
Mat img = imread("license.jpg");
Mat gray_img;
// 生成灰度圖像
cvtColor(img, gray_img, CV_BGR2GRAY);
// 得出輪廓
vector<vector<Point>> contours;
vector<Vec4i> hierarchy;
contour(gray_img, contours, hierarchy);
// 截取車(chē)牌
Point2f (*choose_license)[2] = choose_contour(contours);
license_gain(choose_license, img);
delete [] choose_license;
waitKey(0);
return 0;
}
以上就是本文的全部?jī)?nèi)容,希望對(duì)大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。
- C++ ReSharper2021激活碼永久有效
- C++中實(shí)現(xiàn)OpenCV圖像分割與分水嶺算法
- c++ 基于opencv 識(shí)別、定位二維碼
- C++ opencv實(shí)現(xiàn)車(chē)道線識(shí)別
- 基于OpenCV和C++ 實(shí)現(xiàn)圖片旋轉(zhuǎn)
- c++ 形狀類(lèi)Shape(派生出圓類(lèi)Circle和矩形類(lèi)Rectangle)
- OpenCV實(shí)現(xiàn)車(chē)牌字符分割(C++)
- C++中typeid實(shí)現(xiàn)原理詳解
- Visual Studio Code運(yùn)行C++代碼時(shí)顯示CLOCKS_PER_SEC未定義的問(wèn)題及解決方法
- C++ 實(shí)現(xiàn)PE文件特征碼識(shí)別的步驟
相關(guān)文章
淺談C++類(lèi)型轉(zhuǎn)化(運(yùn)算符重載函數(shù))和基本運(yùn)算符重載(自增自減)
下面小編就為大家?guī)?lái)一篇淺談C++類(lèi)型轉(zhuǎn)化(運(yùn)算符重載函數(shù))和基本運(yùn)算符重載(自增自減)。小編覺(jué)得挺不錯(cuò)的,現(xiàn)在就分享給大家,也給大家做個(gè)參考。一起跟隨小編過(guò)來(lái)看看吧2017-06-06
C++ Clock類(lèi)模擬實(shí)現(xiàn)鬧鐘運(yùn)行
這篇文章主要為大家詳細(xì)介紹了C++ Clock類(lèi)模擬實(shí)現(xiàn)鬧鐘運(yùn)行,文中示例代碼介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下2022-03-03
C語(yǔ)言雙指針多方法旋轉(zhuǎn)數(shù)組解題LeetCode
這篇文章主要為大家介紹了C語(yǔ)言雙指針使用多方法旋轉(zhuǎn)數(shù)組題解LeetCode,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步2022-02-02
C語(yǔ)言實(shí)現(xiàn)隨機(jī)讀寫(xiě)文件的函數(shù)詳解
文件的隨機(jī)讀寫(xiě),可以在文件中指定的任意位置讀或者寫(xiě)。這篇文章主要為大家詳細(xì)介紹了C語(yǔ)言實(shí)現(xiàn)隨機(jī)讀寫(xiě)文件的3個(gè)函數(shù),感興趣的可以了解一下2023-03-03

