基于OpenCV的路面質(zhì)量檢測(cè)的實(shí)現(xiàn)
本期我們將展示一種對(duì)路面類(lèi)型和質(zhì)量進(jìn)行分類(lèi)的方法及其步驟。為了測(cè)試這種方法,我們使用了我們制作的RTK數(shù)據(jù)集。
路面分類(lèi)
該數(shù)據(jù)集[1]包含用低成本相機(jī)拍攝的圖像,以及新興國(guó)家常見(jiàn)的場(chǎng)景,其中包含未鋪砌的道路和坑洼。路面類(lèi)型是有關(guān)人或自動(dòng)駕駛車(chē)輛應(yīng)如何駕駛的重要信息。除了乘客舒適度和車(chē)輛維護(hù)以外,它還涉及每個(gè)人的安全。我們可以通過(guò)[2]中的簡(jiǎn)單卷積神經(jīng)網(wǎng)絡(luò)(CNN)結(jié)構(gòu)來(lái)實(shí)現(xiàn)。
在這種方法中,我們對(duì)表面類(lèi)型分類(lèi)任務(wù)使用特定的模型,我們將其定義為以下類(lèi)別:瀝青,已鋪設(shè)(用于所有其他類(lèi)型的路面)和未鋪設(shè)。對(duì)于表面質(zhì)量,我們使用其他三種不同的模型,每種類(lèi)型的表面都使用一種。這四個(gè)模型都具有相同的結(jié)構(gòu)。我們從第一個(gè)模型中得出結(jié)果,并稱(chēng)為特定質(zhì)量模型。
在CNN結(jié)構(gòu)之前,將感興趣區(qū)域(ROI)定義為每個(gè)輸入幀的預(yù)處理步驟。畢竟,我們不需要整個(gè)圖像來(lái)對(duì)道路進(jìn)行分類(lèi)。ROI旨在僅保留圖像中實(shí)際包含道路像素的部分。圖像的上半部分以及圖像底部的一小部分都將被丟棄,因?yàn)樵谀承?,它可能包含?fù)責(zé)捕獲圖像的部分車(chē)輛。ROI采用硬編碼,因?yàn)槿绻覀兪褂米赃m應(yīng)ROI,它可能會(huì)導(dǎo)致失敗并損害模型訓(xùn)練。
在此預(yù)處理之后執(zhí)行數(shù)據(jù)擴(kuò)充步驟。數(shù)據(jù)增強(qiáng)包括增加和減少每幀的亮度。這樣,我們可以改進(jìn)訓(xùn)練輸入集,并幫助我們的系統(tǒng)學(xué)習(xí)識(shí)別具有不同照明條件的相同類(lèi)型和質(zhì)量的道路。
最后,將輸入圖像傳遞到包含三個(gè)卷積層和兩個(gè)完全連接層的CNN結(jié)構(gòu)。
01.RTK數(shù)據(jù)集
數(shù)據(jù)集包含具有不同類(lèi)型的表面和質(zhì)量的圖像。
可從以下位置下載RTK數(shù)據(jù)集:
http://www.lapix.ufsc.br/pesquisas/projeto-veiculo-autonomo/datasets/?lang=zh-CN
02.路面類(lèi)型分類(lèi)
我們使用了Python,TensorFlow和OpenCV。
讓我們逐步分析一下…
首先,我們需要建立表面類(lèi)型分類(lèi)模型。為此,您將需要準(zhǔn)備數(shù)據(jù)以訓(xùn)練模型。您可以使用RTK數(shù)據(jù)集中的圖像或制作自己的圖像。圖像需要按地面道路類(lèi)型進(jìn)行組織。
訓(xùn)練數(shù)據(jù)文件夾結(jié)構(gòu)
在我們的實(shí)驗(yàn)中,我們使用了6264幀:
l鋪砌(瀝青):4344,用于柏油馬路。
l鋪砌的(混凝土的):1337用于不同的人行道,例如鵝卵石。
l未鋪砌:585用于未鋪砌,土路,越野。
接下來(lái),在train.py中,定義從何處收集訓(xùn)練數(shù)據(jù)。我們應(yīng)該將20%的數(shù)據(jù)分開(kāi)以自動(dòng)用于驗(yàn)證。我們還定義了batch_size為32。
classes = os.listdir('training_data') num_classes = len(classes) batch_size = 32 validation_size = 0.2 img_size = 128 num_channels = 3 train_path='training_data'
在train.py上設(shè)置的參數(shù)將在dataset.py類(lèi)上讀取。
data = dataset.read_train_sets(train_path, img_size, classes, validation_size=validation_size)
在dataset.py類(lèi)中,我們定義了ROI和數(shù)據(jù)擴(kuò)充。帶有數(shù)據(jù)解釋功能的兩個(gè)函數(shù),Adjust_gamma可以降低亮度,而Adjust_gammaness可以提高亮度。
def adjust_gamma(image): gamma = 0.5 invGamma = 1.0 / gamma table = np.array([((i / 255.0) ** invGamma) * 255 for i in np.arange(0, 256)]).astype("uint8") return cv2.LUT(image, table) def increase_brightness(img, value): hsv = cv2.cvtColor(img, cv2.COLOR_BGR2HSV) h, s, v = cv2.split(hsv) lim = 255 - value v[v > lim] = 255 v[v <= lim] += value final_hsv = cv2.merge((h, s, v)) img = cv2.cvtColor(final_hsv, cv2.COLOR_HSV2BGR) return img
加載輸入數(shù)據(jù)時(shí),將為每個(gè)圖像定義ROI。
for fields in classes: index = classes.index(fields) print('Now going to read {} files (Index: {})'.format(fields, index)) path = os.path.join(train_path, fields, '*g') files = glob.glob(path) for fl in files: image = cv2.imread(fl) # Region Of Interest (ROI) height, width = image.shape[:2] newHeight = int(round(height/2)) image = image[newHeight-5:height-50, 0:width] brght_img = increase_brightness(image, value=150) shaded_img = adjust_gamma(image) image = cv2.resize(image, (image_size, image_size),0,0, cv2.INTER_LINEAR) image = image.astype(np.float32) image = np.multiply(image, 1.0 / 255.0) brght_img = cv2.resize(brght_img, (image_size, image_size),0,0, cv2.INTER_LINEAR) brght_img = brght_img.astype(np.float32) brght_img = np.multiply(brght_img, 1.0 / 255.0) shaded_img = cv2.resize(shaded_img, (image_size, image_size),0,0, cv2.INTER_LINEAR) shaded_img = shaded_img.astype(np.float32) shaded_img = np.multiply(brght_img, 1.0 / 255.0)
我們還會(huì)平衡輸入圖像,因?yàn)闉r青的圖像更多,而未鋪砌和未鋪砌的道路更少。
if index == 0: #asphalt images.append(image) images.append(brght_img) images.append(shaded_img) elif index == 1: #paved for i in range(3): images.append(image) images.append(brght_img) images.append(shaded_img) elif index == 2: #unpaved for i in range(6): images.append(image) images.append(brght_img) images.append(shaded_img)
回到train.py,讓我們定義TensorFlow教程[2]中所示的CNN層。所有選擇到訓(xùn)練步驟的圖像都將傳遞到第一卷積層,其中包含有關(guān)通道的寬度,高度和數(shù)量的信息。前兩層包含32個(gè)大小為3x3的濾鏡。緊接著是一個(gè)具有3x3大小的64個(gè)濾鏡的圖層。所有的步幅都定義為1,填充的定義為0。正態(tài)分布用于權(quán)重初始化。為了在尺寸上減少輸入,這有助于分析輸入子區(qū)域中的特征信息,在所有卷積層中應(yīng)用了最大池。在每個(gè)卷積層的末尾,在最大合并功能之后,將ReLU用作激活功能。
def create_convolutional_layer(input, num_input_channels, conv_filter_size, num_filters): weights = create_weights(shape=[conv_filter_size, conv_filter_size, num_input_channels, num_filters]) biases = create_biases(num_filters) layer = tf.nn.conv2d(input=input, filter=weights, strides=[1, 1, 1, 1], padding='SAME') layer += biases layer = tf.nn.max_pool(value=layer, ksize=[1, 2, 2, 1], strides=[1, 2, 2, 1], padding='SAME') layer = tf.nn.relu(layer)
在卷積層之后,平坦層用于將卷積多維張量轉(zhuǎn)換為一維張量。
def create_flatten_layer(layer): layer_shape = layer.get_shape() num_features = layer_shape[1:4].num_elements() layer = tf.reshape(layer, [-1, num_features]) return layer
最后添加兩個(gè)完全連接的層。在第一個(gè)完全連接的層中,應(yīng)用了ReLU激活功能。第二個(gè)完全連接的層具有可能的輸出,所需的類(lèi)別。
def create_fc_layer(input, num_inputs, num_outputs, use_relu=True): weights = create_weights(shape=[num_inputs, num_outputs]) biases = create_biases(num_outputs) layer = tf.matmul(input, weights) + biases if use_relu: layer = tf.nn.relu(layer) return layer
我們使用softmax函數(shù)來(lái)實(shí)現(xiàn)每個(gè)類(lèi)的概率。最后,我們還使用Adam優(yōu)化器,該優(yōu)化器根據(jù)訓(xùn)練中使用的輸入數(shù)據(jù)更新網(wǎng)絡(luò)權(quán)重。
layer_conv1 = create_convolutional_layer(input=x, num_input_channels=num_channels, conv_filter_size=filter_size_conv1, num_filters=num_filters_conv1) layer_conv2 = create_convolutional_layer(input=layer_conv1, num_input_channels=num_filters_conv1, conv_filter_size=filter_size_conv2, num_filters=num_filters_conv2) layer_conv3= create_convolutional_layer(input=layer_conv2, num_input_channels=num_filters_conv2, conv_filter_size=filter_size_conv3, num_filters=num_filters_conv3) layer_flat = create_flatten_layer(layer_conv3) layer_fc1 = create_fc_layer(input=layer_flat, num_inputs=layer_flat.get_shape()[1:4].num_elements(), num_outputs=fc_layer_size, use_relu=True) layer_fc2 = create_fc_layer(input=layer_fc1, num_inputs=fc_layer_size, num_outputs=num_classes, use_relu=False) y_pred = tf.nn.softmax(layer_fc2,name='y_pred') y_pred_cls = tf.argmax(y_pred, dimension=1) session.run(tf.global_variables_initializer()) cross_entropy = tf.nn.softmax_cross_entropy_with_logits(logits=layer_fc2, labels=y_true) cost = tf.reduce_mean(cross_entropy) optimizer = tf.train.AdamOptimizer(learning_rate=1e-4).minimize(cost) correct_prediction = tf.equal(y_pred_cls, y_true_cls) accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))
可以python train.py 在終端中訓(xùn)練模型的運(yùn)行:
現(xiàn)在,有了經(jīng)過(guò)訓(xùn)練的模型,我們就可以測(cè)試。首先,讓我們準(zhǔn)備好接收輸入測(cè)試幀和輸出文件名。
outputFile = sys.argv[2] # Opening frames cap = cv.VideoCapture(sys.argv[1]) vid_writer = cv.VideoWriter(outputFile, cv.VideoWriter_fourcc('M','J','P','G'), 15, (round(cap.get(cv.CAP_PROP_FRAME_WIDTH)),round(cap.get(cv.CAP_PROP_FRAME_HEIGHT))))
檢索訓(xùn)練好的模型并訪(fǎng)問(wèn)圖形。
sess = tf.Session() saver = tf.train.import_meta_graph('roadsurface-model.meta') saver.restore(sess, tf.train.latest_checkpoint('./')) graph = tf.get_default_graph() y_pred = graph.get_tensor_by_name("y_pred:0") x = graph.get_tensor_by_name("x:0") y_true = graph.get_tensor_by_name("y_true:0") y_test_images = np.zeros((1, len(os.listdir('training_data'))))
請(qǐng)記住,我們不需要整個(gè)圖像,我們的培訓(xùn)著重于使用ROI,在這里我們也使用它。
width = int(round(cap.get(cv.CAP_PROP_FRAME_WIDTH))) height = int(round(cap.get(cv.CAP_PROP_FRAME_HEIGHT))) newHeight = int(round(height/2)) while cv.waitKey(1) < 0: hasFrame, images = cap.read() finalimg = images images = images[newHeight-5:height-50, 0:width] images = cv.resize(images, (image_size, image_size), 0, 0, cv.INTER_LINEAR) images = np.array(images, dtype=np.uint8) images = images.astype('float32') images = np.multiply(images, 1.0/255.0)
最后,基于輸出預(yù)測(cè),我們可以在每幀中打印分類(lèi)的表面類(lèi)型。
x_batch = images.reshape(1, image_size, image_size, num_channels) feed_dict_testing = {x: x_batch, y_true: y_test_images} result = sess.run(y_pred, feed_dict=feed_dict_testing) outputs = [result[0,0], result[0,1], result[0,2]] value = max(outputs) index = np.argmax(outputs) if index == 0: label = 'Asphalt' prob = str("{0:.2f}".format(value)) color = (0, 0, 0) elif index == 1: label = 'Paved' prob = str("{0:.2f}".format(value)) color = (153, 102, 102) elif index == 2: label = 'Unpaved' prob = str("{0:.2f}".format(value)) color = (0, 153, 255) cv.rectangle(finalimg, (0, 0), (145, 40), (255, 255, 255), cv.FILLED) cv.putText(finalimg, 'Class: ', (5,15), cv.FONT_HERSHEY_SIMPLEX, 0.5, (0,0,0), 1) cv.putText(finalimg, label, (70,15), cv.FONT_HERSHEY_SIMPLEX, 0.5, color, 1) cv.putText(finalimg, prob, (5,35), cv.FONT_HERSHEY_SIMPLEX, 0.5, (0,0,0), 1) vid_writer.write(finalimg.astype(np.uint8))
可以測(cè)試在終端中運(yùn)行的模型:python test.py PATH_TO_YOUR_FRAMES_SEQUENCE NAME_YOUR_VIDEO_FILE.avi。
03.路面質(zhì)量分類(lèi)
現(xiàn)在讓我們包括質(zhì)量分類(lèi)。我們僅使用用于訓(xùn)練表面類(lèi)型分類(lèi)模型的相同CNN架構(gòu),并分別在每個(gè)表面類(lèi)別上應(yīng)用每個(gè)質(zhì)量類(lèi)別。因此,除了現(xiàn)有模型外,我們還培訓(xùn)了3種新模型。為此,大家將需要準(zhǔn)備用于訓(xùn)練每個(gè)表面類(lèi)別的模型的數(shù)據(jù)。在RTK數(shù)據(jù)集頁(yè)面中,我們已經(jīng)給出了按班級(jí)組織的框架。
用于質(zhì)量課程的培訓(xùn)數(shù)據(jù)文件夾結(jié)構(gòu)
要訓(xùn)練每種模型,小伙伴們可以在終端中運(yùn)行:
python trainAsphaltQuality.py python trainPavedQuality.py python trainUnpavedQuality.py
現(xiàn)在,預(yù)測(cè)部分發(fā)生了什么變化。我們使用四個(gè)不同的圖,每個(gè)訓(xùn)練模型一個(gè)。
graph = tf.Graph() graphAQ = tf.Graph() graphPQ = tf.Graph() graphUQ = tf.Graph()
04.模型恢復(fù)
恢復(fù)類(lèi)型模型
with graph.as_default(): saver = tf.train.import_meta_graph('roadsurfaceType-model.meta') y_pred = graph.get_tensor_by_name("y_pred:0") x = graph.get_tensor_by_name("x:0") y_true = graph.get_tensor_by_name("y_true:0") y_test_images = np.zeros((1, len(os.listdir('training_data_type')))) sess = tf.Session(graph = graph) saver.restore(sess, tf.train.latest_checkpoint('typeCheckpoint/'))
恢復(fù)瀝青質(zhì)量模型
with graphAQ.as_default(): saverAQ = tf.train.import_meta_graph('roadsurfaceAsphaltQuality-model.meta') y_predAQ = graphAQ.get_tensor_by_name("y_pred:0") xAQ = graphAQ.get_tensor_by_name("x:0") y_trueAQ = graphAQ.get_tensor_by_name("y_true:0") y_test_imagesAQ = np.zeros((1, len(os.listdir('training_data_asphalt_quality')))) sessAQ = tf.Session(graph = graphAQ) saverAQ.restore(sessAQ, tf.train.latest_checkpoint('asphaltCheckpoint/'))
恢復(fù)鋪砌的質(zhì)量模型
with graphPQ.as_default(): saverPQ = tf.train.import_meta_graph('roadsurfacePavedQuality-model.meta') y_predPQ = graphPQ.get_tensor_by_name("y_pred:0") xPQ = graphPQ.get_tensor_by_name("x:0") y_truePQ = graphPQ.get_tensor_by_name("y_true:0") y_test_imagesPQ = np.zeros((1, len(os.listdir('training_data_paved_quality')))) sessPQ = tf.Session(graph = graphPQ) saverPQ.restore(sessPQ, tf.train.latest_checkpoint('pavedCheckpoint/'))
恢復(fù)未鋪砌的質(zhì)量模型
with graphUQ.as_default(): saverUQ = tf.train.import_meta_graph('roadsurfaceUnpavedQuality-model.meta') y_predUQ = graphUQ.get_tensor_by_name("y_pred:0") xUQ = graphUQ.get_tensor_by_name("x:0") y_trueUQ = graphUQ.get_tensor_by_name("y_true:0") y_test_imagesUQ = np.zeros((1, len(os.listdir('training_data_unpaved_quality')))) sessUQ = tf.Session(graph = graphUQ) saverUQ.restore(sessUQ, tf.train.latest_checkpoint('unpavedCheckpoint/'))
此時(shí),輸出預(yù)測(cè)也要考慮質(zhì)量模型,我們可以在每個(gè)幀中打印分類(lèi)的表面類(lèi)型以及該表面的質(zhì)量。
if index == 0: #Asphalt label = 'Asphalt' prob = str("{0:.2f}".format(value)) color = (0, 0, 0) x_batchAQ = images.reshape(1, image_size, image_size, num_channels) feed_dict_testingAQ = {xAQ: x_batchAQ, y_trueAQ: y_test_imagesAQ} resultAQ = sessAQ.run(y_predAQ, feed_dict=feed_dict_testingAQ) outputsQ = [resultAQ[0,0], resultAQ[0,1], resultAQ[0,2]] valueQ = max(outputsQ) indexQ = np.argmax(outputsQ) if indexQ == 0: #Asphalt - Good quality = 'Good' colorQ = (0, 255, 0) probQ = str("{0:.2f}".format(valueQ)) elif indexQ == 1: #Asphalt - Regular quality = 'Regular' colorQ = (0, 204, 255) probQ = str("{0:.2f}".format(valueQ)) elif indexQ == 2: #Asphalt - Bad quality = 'Bad' colorQ = (0, 0, 255) probQ = str("{0:.2f}".format(valueQ)) elif index == 1: #Paved label = 'Paved' prob = str("{0:.2f}".format(value)) color = (153, 102, 102) x_batchPQ = images.reshape(1, image_size, image_size, num_channels) feed_dict_testingPQ = {xPQ: x_batchPQ, y_truePQ: y_test_imagesPQ} resultPQ = sessPQ.run(y_predPQ, feed_dict=feed_dict_testingPQ) outputsQ = [resultPQ[0,0], resultPQ[0,1], resultPQ[0,2]] valueQ = max(outputsQ) indexQ = np.argmax(outputsQ) if indexQ == 0: #Paved - Good quality = 'Good' colorQ = (0, 255, 0) probQ = str("{0:.2f}".format(valueQ)) elif indexQ == 1: #Paved - Regular quality = 'Regular' colorQ = (0, 204, 255) probQ = str("{0:.2f}".format(valueQ)) elif indexQ == 2: #Paved - Bad quality = 'Bad' colorQ = (0, 0, 255) probQ = str("{0:.2f}".format(valueQ)) elif index == 2: #Unpaved label = 'Unpaved' prob = str("{0:.2f}".format(value)) color = (0, 153, 255) x_batchUQ = images.reshape(1, image_size, image_size, num_channels) feed_dict_testingUQ = {xUQ: x_batchUQ, y_trueUQ: y_test_imagesUQ} resultUQ = sessUQ.run(y_predUQ, feed_dict=feed_dict_testingUQ) outputsQ = [resultUQ[0,0], resultUQ[0,1]] valueQ = max(outputsQ) indexQ = np.argmax(outputsQ) if indexQ == 0: #Unpaved - Regular quality = 'Regular' colorQ = (0, 204, 255) probQ = str("{0:.2f}".format(valueQ)) elif indexQ == 1: #Unpaved - Bad quality = 'Bad' colorQ = (0, 0, 255) probQ = str("{0:.2f}".format(valueQ))
打印結(jié)果
cv.rectangle(finalimg, (0, 0), (145, 80), (255, 255, 255), cv.FILLED)
cv.putText(finalimg, 'Class: ', (5,15), cv.FONT_HERSHEY_DUPLEX, 0.5, (0,0,0))
cv.putText(finalimg, label, (70,15), cv.FONT_HERSHEY_DUPLEX, 0.5, color)
cv.putText(finalimg, prob, (5,35), cv.FONT_HERSHEY_DUPLEX, 0.5, (0,0,0))
cv.putText(finalimg, 'Quality: ', (5,55), cv.FONT_HERSHEY_DUPLEX, 0.5, (0,0,0))
cv.putText(finalimg, quality, (70,55), cv.FONT_HERSHEY_DUPLEX, 0.5, colorQ)
cv.putText(finalimg, probQ, (5,75), cv.FONT_HERSHEY_DUPLEX, 0.5, (0,0,0))
大家可以在終端中測(cè)試運(yùn)行情況:python testRTK.py PATH_TO_YOUR_FRAMES_SEQUENCE NAME_YOUR_VIDEO_FILE.avi。
一些結(jié)果樣本:
致謝
lThiago Rateke << span="">rateke.thiago@gmail.com>
lKarla Aparecida Justen << span="">justen.karla@gmail.com>
lAldo von Wangenheim << span="">aldo.vw@ufsc.br>
參考文獻(xiàn)
[1] T. Rateke, K. A. Justen and A. von Wangenheim, Road Surface Classification with Images Captured From Low-cost Cameras — Road Traversing Knowledge (RTK) Dataset, (2019), Revista de Informática Teórica e Aplicada (RITA)
[2] A. Sachan, Tensorflow Tutorial 2: image classifier using convolutional neural network, (2017), CV-Tricks.com
到此這篇關(guān)于基于OpenCV的路面質(zhì)量檢測(cè)的文章就介紹到這了,更多相關(guān)基于OpenCV的路面質(zhì)量檢測(cè)內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
- Python使用Opencv實(shí)現(xiàn)圖像特征檢測(cè)與匹配的方法
- python opencv檢測(cè)目標(biāo)顏色的實(shí)例講解
- 10個(gè)步驟Opencv輕松檢測(cè)出圖片中條形碼
- Python 使用Opencv實(shí)現(xiàn)目標(biāo)檢測(cè)與識(shí)別的示例代碼
- Python Opencv實(shí)現(xiàn)單目標(biāo)檢測(cè)的示例代碼
- Opencv Hough算法實(shí)現(xiàn)圖片中直線(xiàn)檢測(cè)
- 使用OpenCV檢測(cè)圖像中的矩形
- OpenCV實(shí)現(xiàn)圖像角點(diǎn)檢測(cè)
- opencv?canny邊緣檢測(cè)算法詳解
- opencv實(shí)現(xiàn)礦石圖片檢測(cè)礦石數(shù)量
相關(guān)文章
python五子棋游戲的設(shè)計(jì)與實(shí)現(xiàn)
這篇文章主要為大家詳細(xì)介紹了python五子棋游戲的設(shè)計(jì)與實(shí)現(xiàn),文中示例代碼介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下2019-06-06用python實(shí)現(xiàn)將數(shù)組元素按從小到大的順序排列方法
今天小編就為大家分享一篇用python實(shí)現(xiàn)將數(shù)組元素按從小到大的順序排列方法,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2018-07-07Python入門(mén)(六)Python數(shù)據(jù)類(lèi)型
這篇文章主要介紹了Python入門(mén)(六)Python數(shù)據(jù)類(lèi)型,Python是一門(mén)非常強(qiáng)大好用的語(yǔ)言,也有著易上手的特性,本文為入門(mén)教程,需要的朋友可以參考下2023-04-04PyTorch實(shí)現(xiàn)圖像識(shí)別實(shí)戰(zhàn)指南
圖像識(shí)別是從給定圖像中提取有意義的信息(例如圖像內(nèi)容)的過(guò)程,下面這篇文章主要給大家介紹了關(guān)于PyTorch實(shí)現(xiàn)圖像識(shí)別的相關(guān)資料,文中通過(guò)實(shí)例代碼介紹的非常詳細(xì),需要的朋友可以參考下2022-02-02python多線(xiàn)程實(shí)現(xiàn)同時(shí)執(zhí)行兩個(gè)while循環(huán)的操作
這篇文章主要介紹了python多線(xiàn)程實(shí)現(xiàn)同時(shí)執(zhí)行兩個(gè)while循環(huán)的操作,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2020-05-05【Python】Python的urllib模塊、urllib2模塊批量進(jìn)行網(wǎng)頁(yè)下載文件
這篇文章主要介紹了Python的urllib模塊、urllib2模塊批量進(jìn)行網(wǎng)頁(yè)下載文件,就是一個(gè)簡(jiǎn)單的從網(wǎng)頁(yè)抓取數(shù)據(jù)、下載文件的小程序,需要的可以了解一下。2016-11-11