python用TensorFlow做圖像識別的實(shí)現(xiàn)
一、TensorFlow簡介
TensorFlow是由谷歌開發(fā)的一套機(jī)器學(xué)習(xí)的工具,使用方法很簡單,只需要輸入訓(xùn)練數(shù)據(jù)位置,設(shè)定參數(shù)和優(yōu)化方法等,TensorFlow就可以將優(yōu)化結(jié)果顯示出來,節(jié)省了很大量的編程時間,TensorFlow的功能很多很強(qiáng)大,這邊挑選了一個比較簡單實(shí)現(xiàn)的方法,就是利用TensorFlow的邏輯回歸算法對數(shù)據(jù)庫中的手寫數(shù)字做識別,讓機(jī)器找出規(guī)律,然后再導(dǎo)入新的數(shù)字讓機(jī)器識別。
二、流程介紹
上圖是TensorFlow的流程,可以看到一開始要先將參數(shù)初始化,然后導(dǎo)入訓(xùn)練數(shù)據(jù),計(jì)算偏差,然后修正參數(shù),再導(dǎo)入新的訓(xùn)練數(shù)據(jù),不斷重復(fù),當(dāng)數(shù)據(jù)量越大,理論上參數(shù)就會越準(zhǔn)確,不過也要注意不可訓(xùn)練過度。
三、導(dǎo)入數(shù)據(jù)
數(shù)據(jù)可進(jìn)入MNIST數(shù)據(jù)庫 (Mixed National Institute of Standards and Technology database),這是一個開放的數(shù)據(jù)庫,里面有許多免費(fèi)的訓(xùn)練數(shù)據(jù)可以提供下載,這次我們要下載的是手寫的阿拉伯?dāng)?shù)字,為什么要阿拉伯?dāng)?shù)字呢?1、因?yàn)榻Y(jié)果少,只有十個,比較好訓(xùn)練 2、圖片的容量小,不占空間,下面是部分的訓(xùn)練數(shù)據(jù)案例
TensorFlow可以直接下載MNIST上的訓(xùn)練數(shù)據(jù),并將它導(dǎo)入使用,下面為導(dǎo)入數(shù)據(jù)的代碼
from tensorflow.examples.tutorials.mnist import input_data MNIST = input_data.read_data_sets("/data/mnist", one_hot=True)
四、設(shè)定參數(shù)
接下來就是在TensorFlow里設(shè)定邏輯回歸的參數(shù),我們知道回歸的公式為Y=w*X+b,X為輸入,Y為計(jì)算結(jié)果,w為權(quán)重參數(shù),b為修正參數(shù),其中w和b就是我們要訓(xùn)練修正的參數(shù),但訓(xùn)練里要怎么判斷計(jì)算結(jié)果好壞呢?就是要判斷計(jì)算出來的Y和實(shí)際的Y損失值(loss)是多少,并盡量減少loss,這邊我們使用softmax函數(shù)來計(jì)算,softmax函數(shù)在計(jì)算多類別分類上的表現(xiàn)比較好,有興趣可以百度一下,這邊就不展開說明了,下面為參數(shù)設(shè)定
X = tf.placeholder(tf.float32, [batch_size, 784], name="image") Y = tf.placeholder(tf.float32, [batch_size, 10], name="label")
X為輸入的圖片,圖片大小為784K,Y為實(shí)際結(jié)果,總共有十個結(jié)果(數(shù)字0-9)
w = tf.Variable(tf.random_normal(shape=[784, 10], stddev=0.01), name="weights") b = tf.Variable(tf.zeros([1, 10]), name="bias")
w初始值為一個隨機(jī)的變數(shù),標(biāo)準(zhǔn)差為0.01,b初始值為0。
logits = tf.matmul(X, w) + b entropy = tf.nn.softmax_cross_entropy_with_logits(logits=logits, labels=Y) loss = tf.reduce_sum(entropy)
TensorFlow里面已經(jīng)有softmax的函數(shù),只要把他叫出來就可以使用。
optimizer = tf.train.GradientDescentOptimizer(learning_rate=learning_rate).minimize(loss) init = tf.global_variables_initializer() with tf.Session() as sess: sess.run(init) n_batches = int(MNIST.train.num_examples/batch_size) for i in range(n_epochs): # train the model n_epochs times for _ in range(n_batches): X_batch, Y_batch = MNIST.train.next_batch(batch_size) sess.run([optimizer, loss], feed_dict={X: X_batch, Y:Y_batch})
接著就是設(shè)定優(yōu)化方式,這邊是使用梯度降下發(fā),然后將參數(shù)初始化,接著就運(yùn)行了,這邊要提一下,我們的訓(xùn)練方式是每次從訓(xùn)練數(shù)據(jù)里面抓取一個batch的數(shù)據(jù),然后進(jìn)行計(jì)算,這樣可以預(yù)防過度訓(xùn)練,也比較可以進(jìn)行事后的驗(yàn)證,運(yùn)行完后再用下面的代碼進(jìn)行驗(yàn)證
n_batches = int(MNIST.test.num_examples/batch_size) total_correct_preds = 0 for i in range(n_batches): X_batch, Y_batch = MNIST.test.next_batch(batch_size) _, loss_batch, logits_batch = sess.run([optimizer, loss, logits], feed_dict={X: X_batch, Y:Y_batch}) preds = tf.nn.softmax(logits_batch) correct_preds = tf.equal(tf.argmax(preds, 1), tf.argmax(Y_batch, 1)) accuracy = tf.reduce_sum(tf.cast(correct_preds, tf.float32)) total_correct_preds += sess.run(accuracy) print ("Accuracy {0}".format(total_correct_preds/MNIST.test.num_examples))
最后shell跑出來的結(jié)果是0.916,雖然看上去還算是不錯的結(jié)果,但其實(shí)準(zhǔn)確率是很低的,因?yàn)樗?yàn)證的方式是判斷一個圖片是否為某個數(shù)字(單輸出),所以假如機(jī)器隨便猜也會有0.82左右的命中幾率(0.9*0.9+0.1*0.1),想要更準(zhǔn)確的話目前想到有兩個方向,一個是提高訓(xùn)練量和增加神經(jīng)網(wǎng)絡(luò)的層數(shù)。
到此這篇關(guān)于python用TensorFlow做圖像識別的實(shí)現(xiàn)的文章就介紹到這了,更多相關(guān)TensorFlow 圖像識別內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
python實(shí)現(xiàn)Adapter模式實(shí)例代碼
這篇文章主要介紹了python實(shí)現(xiàn)Adapter模式實(shí)例代碼,分享了相關(guān)代碼示例,小編覺得還是挺不錯的,具有一定借鑒價值,需要的朋友可以參考下2018-02-02Python數(shù)字圖像處理代數(shù)之加減乘運(yùn)算
這篇文章主要介紹了Python數(shù)字圖像處理代數(shù)運(yùn)算,對其中的加、減、乘運(yùn)算分別作了詳細(xì)的講解,有需要的朋友可以借鑒參考下,希望能夠有所幫助2021-09-09python xlsxwriter庫生成圖表的應(yīng)用示例
這篇文章主要介紹了python xlsxwriter庫生成圖表的應(yīng)用示例,小編覺得挺不錯的,現(xiàn)在分享給大家,也給大家做個參考。一起跟隨小編過來看看吧2018-03-03python深度學(xué)習(xí)tensorflow實(shí)例數(shù)據(jù)下載與讀取
這篇文章主要為大家介紹了python深度學(xué)習(xí)tensorflow實(shí)例數(shù)據(jù)下載與讀取示例詳解,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步,早日升職加薪2022-06-06關(guān)于Python解包知識點(diǎn)總結(jié)
在本篇文章里小編給各位分享的是關(guān)于Python解包知識點(diǎn)總結(jié),有興趣的朋友們可以學(xué)習(xí)參考下。2020-05-05Python multiprocessing多進(jìn)程原理與應(yīng)用示例
這篇文章主要介紹了Python multiprocessing多進(jìn)程原理與應(yīng)用,結(jié)合實(shí)例形式詳細(xì)分析了基于multiprocessing包的多進(jìn)程概念、原理及相關(guān)使用操作技巧,需要的朋友可以參考下2019-02-02python實(shí)現(xiàn)數(shù)據(jù)寫入excel表格
這篇文章主要為大家詳細(xì)介紹了python實(shí)現(xiàn)數(shù)據(jù)寫入excel表格,具有一定的參考價值,感興趣的小伙伴們可以參考一下2018-03-03