亚洲乱码中文字幕综合,中国熟女仑乱hd,亚洲精品乱拍国产一区二区三区,一本大道卡一卡二卡三乱码全集资源,又粗又黄又硬又爽的免费视频

Tensorflow2.1實現(xiàn)文本中情感分類實現(xiàn)解析

 更新時間:2022年11月18日 16:46:09   作者:我是王大你是誰  
這篇文章主要為大家介紹了Tensorflow2.1實現(xiàn)文本中情感分類實現(xiàn)解析,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進步,早日升職加薪

前言

本文主要是用 cpu 版本的 tensorflow 2.1 搭建深度學習模型,完成對電影評論的情感分類任務。 本次實踐的數(shù)據(jù)來源于IMDB 數(shù)據(jù)集,里面的包含的是電影的影評,每條影評評論文本分為積極類型或消極類型。數(shù)據(jù)集總共包含 50000 條影評文本,取該數(shù)據(jù)集的 25000 條影評數(shù)據(jù)作為訓練集,另外 25000 條作為測試集,訓練集與測試集中包含相等數(shù)量的積極和消極影評,保證數(shù)據(jù)質(zhì)量的平衡。

實現(xiàn)過程和思路解析

下載影評數(shù)據(jù)并進行 padding 處理

(1)這里主要是通過 tf 內(nèi)置的接口從網(wǎng)絡上下載 imdb 數(shù)據(jù),該數(shù)據(jù)是已經(jīng)經(jīng)過處理的,每一條評論中的每個單詞都是用對應的整數(shù)表示的,所以每一條評論都是一個整數(shù)列表。而對應的每條影評的標簽是一個 0 或 1 的整數(shù), 0 代表的是消極評論,1 代表的是積極評論。

(2)這里的 num_words=6000 表示我們只需要保留了訓練數(shù)據(jù)中出現(xiàn)頻率最高的 6000 個常用單詞,低頻詞會被全部棄用,因為一方面這些低頻詞可能是些符號或者停用詞,對影評情感分類沒有意義,另一方面如果低頻詞太多,需要構造的詞典太過龐大,嚴重影響計算效率,且消耗大量內(nèi)存。

import tensorflow as tf
from tensorflow import keras
imdb = keras.datasets.imdb
num_words = 6000
(train_data, train_labels), (test_data, test_labels) = imdb.load_data(num_words=num_words)

(3)這里主要是建立整數(shù)與單詞之間的映射關系,并建立了一個函數(shù) decode_review 可以將影評數(shù)據(jù)從數(shù)字序列轉(zhuǎn)換回單詞序列。

word_index = imdb.get_word_index()
word_index = {k:(v+3) for k,v in word_index.items()}
word_index["<PAD>"] = 0
word_index["<START>"] = 1
word_index["<UNK>"] = 2  # unknown
word_index["<UNUSED>"] = 3
index_word = dict([(value, key) for (key, value) in word_index.items()])
def decode_review(text):
    return ' '.join([index_word.get(i, '?') for i in text])

(4)這里主要是對影評數(shù)據(jù)進行填充,因為每條數(shù)據(jù)的長度(數(shù)字序列的長度)是不一致的,而要進行深度學習模型的輸入必須要保證每條影評數(shù)據(jù)的長度相等,所以我們要進行填充操作,指定了最大的影評長度 maxlen 為 256 ,如果超過 256 則進行截斷,如果不足 256 則用 0 (也就是<PAD>對應的整數(shù))在末尾進行填充。這里的 maxlen 可以隨意指定,但是其長度會影響模型的效果,需要在實踐中不斷調(diào)整折中。

train_data = keras.preprocessing.sequence.pad_sequences(train_data, value=word_index["<PAD>"], padding='post', maxlen=256)
val_data = keras.preprocessing.sequence.pad_sequences(val_data, value=word_index["<PAD>"], padding='post', maxlen=256)
test_data = keras.preprocessing.sequence.pad_sequences(test_data, value=word_index["<PAD>"], padding='post', maxlen=256)

創(chuàng)建驗證集數(shù)據(jù)

這里主要是創(chuàng)建驗證集,那么有了訓練集為什么要創(chuàng)建驗證集呢?首先我們要知道訓練集數(shù)據(jù)是用來開發(fā)和調(diào)整模型的,而檢查模型的準確率指標只能是用未見過的數(shù)據(jù)進行評測,所以我們從原始的訓練數(shù)據(jù)中抽取出 10000 個樣本來創(chuàng)建驗證集,此時訓練樣本只有 15000 個,我們結合使用訓練集和驗證集共同調(diào)整和開發(fā)模型,當模型定型之后,最后需要使用一次測試集評估模型的實際使用效果即可。

val_data = train_data[:10000]
val_labels = train_labels[:10000]
train_data = train_data[10000:]
train_labels = train_labels[10000:]

搭建簡單的深度學習模型

(1)第一層是 Embedding 層,它將輸入的每一個單詞轉(zhuǎn)換為一個 32 維的向量,所以每一個樣本輸入就從一維的 (sequence) 變成了二維的 (sequence, 32)

(2)第二層主要是使用了平均池化操作 GlobalAveragePooling1D , 此操作可以將每個樣本的二維維度向量 (sequence, 32) 又壓縮成一維向量 (32) ,上一步中的 32 維向量表示的是每個單詞向量,但是這里的 32 維向量表示的是一個影評樣本向量。

(3)第三層是一個通過 relu 激活函數(shù)將輸入轉(zhuǎn)換成輸出為 16 維度向量的全連接層操作

(4)第四層是一個通過 sigmoid 激活函數(shù)將輸入轉(zhuǎn)換成輸出為 1 維度向量的全連接層操作,也就是最后輸出一個介于 0 與 1 之間的浮點數(shù),它表示了概率,常規(guī)情況下如果概率大于等于 0.5 則說明該樣本預測類別為 1 ,否則說明該樣本預測類別為 0

model = keras.Sequential()
model.add(keras.layers.Embedding(num_words, 32))
model.add(keras.layers.GlobalAveragePooling1D())
model.add(keras.layers.Dense(16 , activation='relu'))
model.add(keras.layers.Dense(1, activation='sigmoid'))
model.summary()

配置并編譯模型

(1)我們選擇了常用的 Adam 優(yōu)化器,你也可以自行選擇其他優(yōu)化器。

(2)因為這是一個二分類問題且模型會輸出一個概率值,我們選擇了常見的 binary_crossentropy 損失函數(shù)。

(3)評估指標我們選擇了最容易理解的準確率 accuracy 。

model.compile(optimizer='adam', loss='binary_crossentropy', metrics=['accuracy'])

訓練模型

這里主要是使用訓練數(shù)據(jù)進行模型的訓練,使用訓練集反復進行 40 次模型訓練,并且在訓練過程中,使用驗證集的 10000 個樣本來評估模型上的損失值(loss)和準確率(accuracy)。

model.fit(train_data, train_labels, epochs=40, batch_size=512, validation_data=(val_data, val_labels), verbose=1)

輸出如下所示:

Train on 15000 samples, validate on 10000 samples
Epoch 1/40
15000/15000 [==============================] - 3s 169us/sample - loss: 0.6913 - accuracy: 0.5465 - val_loss: 0.6881 - val_accuracy: 0.6872
Epoch 2/40
15000/15000 [==============================] - 1s 88us/sample - loss: 0.6815 - accuracy: 0.7043 - val_loss: 0.6732 - val_accuracy: 0.7427
Epoch 3/40
...
Epoch 38/40
15000/15000 [==============================] - 1s 79us/sample - loss: 0.1045 - accuracy: 0.9707 - val_loss: 0.3431 - val_accuracy: 0.8738
Epoch 39/40
15000/15000 [==============================] - 1s 76us/sample - loss: 0.1022 - accuracy: 0.9712 - val_loss: 0.3470 - val_accuracy: 0.8737
Epoch 40/40
15000/15000 [==============================] - 1s 77us/sample - loss: 0.0985 - accuracy: 0.9735 - val_loss: 0.3526 - val_accuracy: 0.8725

評估模型

這里主要是使用測試數(shù)據(jù)對模型進行評估,由于當前模型較為簡單,如果使用復雜的模型和更好的訓練方法,準確率應該能達到 98% 以上.

model.evaluate(test_data,  test_labels, verbose=2)

結果輸出為,損失為 0.368 ,準確率為 0.86488 :

[0.368153291721344, 0.86488]

以上就是Tensorflow2.1實現(xiàn)文本中情感分類實現(xiàn)解析的詳細內(nèi)容,更多關于Tensorflow2.1文本情感分類的資料請關注腳本之家其它相關文章!

相關文章

  • Python更換pip源方法過程解析

    Python更換pip源方法過程解析

    這篇文章主要介紹了Python更換pip源方法過程解析,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友可以參考下
    2020-05-05
  • 在Python的Flask框架中構建Web表單的教程

    在Python的Flask框架中構建Web表單的教程

    Flask框架中自帶一個Form表單類,通過它的子類來實現(xiàn)表單將相當愜意,這里就為大家?guī)鞵ython的Flask框架中構建Web表單的教程,需要的朋友可以參考下
    2016-06-06
  • 解析numpy中的iscomplex方法及實際應用

    解析numpy中的iscomplex方法及實際應用

    NumPy 的 iscomplex 方法為檢查數(shù)組中的元素是否為復數(shù)提供了一種高效且易于使用的接口,本文介紹了 iscomplex 方法的基本概念、使用方法以及它在解決實際問題中的應用,需要的朋友可以參考下
    2024-06-06
  • Python實現(xiàn)圖像處理ORB算法

    Python實現(xiàn)圖像處理ORB算法

    ORB(Oriented FAST and Rotated BRIEF)算法是一種高效的特征檢測和描述符,它在圖像匹配中有廣泛的應用,下面我們就來了解一下ORB算法的原理與實現(xiàn)吧
    2023-12-12
  • Python中PyAutoGUI幫助文檔(推薦!)

    Python中PyAutoGUI幫助文檔(推薦!)

    PyAutoGui是一個跨平臺GUI自動化庫,PyAutoGUI是一個Python模塊,用于以編程方式控制鼠標和鍵盤,下面這篇文章主要給大家介紹了關于Python中PyAutoGUI幫助文檔的相關資料,需要的朋友可以參考下
    2022-03-03
  • python 按鈕點擊關閉窗口的實現(xiàn)

    python 按鈕點擊關閉窗口的實現(xiàn)

    這篇文章主要介紹了python 按鈕點擊關閉窗口的實現(xiàn)方式,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2020-03-03
  • python中heapq堆排算法的實現(xiàn)

    python中heapq堆排算法的實現(xiàn)

    這篇文章主要介紹了python中heapq堆排算法的實現(xiàn),該模塊提供了堆排序算法的實現(xiàn)。堆是二叉樹,最大堆中父節(jié)點大于或等于兩個子節(jié)點,最小堆父節(jié)點小于或等于兩個子節(jié)點。下面文章更多詳細介紹,需要的小伙伴可以參考一下
    2022-05-05
  • python實現(xiàn)梯度下降算法

    python實現(xiàn)梯度下降算法

    這篇文章主要為大家詳細介紹了python實現(xiàn)梯度下降算法,文中示例代碼介紹的非常詳細,具有一定的參考價值,感興趣的小伙伴們可以參考一下
    2018-08-08
  • Python使用imagehash庫生成ahash算法的示例代碼

    Python使用imagehash庫生成ahash算法的示例代碼

    aHash、pHash、dHash是常用的圖像相似度識別算法,本文將利用Python中的imagehash庫生成這一算法,從而實現(xiàn)計算圖片相似度,感興趣的可以了解一下
    2022-11-11
  • python 中值濾波,椒鹽去噪,圖片增強實例

    python 中值濾波,椒鹽去噪,圖片增強實例

    今天小編就為大家分享一篇python 中值濾波,椒鹽去噪,圖片增強實例,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2019-12-12

最新評論