tensorflow 分類損失函數(shù)使用小記
多分類損失函數(shù)
label.shape:[batch_size]; pred.shape: [batch_size, num_classes]
使用 tf.keras.losses.sparse_categorical_crossentropy(y_true, y_pred, from_logits=False, axis=-1)
- y_true 真實值, y_pred 預(yù)測值
- from_logits,我的理解是,如果預(yù)測結(jié)果經(jīng)過了softmax(單次預(yù)測結(jié)果滿足和為1)就使用設(shè)為`False`,
如果預(yù)測結(jié)果未經(jīng)過softmax就設(shè)為`True`.
pred = tf.convert_to_tensor([[0.9, 0.05, 0.05], [0.5, 0.89, 0.6], [2.05, 0.01, 0.94]]) label = tf.convert_to_tensor([0, 1, 2]) loss = tf.keras.losses.sparse_categorical_crossentropy(label, pred) print(loss.numpy()) # 包含 reduction 參數(shù), 用于對一個批次的損失函數(shù)求平均值,求和等 # loss = tf.keras.losses.SparseCategoricalCrossentropy()(label, pred) label.shape:[batch_size, num_classes](one_hot);pred.shape:[batch_size, num_classes]
使用 tf.keras.losses.categorical_crossentropy(y_true, y_pred, from_logits=False, axis=-1)
- y_true 真實值, y_pred 預(yù)測值
- from_logits 同上
pred = tf.convert_to_tensor([[0.9, 0.05, 0.05], [0.5, 0.89, 0.6], [0.05, 0.01, 0.94]]) label = tf.convert_to_tensor([[1, 0, 0], [0, 1, 0], [0, 0, 1]]) loss = tf.keras.losses.categorical_crossentropy(label, pred) print(loss.numpy())
二分類損失損失函數(shù)
label = tf.convert_to_tensor([0, 0, 1, 1], dtype=tf.float32) pred = tf.convert_to_tensor([1, 1, 1, 0], dtype=tf.float32) loss = tf.keras.losses.BinaryCrossentropy()(label, pred) print(loss.numpy())
多分類與二分類
通常 categorical_crossentropy與 softmax激活函數(shù)搭配使用; binary_crossentropy 與 sigmoid搭配使用;
以上就是本文的全部內(nèi)容,希望對大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。
相關(guān)文章
python jieba分詞并統(tǒng)計詞頻后輸出結(jié)果到Excel和txt文檔方法
本篇文章主要介紹了python jieba分詞并統(tǒng)計詞頻后輸出結(jié)果到Excel和txt文檔方法,具有一定的參考價值,感興趣的小伙伴們可以參考一下2018-02-02python 用lambda函數(shù)替換for循環(huán)的方法
今天小編就為大家分享一篇python 用lambda函數(shù)替換for循環(huán)的方法,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2018-06-06