亚洲乱码中文字幕综合,中国熟女仑乱hd,亚洲精品乱拍国产一区二区三区,一本大道卡一卡二卡三乱码全集资源,又粗又黄又硬又爽的免费视频

python人工智能tensorflow函數(shù)tf.layers.dense使用方法

 更新時(shí)間:2022年05月05日 14:09:49   作者:Bubbliiiing  
這篇文章主要介紹了python人工智能tensorflow函數(shù)tf.layers.dense的使用方法,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步,早日升職加薪

參數(shù)數(shù)量及其作用

tf.layers.dense用于添加一個全連接層。

函數(shù)如下:

tf.layers.dense(
    inputs,					#層的輸入
    units,					#該層的輸出維度
    activation=None,		#激活函數(shù)
    use_bias=True,			
    kernel_initializer=None,  	# 卷積核的初始化器
    bias_initializer=tf.zeros_initializer(),  # 偏置項(xiàng)的初始化器
    kernel_regularizer=None,    # 卷積核的正則化
    bias_regularizer=None,    	# 偏置項(xiàng)的正則化
    activity_regularizer=None, 
    kernel_constraint=None,
    bias_constraint=None,
    trainable=True,
    name=None,  # 層的名字
    reuse=None  # 是否重復(fù)使用參數(shù)
)

部分參數(shù)解釋:

inputs:輸入該層的數(shù)據(jù)。

units:該層的輸出維度。

activation:激活函數(shù)。

use_bias:是否使用偏置項(xiàng)。

trainable=True : 表明該層的參數(shù)是否參與訓(xùn)練。

示例

手寫體例子,利用兩個dense可以構(gòu)成一個單層網(wǎng)絡(luò),在下面例子中,網(wǎng)絡(luò)的神經(jīng)元個數(shù)為200。

import numpy as np
import tensorflow as tf
from tensorflow.examples.tutorials.mnist import input_data
def compute_accuracy(x_data,y_data):
    global dense2
    y_pre = sess.run(dense2,feed_dict={xs:x_data})
    correct_prediction = tf.equal(tf.arg_max(y_data,1),tf.arg_max(y_pre,1))     #判斷是否相等
    accuracy = tf.reduce_mean(tf.cast(correct_prediction,tf.float32))   #賦予float32數(shù)據(jù)類型,求平均。
    result = sess.run(accuracy,feed_dict = {xs:batch_xs,ys:batch_ys})   #執(zhí)行
    return result
mnist = input_data.read_data_sets("MNIST_data",one_hot = "true")
xs = tf.placeholder(tf.float32,[None,784])
ys = tf.placeholder(tf.float32,[None,10])
dense1 = tf.layers.dense(
    xs,
    200,
    activation = tf.nn.tanh,            
    kernel_initializer=tf.random_normal_initializer(mean=0, stddev=0.3),
    bias_initializer=tf.constant_initializer(0.1),
    name='fc1'
)
dense2 = tf.layers.dense(
    dense1,
    10,
    activation = tf.nn.softmax,            
    kernel_initializer=tf.random_normal_initializer(mean=0, stddev=0.3),
    bias_initializer=tf.constant_initializer(0.1),
    name='fc2'
)
loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits = dense2, labels = ys),name = 'loss')
#label是標(biāo)簽,logits是預(yù)測值,交叉熵。
train = tf.train.GradientDescentOptimizer(0.5).minimize(loss)
init = tf.initialize_all_variables()
with tf.Session() as sess:
    sess.run(init)
    for i in range(5001):
        batch_xs,batch_ys = mnist.train.next_batch(100)
        sess.run(train,feed_dict = {xs:batch_xs,ys:batch_ys})
        if i % 1000 == 0:
            print("訓(xùn)練%d次的識別率為:%f。"%((i+1),compute_accuracy(mnist.test.images,mnist.test.labels)))

實(shí)驗(yàn)結(jié)果為:

訓(xùn)練1次的識別率為:0.107400。
訓(xùn)練1001次的識別率為:0.805200。
訓(xùn)練2001次的識別率為:0.822800。
訓(xùn)練3001次的識別率為:0.829400。
訓(xùn)練4001次的識別率為:0.833100。
訓(xùn)練5001次的識別率為:0.835300。

以上就是python人工智能tensorflow函數(shù)tf.layers.dense使用方法的詳細(xì)內(nèi)容,更多關(guān)于tensorflow函數(shù)tf.layers.dense的資料請關(guān)注腳本之家其它相關(guān)文章!

相關(guān)文章

最新評論