亚洲乱码中文字幕综合,中国熟女仑乱hd,亚洲精品乱拍国产一区二区三区,一本大道卡一卡二卡三乱码全集资源,又粗又黄又硬又爽的免费视频

基于python的BP神經(jīng)網(wǎng)絡(luò)及異或?qū)崿F(xiàn)過程解析

 更新時(shí)間:2019年09月30日 10:05:32   作者:沙克的世界  
這篇文章主要介紹了基于python的BP神經(jīng)網(wǎng)絡(luò)及異或?qū)崿F(xiàn)過程解析,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下

BP神經(jīng)網(wǎng)絡(luò)是最簡單的神經(jīng)網(wǎng)絡(luò)模型了,三層能夠模擬非線性函數(shù)效果。

難點(diǎn):

  • 如何確定初始化參數(shù)?
  • 如何確定隱含層節(jié)點(diǎn)數(shù)量?
  • 迭代多少次?如何更快收斂?
  • 如何獲得全局最優(yōu)解?
'''
neural networks 

created on 2019.9.24
author: vince
'''
import math
import logging
import numpy 
import random
import matplotlib.pyplot as plt

'''
neural network 
'''
class NeuralNetwork:

 def __init__(self, layer_nums, iter_num = 10000, batch_size = 1):
  self.__ILI = 0;
  self.__HLI = 1;
  self.__OLI = 2;
  self.__TLN = 3;

  if len(layer_nums) != self.__TLN:
   raise Exception("layer_nums length must be 3");

  self.__layer_nums = layer_nums; #array [layer0_num, layer1_num ...layerN_num]
  self.__iter_num = iter_num;
  self.__batch_size = batch_size;
 
 def train(self, X, Y):
  X = numpy.array(X);
  Y = numpy.array(Y);

  self.L = [];
  #initialize parameters
  self.__weight = [];
  self.__bias = [];
  self.__step_len = [];
  for layer_index in range(1, self.__TLN):
   self.__weight.append(numpy.random.rand(self.__layer_nums[layer_index - 1], self.__layer_nums[layer_index]) * 2 - 1.0);
   self.__bias.append(numpy.random.rand(self.__layer_nums[layer_index]) * 2 - 1.0);
   self.__step_len.append(0.3);

  logging.info("bias:%s" % (self.__bias));
  logging.info("weight:%s" % (self.__weight));

  for iter_index in range(self.__iter_num):
   sample_index = random.randint(0, len(X) - 1);
   logging.debug("-----round:%s, select sample %s-----" % (iter_index, sample_index));
   output = self.forward_pass(X[sample_index]);
   g = (-output[2] + Y[sample_index]) * self.activation_drive(output[2]);
   logging.debug("g:%s" % (g));
   for j in range(len(output[1])):
    self.__weight[1][j] += self.__step_len[1] * g * output[1][j];
   self.__bias[1] -= self.__step_len[1] * g;

   e = [];
   for i in range(self.__layer_nums[self.__HLI]):
    e.append(numpy.dot(g, self.__weight[1][i]) * self.activation_drive(output[1][i]));
   e = numpy.array(e);
   logging.debug("e:%s" % (e));
   for j in range(len(output[0])):
    self.__weight[0][j] += self.__step_len[0] * e * output[0][j];
   self.__bias[0] -= self.__step_len[0] * e;

   l = 0;
   for i in range(len(X)):
    predictions = self.forward_pass(X[i])[2];
    l += 0.5 * numpy.sum((predictions - Y[i]) ** 2);
   l /= len(X);
   self.L.append(l);

   logging.debug("bias:%s" % (self.__bias));
   logging.debug("weight:%s" % (self.__weight));
   logging.debug("loss:%s" % (l));
  logging.info("bias:%s" % (self.__bias));
  logging.info("weight:%s" % (self.__weight));
  logging.info("L:%s" % (self.L));
 
 def activation(self, z):
  return (1.0 / (1.0 + numpy.exp(-z)));

 def activation_drive(self, y):
  return y * (1.0 - y);

 def forward_pass(self, x):
  data = numpy.copy(x);
  result = [];
  result.append(data);
  for layer_index in range(self.__TLN - 1):
   data = self.activation(numpy.dot(data, self.__weight[layer_index]) - self.__bias[layer_index]);
   result.append(data);
  return numpy.array(result);

 def predict(self, x):
  return self.forward_pass(x)[self.__OLI];


def main():
 logging.basicConfig(level = logging.INFO,
   format = '%(asctime)s %(filename)s[line:%(lineno)d] %(levelname)s %(message)s',
   datefmt = '%a, %d %b %Y %H:%M:%S');
   
 logging.info("trainning begin.");
 nn = NeuralNetwork([2, 2, 1]);
 X = numpy.array([[0, 0], [1, 0], [1, 1], [0, 1]]);
 Y = numpy.array([0, 1, 0, 1]);
 nn.train(X, Y);

 logging.info("trainning end. predict begin.");
 for x in X:
  print(x, nn.predict(x));

 plt.plot(nn.L)
 plt.show();

if __name__ == "__main__":
 main();

具體收斂效果

以上就是本文的全部內(nèi)容,希望對大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。

相關(guān)文章

  • Python爬蟲動(dòng)態(tài)ip代理防止被封的方法

    Python爬蟲動(dòng)態(tài)ip代理防止被封的方法

    在本篇文章中小編給大家整理了關(guān)于Python爬蟲動(dòng)態(tài)ip代理防止被封的方法以及實(shí)例代碼,需要的朋友們學(xué)習(xí)下。
    2019-07-07
  • jupyter notebook運(yùn)行代碼沒反應(yīng)且in[ ]沒有*

    jupyter notebook運(yùn)行代碼沒反應(yīng)且in[ ]沒有*

    本文主要介紹了jupyter notebook運(yùn)行代碼沒反應(yīng)且in[ ]沒有*,文中通過示例代碼介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下
    2022-03-03
  • Pyqt5 實(shí)現(xiàn)多線程文件搜索的案例

    Pyqt5 實(shí)現(xiàn)多線程文件搜索的案例

    這篇文章主要介紹了Pyqt5 實(shí)現(xiàn)多線程文件搜索的案例,具有很好的參考價(jià)值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2021-03-03
  • Python NumPy灰度圖像的壓縮原理講解

    Python NumPy灰度圖像的壓縮原理講解

    在本篇文章里小編給大家整理的是一篇關(guān)于Python NumPy灰度圖像的壓縮原理講解內(nèi)容,有興趣的朋友們可以學(xué)習(xí)參考下。
    2021-08-08
  • Python辦公自動(dòng)化之?dāng)?shù)據(jù)預(yù)處理和數(shù)據(jù)校驗(yàn)詳解

    Python辦公自動(dòng)化之?dāng)?shù)據(jù)預(yù)處理和數(shù)據(jù)校驗(yàn)詳解

    這篇文章主要為大家詳細(xì)介紹了Python辦公自動(dòng)化中數(shù)據(jù)預(yù)處理和數(shù)據(jù)校驗(yàn)的相關(guān)知識(shí),文中的示例代碼講解詳細(xì),感興趣的小伙伴可以參考一下
    2024-01-01
  • Python編程之變量賦值操作實(shí)例分析

    Python編程之變量賦值操作實(shí)例分析

    這篇文章主要介紹了Python編程之變量賦值操作,結(jié)合實(shí)例形式分析了Python賦值、位移、多元賦值操作符等相關(guān)操作使用技巧,需要的朋友可以參考下
    2017-07-07
  • Python使用ffmpeg實(shí)現(xiàn)將WebM文件轉(zhuǎn)換為MP4文件

    Python使用ffmpeg實(shí)現(xiàn)將WebM文件轉(zhuǎn)換為MP4文件

    這篇文章主要介紹了Python如何使用wxPython庫創(chuàng)建一個(gè)簡單的GUI應(yīng)用程序,可以實(shí)現(xiàn)將WebM文件轉(zhuǎn)換為MP4文件,文中的示例代碼講解詳細(xì),感興趣的可以動(dòng)手嘗試一下
    2023-08-08
  • Python隨手筆記第一篇(2)之初識(shí)列表和元組

    Python隨手筆記第一篇(2)之初識(shí)列表和元組

    Python中,列表和元組是一種數(shù)據(jù)結(jié)構(gòu):序列,序列中的每個(gè)元素都被分配一個(gè)序號(hào),元素的位置,第一原元素的位置為0,因此類推,序列是最基本的數(shù)據(jù)結(jié)構(gòu),本文給大家分享Python隨手筆記第一篇(2)之初識(shí)列表和元組,感興趣的朋友一起學(xué)習(xí)吧
    2016-01-01
  • 什么是python的id函數(shù)

    什么是python的id函數(shù)

    在本篇文章里小編給大家分享了關(guān)于python里id函數(shù)的基礎(chǔ)知識(shí)點(diǎn),需要的朋友們可以一起學(xué)習(xí)下。
    2020-06-06
  • SQLite3中文編碼 Python的實(shí)現(xiàn)

    SQLite3中文編碼 Python的實(shí)現(xiàn)

    下面小編就為大家?guī)硪黄猄QLite3中文編碼 Python的實(shí)現(xiàn)。小編覺得挺不錯(cuò)的,現(xiàn)在就分享給大家,也給大家做個(gè)參考。一起跟隨小編過來看看吧
    2017-01-01

最新評(píng)論