好湿?好紧?好多水好爽自慰,久久久噜久噜久久综合,成人做爰A片免费看黄冈,机机对机机30分钟无遮挡

主頁 > 知識庫 > 基于Tensorflow搭建一個神經網絡的實現

基于Tensorflow搭建一個神經網絡的實現

熱門標簽:沈陽人工外呼系統價格 武漢外呼系統平臺 江西省地圖標注 沈陽外呼系統呼叫系統 池州外呼調研線路 沈陽防封電銷卡品牌 外呼系統哪些好辦 富錦商家地圖標注 如何申請400電話費用

一、Tensorlow結構

import tensorflow as tf
import numpy as np
 
#創建數據
x_data = np.random.rand(100).astype(np.float32)
y_data = x_data*0.1+0.3
 
#創建一個 tensorlow 結構
weights = tf.Variable(tf.random_uniform([1], -1.0, 1.0))#一維,范圍[-1,1]
biases = tf.Variable(tf.zeros([1]))
 
y = weights*x_data + biases
 
loss = tf.reduce_mean(tf.square(y - y_data))#均方差函數
 
#建立優化器,減少誤差,提高參數準確度,每次迭代都會優化
optimizer = tf.train.GradientDescentOptimizer(0.5)#學習率為0.5(1)
train = optimizer.minimize(loss)#最小化損失函數
 
#初始化不變量
init = tf.global_variables_initializer()
 
with tf.Session() as sess:
    sess.run(init)
    #train
    for step in range(201):
        sess.run(train)
        if step % 20 == 0:
            print(step, sess.run(weights), sess.run(biases))

二、session的使用

import tensorflow as tf
 
matrix1 = tf.constant([[3, 3]])
matrix2 = tf.constant([[2], [2]])
 
product = tf.matmul(matrix1, matrix2)
 
#method1
sess = tf.Session()
result2 = sess.run(product)
print(result2)
 
#method2
# with tf.Session() as sess:
#     result2 = sess.run(product)
#     print(result2)

三、Variable的使用

import tensorflow as tf
 
state = tf.Variable(0, name = 'counter')#變量初始化
# print(state.name)
one = tf.constant(1)
new_value = tf.add(state, one)
#將state用new_value代替
updata = tf.assign(state, new_value)
 
#變量激活
init = tf.global_variables_initializer()
 
with tf.Session() as sess:
    sess.run(init)
    for _ in range(3):
        sess.run(updata)
        print(sess.run(state))

四、placeholder的使用

#給定type,tf大部分只能處理float32數據
input1 = tf.placeholder(tf.float32)
input2 = tf.placeholder(tf.float32)
 
output = tf.multiply(input1, input2)
 
with tf.Session() as sess:
    print(sess.run(output, feed_dict={input1:[7.], input2:[2.]}))

五、激活函數 六、添加層

import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt
 
def add_layer(inputs, in_size, out_size, activation_function = None):
    Weights = tf.Variable(tf.random_normal([in_size, out_size]))#正態分布
    biases = tf.Variable(tf.zeros([1, out_size])+0.1) #1行,out_size列,初始值不推薦為0,所以加上0.1
    Wx_plus_b = tf.matmul(inputs, Weights) + biases #Weights*x+b的初始化值,也是未激活的值
 
    #激活
 
    if activation_function is None:
        #如果沒有設置激活函數,,則直接把當前信號原封不動的傳遞出去
        outputs = Wx_plus_b
    else:
        #如果設置了激活函數,則由此激活函數對信號進行傳遞或抑制
        outputs = activation_function(Wx_plus_b)
    return outputs

七、創建一個神經網絡

import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt
 
def add_layer(inputs, in_size, out_size, activation_function = None):
    Weights = tf.Variable(tf.random_normal([in_size, out_size]))#正態分布
    biases = tf.Variable(tf.zeros([1, out_size])+0.1) #1行,out_size列,初始值不推薦為0,所以加上0.1
    Wx_plus_b = tf.matmul(inputs, Weights) + biases #Weights*x+b的初始化值,也是未激活的值
 
    #激活
 
    if activation_function is None:
        #如果沒有設置激活函數,,則直接把當前信號原封不動的傳遞出去
        outputs = Wx_plus_b
    else:
        #如果設置了激活函數,則由此激活函數對信號進行傳遞或抑制
        outputs = activation_function(Wx_plus_b)
    return outputs
 
"""定義數據形式"""
#創建一列(相當于只有一個屬性值),(-1,1)之間,有300個單位,后面是維度,x_data是有300行
x_data = np.linspace(-1, 1, 300)[:, np.newaxis]#np.linspace在指定間隔內返回均勻間隔數字
#加入噪聲,均值為0,方差為0.05,形狀和x_data一樣
noise = np.random.normal(0, 0.05, x_data.shape)
#定義y的函數為二次曲線函數,同時增加一些噪聲數據
y_data = np.square(x_data) - 0.5 + noise
 
#定義輸入值,輸入結構的輸入行數不固定,但列就是1列的值
xs = tf.placeholder(tf.float32, [None, 1])
ys = tf.placeholder(tf.float32, [None, 1])
 
"""建立網絡"""
#定義隱藏層,輸入為xs,輸入size為1列,因為x_data只有一個屬性值,輸出size假定有10個神經元的隱藏層,激活函數relu
l1 = add_layer(xs, 1, 10, activation_function=tf.nn.relu)
#定義輸出層,輸出為l1輸入size為10列,也就是l1的列數,輸出size為1,這里的輸出類似y_data,因此為1列
prediction = add_layer(l1, 10, 1,activation_function=None)
 
"""預測"""
#定義損失函數為差值平方和的平均值
loss = tf.reduce_mean(tf.reduce_sum(tf.square(ys-prediction),reduction_indices=[1]))
 
"""訓練"""
#進行逐步優化的梯度下降優化器,學習率為0.1,以最小化損失函數進行優化
train_step = tf.train.GradientDescentOptimizer(0.1).minimize(loss)
#初始化模型所有參數
init = tf.global_variables_initializer()
 
#可視化
with tf.Session() as sess:
    sess.run(init)
 
    for i in range(1000):#學習1000次
        sess.run(train_step, feed_dict={xs:x_data, ys:y_data})
        if i%50==0:
            print(sess.run(loss, feed_dict={xs:x_data, ys:y_data}))
 

八、可視化

import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt
 
def add_layer(inputs, in_size, out_size, activation_function = None):
    Weights = tf.Variable(tf.random_normal([in_size, out_size]))#正態分布
    biases = tf.Variable(tf.zeros([1, out_size])+0.1) #1行,out_size列,初始值不推薦為0,所以加上0.1
    Wx_plus_b = tf.matmul(inputs, Weights) + biases #Weights*x+b的初始化值,也是未激活的值
 
    #激活
 
    if activation_function is None:
        #如果沒有設置激活函數,,則直接把當前信號原封不動的傳遞出去
        outputs = Wx_plus_b
    else:
        #如果設置了激活函數,則由此激活函數對信號進行傳遞或抑制
        outputs = activation_function(Wx_plus_b)
    return outputs
 
"""定義數據形式"""
#創建一列(相當于只有一個屬性值),(-1,1)之間,有300個單位,后面是維度,x_data是有300行
x_data = np.linspace(-1, 1, 300)[:, np.newaxis]#np.linspace在指定間隔內返回均勻間隔數字
#加入噪聲,均值為0,方差為0.05,形狀和x_data一樣
noise = np.random.normal(0, 0.05, x_data.shape)
#定義y的函數為二次曲線函數,同時增加一些噪聲數據
y_data = np.square(x_data) - 0.5 + noise
 
#定義輸入值,輸入結構的輸入行數不固定,但列就是1列的值
xs = tf.placeholder(tf.float32, [None, 1])
ys = tf.placeholder(tf.float32, [None, 1])
 
"""建立網絡"""
#定義隱藏層,輸入為xs,輸入size為1列,因為x_data只有一個屬性值,輸出size假定有10個神經元的隱藏層,激活函數relu
l1 = add_layer(xs, 1, 10, activation_function=tf.nn.relu)
#定義輸出層,輸出為l1輸入size為10列,也就是l1的列數,輸出size為1,這里的輸出類似y_data,因此為1列
prediction = add_layer(l1, 10, 1,activation_function=None)
 
"""預測"""
#定義損失函數為差值平方和的平均值
loss = tf.reduce_mean(tf.reduce_sum(tf.square(ys-prediction),reduction_indices=[1]))
 
"""訓練"""
#進行逐步優化的梯度下降優化器,學習率為0.1,以最小化損失函數進行優化
train_step = tf.train.GradientDescentOptimizer(0.1).minimize(loss)
#初始化模型所有參數
init = tf.global_variables_initializer()
 
#可視化
with tf.Session() as sess:
    sess.run(init)
 
    fig = plt.figure()#先生成一個圖片框
    #連續性畫圖
    ax = fig.add_subplot(1, 1, 1)#編號為1,1,1
    ax.scatter(x_data, y_data)#畫散點圖
    #不暫停
    plt.ion()#打開互交模式
    # plt.show()
    #plt.show繪制一次就暫停了
    for i in range(1000):#學習1000次
        sess.run(train_step, feed_dict={xs:x_data, ys:y_data})
        if i%50==0:
 
 
            try:
                #畫出一條后,抹除掉,去除第一個線段,但是只有一個相當于抹除當前線段
                ax.lines.remove(lines[0])
            except Exception:
                pass
            prediction_value = sess.run(prediction, feed_dict={xs:x_data})
            lines = ax.plot(x_data,prediction_value,'r-',lw=5)#lw線寬
 
            #暫停
            plt.pause(0.5)

可視化結果:

動圖效果如下所示:

到此這篇關于基于Tensorflow搭建一個神經網絡的實現的文章就介紹到這了,更多相關Tensorflow搭建神經網絡內容請搜索腳本之家以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • python 使用Tensorflow訓練BP神經網絡實現鳶尾花分類
  • tensorflow2.0實現復雜神經網絡(多輸入多輸出nn,Resnet)
  • tensorflow之自定義神經網絡層實例
  • 使用TensorFlow搭建一個全連接神經網絡教程
  • python之tensorflow手把手實例講解貓狗識別實現

標簽:常德 通遼 銅川 阿里 株洲 黑龍江 潛江 呂梁

巨人網絡通訊聲明:本文標題《基于Tensorflow搭建一個神經網絡的實現》,本文關鍵詞  基于,Tensorflow,搭建,一個,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《基于Tensorflow搭建一個神經網絡的實現》相關的同類信息!
  • 本頁收集關于基于Tensorflow搭建一個神經網絡的實現的相關信息資訊供網民參考!
  • 推薦文章
    主站蜘蛛池模板: 中文字幕精品三| 一女被三黑人糟蹋视频软件| free性欧美69高清| 精品欧美中国福利第一导航| 成人打一炮免费视频| 《教室里的激情》在线观看| 野战好大好紧好爽快点老头| 年龄很小下面粉嫩粉嫩的| 一本大道香蕉久中文在线播放| bdsm极限虐乳虐隂视频| 一级婬片A片AAA毛片艳谭| 男?差女www免费视频| 久久免费精品| 夫妇交换性4p中文字幕| 二级c片在线看完整视频| 女s调教男m| 黄色特一级片| 在办公室里揉弄高潮的注意事项 | 麻豆69堂免费视频| 免费观看动漫美女被靠网站| 日韩伦理在线观看| www.5555香蕉.com| 黑人黄色一级片| 沟厕沟女厕偷拍大赏| 中文成人无码精品久久久不卡| 老师脱??让学生摸??| 99久国产AV精品国产伊甸园| juliecash大白肥臀| 久久综合久久88| 护士的夜班秘密H| 《午夜福利合集》757影视| genshinhetial本子| 大ji巴放进女人动态图| 8x8ⅹ拨牐拨牐拨牐在线观看| 韩国美女免费视频高清观看| freesex另类人鲁交| japanese21hdxxxx| 扒开双腿疯狂进出爽爽爽男男| 白俄罗斯6一9一级毛片| 人干人| 龚玥菲a级照片|