好湿?好紧?好多水好爽自慰,久久久噜久噜久久综合,成人做爰A片免费看黄冈,机机对机机30分钟无遮挡

主頁 > 知識庫 > 一小時學會TensorFlow2之自定義層

一小時學會TensorFlow2之自定義層

熱門標簽:不錯的400電話辦理 電話機器人適用業務 鄭州智能外呼系統運營商 南昌辦理400電話怎么安裝 佛山防封外呼系統收費 徐州天音防封電銷卡 獲客智能電銷機器人 哈爾濱外呼系統代理商 湛江電銷防封卡

概述

通過自定義網絡, 我們可以自己創建網絡并和現有的網絡串聯起來, 從而實現各種各樣的網絡結構.

Sequential

Sequential 是 Keras 的一個網絡容器. 可以幫助我們將多層網絡封裝在一起.

通過 Sequential 我們可以把現有的層已經我們自己的層實現結合, 一次前向傳播就可以實現數據從第一層到最后一層的計算.

格式:

tf.keras.Sequential(
    layers=None, name=None
)

例子:

# 5層網絡模型
model = tf.keras.Sequential([
    tf.keras.layers.Dense(256, activation=tf.nn.relu),
    tf.keras.layers.Dense(128, activation=tf.nn.relu),
    tf.keras.layers.Dense(64, activation=tf.nn.relu),
    tf.keras.layers.Dense(32, activation=tf.nn.relu),
    tf.keras.layers.Dense(10)
])

Model Layer

通過 Model 和 Layer 的__init__call()我們可以自定義層和模型.

Model:

class My_Model(tf.keras.Model):  # 繼承Model

    def __init__(self):
        """
        初始化
        """
        
        super(My_Model, self).__init__()
        self.fc1 = My_Dense(784, 256)  # 第一層
        self.fc2 = My_Dense(256, 128)  # 第二層
        self.fc3 = My_Dense(128, 64)  # 第三層
        self.fc4 = My_Dense(64, 32)  # 第四層
        self.fc5 = My_Dense(32, 10)  # 第五層

    def call(self, inputs, training=None):
        """
        在Model被調用的時候執行
        :param inputs: 輸入
        :param training: 默認為None
        :return: 返回輸出
        """
        
        x = self.fc1(inputs)
        x = tf.nn.relu(x)
        x = self.fc2(x)
        x = tf.nn.relu(x)
        x = self.fc3(x)
        x = tf.nn.relu(x)
        x = self.fc4(x)
        x = tf.nn.relu(x)
        x = self.fc5(x)

        return x

Layer:

class My_Dense(tf.keras.layers.Layer):  # 繼承Layer

    def __init__(self, input_dim, output_dim):
        """
        初始化
        :param input_dim:
        :param output_dim:
        """

        super(My_Dense, self).__init__()

        # 添加變量
        self.kernel = self.add_variable("w", [input_dim, output_dim])  # 權重
        self.bias = self.add_variable("b", [output_dim])  # 偏置

    def call(self, inputs, training=None):
        """
        在Layer被調用的時候執行, 計算結果
        :param inputs: 輸入
        :param training: 默認為None
        :return: 返回計算結果
        """

        # y = w * x + b
        out = inputs @ self.kernel + self.bias

        return out

案例

數據集介紹

CIFAR-10 是由 10 類不同的物品組成的 6 萬張彩色圖片的數據集. 其中 5 萬張為訓練集, 1 萬張為測試集.

完整代碼

import tensorflow as tf

def pre_process(x, y):

    # 轉換x
    x = 2 * tf.cast(x, dtype=tf.float32) / 255 - 1  # 轉換為-1~1的形式
    x = tf.reshape(x, [-1, 32 * 32 * 3])  # 把x鋪平

    # 轉換y
    y = tf.convert_to_tensor(y)  # 轉換為0~1的形式
    y = tf.one_hot(y, depth=10)  # 轉成one_hot編碼

    # 返回x, y
    return x, y

def get_data():
    """
    獲取數據
    :return:
    """

    # 獲取數據
    (X_train, y_train), (X_test, y_test) = tf.keras.datasets.cifar10.load_data()

    # 調試輸出維度
    print(X_train.shape)  # (50000, 32, 32, 3)
    print(y_train.shape)  # (50000, 1)

    # squeeze
    y_train = tf.squeeze(y_train)  # (50000, 1) => (50000,)
    y_test = tf.squeeze(y_test)  # (10000, 1) => (10000,)

    # 分割訓練集
    train_db = tf.data.Dataset.from_tensor_slices((X_train, y_train)).shuffle(10000, seed=0)
    train_db = train_db.batch(batch_size).map(pre_process).repeat(iteration_num)  # 迭代20次

    # 分割測試集
    test_db = tf.data.Dataset.from_tensor_slices((X_test, y_test)).shuffle(10000, seed=0)
    test_db = test_db.batch(batch_size).map(pre_process)

    return train_db, test_db

class My_Dense(tf.keras.layers.Layer):  # 繼承Layer

    def __init__(self, input_dim, output_dim):
        """
        初始化
        :param input_dim:
        :param output_dim:
        """

        super(My_Dense, self).__init__()

        # 添加變量
        self.kernel = self.add_weight("w", [input_dim, output_dim])  # 權重
        self.bias = self.add_weight("b", [output_dim])  # 偏置

    def call(self, inputs, training=None):
        """
        在Layer被調用的時候執行, 計算結果
        :param inputs: 輸入
        :param training: 默認為None
        :return: 返回計算結果
        """

        # y = w * x + b
        out = inputs @ self.kernel + self.bias

        return out


class My_Model(tf.keras.Model):  # 繼承Model

    def __init__(self):
        """
        初始化
        """

        super(My_Model, self).__init__()
        self.fc1 = My_Dense(32 * 32 * 3, 256)  # 第一層
        self.fc2 = My_Dense(256, 128)  # 第二層
        self.fc3 = My_Dense(128, 64)  # 第三層
        self.fc4 = My_Dense(64, 32)  # 第四層
        self.fc5 = My_Dense(32, 10)  # 第五層

    def call(self, inputs, training=None):
        """
        在Model被調用的時候執行
        :param inputs: 輸入
        :param training: 默認為None
        :return: 返回輸出
        """

        x = self.fc1(inputs)
        x = tf.nn.relu(x)
        x = self.fc2(x)
        x = tf.nn.relu(x)
        x = self.fc3(x)
        x = tf.nn.relu(x)
        x = self.fc4(x)
        x = tf.nn.relu(x)
        x = self.fc5(x)

        return x

# 定義超參數
batch_size = 256  # 一次訓練的樣本數目
learning_rate = 0.001  # 學習率
iteration_num = 20  # 迭代次數
optimizer = tf.keras.optimizers.Adam(learning_rate=learning_rate)  # 優化器
loss = tf.losses.CategoricalCrossentropy(from_logits=True)  # 損失
network = My_Model()  # 實例化網絡

# 調試輸出summary
network.build(input_shape=[None, 32 * 32 * 3])
print(network.summary())

# 組合
network.compile(optimizer=optimizer,
                loss=loss,
                metrics=["accuracy"])

if __name__ == "__main__":
    # 獲取分割的數據集
    train_db, test_db = get_data()

    # 擬合
    network.fit(train_db, epochs=5, validation_data=test_db, validation_freq=1)

輸出結果:

Model: "my__model"
_________________________________________________________________
Layer (type) Output Shape Param #
=================================================================
my__dense (My_Dense) multiple 786688
_________________________________________________________________
my__dense_1 (My_Dense) multiple 32896
_________________________________________________________________
my__dense_2 (My_Dense) multiple 8256
_________________________________________________________________
my__dense_3 (My_Dense) multiple 2080
_________________________________________________________________
my__dense_4 (My_Dense) multiple 330
=================================================================
Total params: 830,250
Trainable params: 830,250
Non-trainable params: 0
_________________________________________________________________
None
(50000, 32, 32, 3)
(50000, 1)
2021-06-15 14:35:26.600766: I tensorflow/compiler/mlir/mlir_graph_optimization_pass.cc:176] None of the MLIR Optimization Passes are enabled (registered 2)
Epoch 1/5
3920/3920 [==============================] - 39s 10ms/step - loss: 0.9676 - accuracy: 0.6595 - val_loss: 1.8961 - val_accuracy: 0.5220
Epoch 2/5
3920/3920 [==============================] - 41s 10ms/step - loss: 0.3338 - accuracy: 0.8831 - val_loss: 3.3207 - val_accuracy: 0.5141
Epoch 3/5
3920/3920 [==============================] - 41s 10ms/step - loss: 0.1713 - accuracy: 0.9410 - val_loss: 4.2247 - val_accuracy: 0.5122
Epoch 4/5
3920/3920 [==============================] - 41s 10ms/step - loss: 0.1237 - accuracy: 0.9581 - val_loss: 4.9458 - val_accuracy: 0.5050
Epoch 5/5
3920/3920 [==============================] - 42s 11ms/step - loss: 0.1003 - accuracy: 0.9666 - val_loss: 5.2425 - val_accuracy: 0.5097

到此這篇關于一小時學會TensorFlow2之自定義層的文章就介紹到這了,更多相關TensorFlow2自定義層內容請搜索腳本之家以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • 解決Pytorch自定義層出現多Variable共享內存錯誤問題
  • 解決Keras 自定義層時遇到版本的問題
  • keras Lambda自定義層實現數據的切片方式,Lambda傳參數
  • 使用Keras加載含有自定義層或函數的模型操作

標簽:紹興 吉安 廣西 蘭州 懷化 呂梁 蕪湖 安康

巨人網絡通訊聲明:本文標題《一小時學會TensorFlow2之自定義層》,本文關鍵詞  一小時,學會,TensorFlow2,之,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《一小時學會TensorFlow2之自定義層》相關的同類信息!
  • 本頁收集關于一小時學會TensorFlow2之自定義層的相關信息資訊供網民參考!
  • 推薦文章
    主站蜘蛛池模板: 办公室揉弄高潮嗯啊AV视频网站| 午夜性直播在线观看| 日韩人妻精品中文字幕| 国模人体大尺度| 国产高清不卡一区二区三区| 欧美一区二区在线视频| 国产成人免费高清激情明星| 美女黄网站视频免费视频软件| 国产伦乱| 《年轻的老师4线在完整版韩剧》 玩弄极品少妇高潮抽搐电影 | 扒开腿狂躁女人爽出白浆| 強暴強姦AV正片一区二区三区| 啊灬啊灬啊灬在线观看| 欧美视频在线一区二区三区| 天天爽天天干| 和60岁丰满女人做爰| 国产在线观看精品一区二区三区91| 麻花豆精品秘?国产AV竹花菊| 国产欧美日韩专区| 小奴男跪趴撅打屁股打烂| 纯肉高H粗大伦理| 国产风流老太婆大BBBHD视频| 女学护士一级毛片XXXX| 亚洲国产成人麻豆精品| 男男gaygay免费视频| 欧美日韩无套内射另类| 各种小泬高潮ⅩXXX| 《性船》菲律宾无删减| 野外xxxxfreexxxx人| 免费观看男人添女人下面的视频| 男同gay玩奴男同玩奴| 好属妞这里只有精品久久| 60分钟无遮无掩看视频| 国产高跟鞋黑色丝袜在线播放 | 一级女性全黄A片色情女狼| 欧美男男GaYGAYS?XXX| 性直播软件| 霸道总裁爱上我的365天第一季播放| 国产???69熟妇视频网站| 国产午夜精品网站| 免费看色片网站|