好湿?好紧?好多水好爽自慰,久久久噜久噜久久综合,成人做爰A片免费看黄冈,机机对机机30分钟无遮挡

主頁 > 知識庫 > 機器深度學習二分類電影的情感問題

機器深度學習二分類電影的情感問題

熱門標簽:蘇州人工外呼系統軟件 看懂地圖標注方法 廣東旅游地圖標注 打印谷歌地圖標注 京華圖書館地圖標注 淮安呼叫中心外呼系統如何 佛山通用400電話申請 電話外呼系統招商代理 電話機器人貸款詐騙

二分類問題可能是應用最廣泛的機器學習問題。今天我們將學習根據電影評論的文字內容將其劃分為正面或負面。

一、數據集來源

我們使用的是IMDB數據集,它包含來自互聯網電影數據庫(IMDB)的50000條嚴重兩極分化的評論。為了避免模型過擬合只記住訓練數據,我們將數據集分為用于訓練的25000條評論與用于測試的25000條評論,訓練集和測試集都包含50%的正面評論和50%的負面評論。

與MNIST數據集一樣,IMDB數據集也內置于Keras庫。它已經過預處理:評論(單詞序列)已經被轉換為整數序列,其中每個整數代表字典中的某個單詞。

通過以下代碼加載數據集并限制每條評論最多取前一萬個常用的word,以便于我們進行向量處理。

import tensorflow as tf
imdb = tf.keras.datasets.imdb
(train_data, train_labels),(test_data, test_labels) = imdb.load_data(num_words=10000)
print(train_data[0])
print(train_labels[0])

通過輸出可以看到,train_data和test_data是評論記錄的集合,每條評論記錄又是由眾多的單詞索引組成的集合。
train_labels和test_labels是針對評論的分類的集合,其中0表示負面評論,1表示正面評論。

[1, 14, 22, 16, 43, 530, 973, 1622, 1385, 65, 458, 4468, 66, 3941, 4, 173, 36, 256, 5, 25, 100, 43, 838, 112, 50, 670, 2, 9, 35, 480, 284, 5, 150, 4, 172, 112, 167, 2, 336, 385, 39, 4, 172, 4536, 1111, 17, 546, 38, 13, 447, 4, 192, 50, 16, 6, 147, 2025, 19, 14, 22, 4, 1920, 4613, 469, 4, 22, 71, 87, 12, 16, 43, 530, 38, 76, 15, 13, 1247, 4, 22, 17, 515, 17, 12, 16, 626, 18, 2, 5, 62, 386, 12, 8, 316, 8, 106, 5, 4, 2223, 5244, 16, 480, 66, 3785, 33, 4, 130, 12, 16, 38, 619, 5, 25, 124, 51, 36, 135, 48, 25, 1415, 33, 6, 22, 12, 215, 28, 77, 52, 5, 14, 407, 16, 82, 2, 8, 4, 107, 117, 5952, 15, 256, 4, 2, 7, 3766, 5, 723, 36, 71, 43, 530, 476, 26, 400, 317, 46, 7, 4, 2, 1029, 13, 104, 88, 4, 381, 15, 297, 98, 32, 2071, 56, 26, 141, 6, 194, 7486, 18, 4, 226, 22, 21, 134, 476, 26, 480, 5, 144, 30, 5535, 18, 51, 36, 28, 224, 92, 25, 104, 4, 226, 65, 16, 38, 1334, 88, 12, 16, 283, 5, 16, 4472, 113, 103, 32, 15, 16, 5345, 19, 178, 32]
1

我們可以通過word與編號的映射關系將評論的內容轉化為具體的文本

def get_text(comment_num):
    """將數字形式的評論轉化為文本"""
    # word_index = tf.keras.datasets.imdb.get_word_index()
    word_index = imdb.get_word_index()
    reverse_word_index = dict([(value, key) for (key, value) in word_index.items()])
    text = ' '.join([reverse_word_index.get(i - 3, '?') for i in comment_num])
    return text
comment = get_text(train_data[0])
print(comment)

第一條電影評論的內容

? this film was just brilliant casting location scenery story direction everyone's really suited the part they played and you could just imagine being there robert ? is an amazing actor and now the same being director ?

二、格式化輸入數據

由于我們無法直接將整數序列輸入神經網絡,所以需要將其轉換為張量。可以通過以下兩種方式進行轉化

填充列表,使其具有相同的長度,然后將列表轉化為(samples, word_index)的2D形狀的整數張量。對列表進行one-hot編碼,將其轉化為0和1組成的向量。

這里我們采用one-hot進行編碼處理

def vectorize_sequences(sequences, diamension = 10000):
    results = np.zeros((len(sequences), diamension))
    for i, sequence in enumerate(sequences):
        results[i, sequence] = 1
    return results
x_train = vectorize_sequences(train_data)
print(x_train[0])
print(len(x_train[0]))
x_test = vectorize_sequences(test_data)
print(x_test[0])
print(len(x_test[0]))

轉化完成的輸入結果

[0. 1. 1. ... 0. 0. 0.]

10000

[0. 1. 1. ... 0. 0. 0.]

將標簽進行向量化處理

y_train = np.asarray(train_labels).astype('float32')
y_test = np.asarray(test_labels).astype('float32')

三、構建神經網絡

針對這里二分類單標簽,我們可以直接使用帶有relu激活函數的全連接層的簡單堆疊。
我們使用了兩個具有16個隱藏單元的中間層和具有一個隱藏單元的層。中間層使用的relu激活函數負責將所有的負值歸零,最后一層使用sigmoid函數將任意值壓縮到[0,1]之間并作為預測結果的概率。

model = models.Sequential()
model.add(layers.Dense(16, activation='relu', input_shape=(10000,)))
model.add(layers.Dense(16, activation='relu'))
model.add(layers.Dense(1, activation='sigmoid'))

這里的Dense層實現了如下的張量計算,傳入Dense層的參數16表示隱藏單元的個數,同時也表示這個層輸出的數據的維度數量。隱藏單元越多,網絡越能夠學習到更加復雜的表示,但是網絡計算的代價就越高。

output = relu(dot(W, input) + b)

我們使用rmsprop優化器和binary_crossentropy損失函數來配置模型。

model.compile(optimizer='rmsprop', loss='binary_crossentropy', metrics=['accuracy'])

四、訓練模型

將訓練數據分出一小部分作為校驗數據,同時將512個樣本作為一批量處理,并進行20輪的訓練,同時出入validation_data來監控校驗樣本上的損失和計算精度。

x_val = x_train[:10000]
partial_x_train = x_train[10000:]
y_val = y_train[:10000]
partial_y_train = y_train[10000:]
history = model.fit(partial_x_train, partial_y_train, epochs= 20, batch_size=512, validation_data=(x_val, y_val))

調用fit()返回的history對象包含訓練過程的所有數據

history_dict = history.history
print(history_dict.keys())

字典中包含4個條目,對應訓練過程和校驗過程的指標,其中loss是訓練過程中損失指標,accuracy是訓練過程的準確性指標,而val_loss是校驗過程的損失指標,val_accuracy是校驗過程的準確性指標。

dict_keys(['loss', 'accuracy', 'val_loss', 'val_accuracy'])

我們使用Matplotlib畫出訓練損失和校驗損失的情況

loss_values = history_dict['loss']
val_loss_values = history_dict['val_loss']
epochs = range(1, len(loss_values) + 1)
plt.plot(epochs, loss_values, 'bo', label='Training loss')
plt.plot(epochs, val_loss_values, 'b', label='Validation loss')
plt.title('Training and validation loss')
plt.xlabel('Epochs')
plt.ylabel('Loss')
plt.legend()
plt.show()

從圖中可以看到整個訓練過程,損失函數值一直在不斷的變小,但是校驗過程的損失函數值卻先變小后變大,在2.5-5之間的某個點達到最小值。

我們使用Matplotlib畫出訓練精度和校驗精度的情況

plt.clf()
acc = history_dict['accuracy']
val_acc = history_dict['val_accuracy']
plt.plot(epochs, acc, 'bo', label='Training accuracy')
plt.plot(epochs, val_acc, 'b', label='Validation accuracy')
plt.title('Training and validation accuracy')
plt.xlabel('Epochs')
plt.ylabel('Accuracy')
plt.legend()
plt.show()

從圖中可以看到整個訓練過程,準確度值一直在不斷的升高,但是校驗過程的精度數值卻在不斷的進行波動,在2.5-5之間的某個點達到最大值。

通過對訓練和校驗指標的分析,可以看到訓練的損失每輪都在降低,訓練的精度每輪都在提升。但是校驗損失和校驗精度基本上在第4輪左右達到最佳值。為了防止這種過擬合的情況,我們可以在第四輪完成之后直接停止訓練。

history = model.fit(partial_x_train, partial_y_train, epochs= 4, batch_size=512, validation_data=(x_val, y_val))
results = model.evaluate(x_test, y_test)
print(results)

重新執行可以看到模型的精度可以達到87%

782/782 [==============================] - 1s 876us/step - loss: 0.3137 - accuracy: 0.8729
[0.3137112557888031, 0.8728799819946289]

五、使用測試數據預測結果

使用訓練的模型對test數據集進行預測

result = model.predict(x_test)
print(result)

[[0.31683978]

 [0.9997941 ]

 [0.9842608 ]

 ...

 [0.18170357]

 [0.23360077]

六、小結

  • 需要對原始數據進行預處理并轉化為符合要求的張量。
  • 對于二分類問題,最后一層使用sigmoid作為激活函數,并輸出0-1的標量來表示結果出現的概率。
  • 對于二分類問題的sigmoid標量輸出,應該使用binary_crossentropy損失函數。
  • 隨著訓練過程的進行,很容易出現過擬合現象,我們需要時刻監控模型在非訓練數據集的表現。

到此這篇關于機器深度學習之電影的二分類情感問題的文章就介紹到這了,更多相關深度學習內容請搜索腳本之家以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • 深度學習詳解之初試機器學習
  • 深度學習小工程練習之tensorflow垃圾分類詳解
  • 深度學習tensorflow基礎mnist
  • 吳恩達機器學習練習:神經網絡(反向傳播)

標簽:畢節 江蘇 衡水 湖州 股票 呼和浩特 駐馬店 中山

巨人網絡通訊聲明:本文標題《機器深度學習二分類電影的情感問題》,本文關鍵詞  機器,深度,學習,二,分類,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《機器深度學習二分類電影的情感問題》相關的同類信息!
  • 本頁收集關于機器深度學習二分類電影的情感問題的相關信息資訊供網民參考!
  • 推薦文章
    主站蜘蛛池模板: 毛片免费在线视频| 人妻丰满熟妇av无码区乱| 操的我好舒服| 一区二区三区无码视频| 放荡的护士bd在线中文 | 黄色成人一级片| 免费h片| 欧美日韩中文一区二区| 丰满双乳峰白嫩少妇www91| 人人爱人人舔| 高h细腻文| 豆国产96在线|亚洲| 再深一点灬舒服灬太大了使用方法| 胖熊被强行取精| 国产精品国产三级国产普通话| heyzo亚洲精品日韩| 免费一级国产大片| 爽?躁多水?快?深点作文| 亚洲网站黄色| 牝教师~淫辱の教室4樱花动漫 | ?| 精品视频一区二区三区在线播放| 黄网站免费在线观看| 香港三日本三级少妇66| 91丨九色丨国产??在线| 美女黄频免费看| 我的美艳师娘| 99精品少妇免费一区二区刘豆豆| 欧美视频不卡一区二区三区| 中文字幕 一区二区三区 | 丰满岳的两腿间毛茸茸| 国语对白老龄妇女A片| 欧美精品黑色丝袜无| 蜜臀一区二区三区免费视频软件| 福利姬萌白酱| 精油按摩高潮到痉挛| 欧美精品无码一区二区三区在线播放| 啊哈啊嗯| 嫩草影院永久一二三入口| 69pao国产成人免费视频在线| 日本不卡视频一区二区|