好湿?好紧?好多水好爽自慰,久久久噜久噜久久综合,成人做爰A片免费看黄冈,机机对机机30分钟无遮挡

主頁 > 知識庫 > Python機器學習之邏輯回歸

Python機器學習之邏輯回歸

熱門標簽:白銀外呼系統(tǒng) 唐山智能外呼系統(tǒng)一般多少錢 廣告地圖標注app 騰訊外呼線路 哈爾濱ai外呼系統(tǒng)定制 激戰(zhàn)2地圖標注 海南400電話如何申請 陜西金融外呼系統(tǒng) 公司電話機器人

一、題目

1.主題:邏輯回歸

2.描述:假設(shè)你是某大學招生主管,你想根據(jù)兩次考試的結(jié)果決定每個申請者的錄取
機會。現(xiàn)有以往申請者的歷史數(shù)據(jù),可以此作為訓練集建立邏輯回歸模型,并用
其預(yù)測某學生能否被大學錄取。

3.數(shù)據(jù)集:文件 ex2data1.txt ,第一列、第二列分別表示申請者兩次
考試的成績,第三列表示錄取結(jié)果(1 表示錄取,0 表示不錄取)。

二、目的

1.理解邏輯回歸模型

2.掌握邏輯回歸模型的參數(shù)估計算法

三、平臺

1.硬件:計算機

2.操作系統(tǒng):WINDOWS

3.編程軟件:Pycharm

4.開發(fā)語言:python

四、基本原理

注:基本原理是我們在學習邏輯回歸過程中的一些總結(jié),包括為什么要選擇對數(shù)損失函數(shù)等。

4.1 邏輯回歸

邏輯回歸就是將樣本的特征可樣本發(fā)生的概率聯(lián)合起來,概率就是一個數(shù),所以就是解決分類問題,一般解決二分類問題。
對于線性回歸中,f ( x ) = w T x + b ,這里 f ( x ) 的范圍為[ − ∞ , + ∞ ],說明通過線性回歸中我們可以求得任意的一個值。對于邏輯回歸來說就是概率,這個概率取值需要在區(qū)間[0,1]內(nèi),通常我們使用Sigmoid函數(shù)表示。

Sigmoid函數(shù)其表達式為(2)

最終我們可以通過Sigmoid函數(shù)求出對于每組自變量使得因變量預(yù)測為1的概率P;

即:

(當P>0.5時預(yù)測為1,小于0.5為0)
在分類情況下,經(jīng)過學習后的LR分類器其實就是一組權(quán)值θ ,當有測試樣本輸入時,這組權(quán)值與測試數(shù)據(jù)按照加權(quán)得到

之后按照Sigmoid函數(shù)的形式求出

從而去判斷每個測試樣本所屬的類別。

4.2 損失函數(shù)

實驗一我們做線性回歸模型時,給出了線性回歸的代價函數(shù)的形式(誤差平方和函數(shù)),具體形式如:

但是并不能應(yīng)用到邏輯回歸中,這是因為LR的假設(shè)函數(shù)的外層函數(shù)是Sigmoid函數(shù),Sigmoid函數(shù)是一個復(fù)雜的非線性函數(shù),這就使得我們將邏輯回歸的假設(shè)函數(shù)

帶入上式時,我們得到的 是一個非凸函數(shù),如下圖:

因此,此處我們需要重新考慮損失函數(shù);
在邏輯回歸中,我們最常用的損失函數(shù)為對數(shù)損失函數(shù),對數(shù)損失函數(shù)可以為LR提供一個凸的代價函數(shù),有利于使用梯度下降對參數(shù)求解。對數(shù)函數(shù)圖像如圖:

藍色的曲線表示的是對數(shù)函數(shù)的圖像,紅色的曲線表示的是負對數(shù) 的圖像,該圖像在0-1區(qū)間上有一個很好的性質(zhì),如圖粉紅色曲線部分。在0-1區(qū)間上當z=1時,函數(shù)值為0,而z=0時,函數(shù)值為無窮大。這就可以和代價函數(shù)聯(lián)系起來,在預(yù)測分類中當算法預(yù)測正確其代價函數(shù)應(yīng)該為0;當預(yù)測錯誤,我們就應(yīng)該用一個很大代價(無窮大)來懲罰我們的學習算法,使其不要輕易預(yù)測錯誤。
因此,我們重新定義邏輯回歸的代價函數(shù)為:



損失函數(shù)的求解為:

五、實驗步驟

1.數(shù)據(jù)可視化

在python中通過文件導(dǎo)入數(shù)據(jù),并使用matlibplot工具建立對應(yīng)散點圖:

需要注意的是,我們的theta是三元組,θ0對應(yīng)的X特征值固定為1,因此讀取數(shù)據(jù)時,如上圖最左側(cè)加入一個1;

可以看到,被錄取與不被錄取的數(shù)據(jù)有較為清晰的一個界限,接下來我們要求解的就是這條界線;

2. 將線性回歸參數(shù)初始化為0,計算代價函數(shù)(cost function)的初始值

根據(jù)基本原理中的代價計算公式,這里將sigmoid、損失公式代碼化:

將theta初始化為(0,0,0)后,直接調(diào)用cost函數(shù)求值:

得到代價函數(shù)初始值:

3. 選擇一種優(yōu)化方法求解邏輯回歸參數(shù)

(1)梯度下降法

我們選擇先用梯度下降法來觀察theta參數(shù)結(jié)果;
梯度下降算法代碼實現(xiàn)如圖:

X:對于線性回歸中的常量b,我們可以將它的系數(shù)視為1,然后和變量x組成一個m行3列的矩陣,其中m是數(shù)據(jù)規(guī)模,這個矩陣就是X。
Y:一個m行1列的矩陣,對應(yīng)是否錄取。
alpha:學習率
第一步,將我們的Θ初始化為[[0][0][0]]。
第二步,對于給定的步長alpha和此時的梯度gradient,更新我們的theta。然后計算此時thrta對應(yīng)的梯度更新gradient。
第三步,重復(fù)第二步30萬次
第四步,返回theta,即為我們線性回歸的參數(shù)。

但是,對于邏輯回歸來說,這里遇到了一個問題,那就是alpha和迭代次數(shù)的取值,如果alpha過小,損失函數(shù)將收斂的非常慢,迭代次數(shù)達到40萬時才勉強收斂,但如果alpha過大,又會導(dǎo)致過大的步長使得準確率下降;
alpha = 0.001時的收斂函數(shù),在50萬次時收斂: 0.005時在25萬次時收斂;

而如果alpha繼續(xù)增大(如0.01),將導(dǎo)致不夠準確,其界限與收斂圖形如下:

(界限太差,僅80%準確率,且需要20萬次迭代)
因此,我們在運行該數(shù)據(jù)時需要運行稍長的時間;alpha=0.005,迭代次數(shù)為30萬時可以得到一組回歸參數(shù):

它的劃分邊界如圖所示,其準確率為92%:該參數(shù)的劃分準確率計算方法如下:

測試準確率:

比較簡單,預(yù)測正確則加一,最后除以全部樣本數(shù)。

(2)牛頓迭代法

因為上述的迭代下降法所需迭代次數(shù)過多,因此這里使用一種優(yōu)化方法來求解參數(shù);

方法介紹

牛頓迭代法的原理較為復(fù)雜,因此不在這里寫出來。
對比這牛頓迭代法方法與梯度下降法的參數(shù)更新公式可以發(fā)現(xiàn),兩種方法不同在于牛頓法中多了一項二階導(dǎo)數(shù),這項二階導(dǎo)數(shù)對參數(shù)更新的影響主要體現(xiàn)在 改變參數(shù)更新方向上。

如圖所示,紅色是牛頓法參數(shù)更新的方向,綠色為梯度下降法參數(shù)更新方向,因為牛頓法考慮了二階導(dǎo)數(shù),因而可以找到更優(yōu)的參數(shù)更新方向,在每次更新的步幅相同的情況下,可以比梯度下降法節(jié)省很多的迭代次數(shù)。
迭代過程:

代碼實現(xiàn)

h值為sigmoid函數(shù)求得的概率;
J為一階偏導(dǎo)數(shù)
H為Hession矩陣(海森矩陣),二階偏導(dǎo)數(shù)

牛頓迭代法得到的theta:

優(yōu)點

對于同樣的學習率alpha = 0.005,cost僅需要1000次迭代就差不多收斂了;
而如果放大alpha,如alpha = 0.5,那么它只需要迭代10次即可收斂。

并且準確率保持在89%(數(shù)據(jù)較小);

3. 某學生兩次考試成績分別為 42、85,預(yù)測其被錄取的概率

這里直接使用sigmoid函數(shù)以及牛頓迭代法求得的theta來進行其概率的計算:

得到結(jié)果:

即,y=1的概率為0.65145509,也就是被錄取的概率

4. 畫出分類邊界

在上面已經(jīng)畫出了梯度下降法的分類邊界,這里給出牛頓迭代法的邊界

到此這篇關(guān)于Python機器學習之邏輯回歸的文章就介紹到這了,更多相關(guān)Python邏輯回歸內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • python實現(xiàn)AdaBoost算法的示例
  • 使用python-cv2實現(xiàn)Harr+Adaboost人臉識別的示例
  • Python基于OpenCV庫Adaboost實現(xiàn)人臉識別功能詳解
  • Python 機器學習工具包SKlearn的安裝與使用
  • python機器學習之線性回歸詳解
  • python機器學習包mlxtend的安裝和配置詳解
  • Python機器學習算法庫scikit-learn學習之決策樹實現(xiàn)方法詳解
  • python 機器學習之支持向量機非線性回歸SVR模型
  • Python機器學習之AdaBoost算法

標簽:黑龍江 常德 鷹潭 惠州 四川 黔西 上海 益陽

巨人網(wǎng)絡(luò)通訊聲明:本文標題《Python機器學習之邏輯回歸》,本文關(guān)鍵詞  Python,機器,學,習之,邏輯,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請?zhí)峁┫嚓P(guān)信息告之我們,我們將及時溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《Python機器學習之邏輯回歸》相關(guān)的同類信息!
  • 本頁收集關(guān)于Python機器學習之邏輯回歸的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章
    主站蜘蛛池模板: 日本一级特黄大片大全下载| 91久久精品视频| 国产激情一区二区三区景甜| 欧美性大作XXXX久久久久3D| 欧美成本人视频| IPHONE14欧美日韩版本| 本子网站免费同人图| 一级a性色生活片久久毛片| 白丝h视频| 亚州综合网| 被男同桌强摁做开腿呻吟| 99久久精品免费看电影| 女高中生被调教侵犯在线观看| 特级毛片免费| 好大好硬好爽快点进来丝袜| 亚洲 成人 综合 另类 小说| 午夜理论片| 特一级电影| 雷狮在安迷修的体内塞| 77788色淫网站女女免费视频| 波多野结衣28部经典作品| 久久久亚洲熟妇熟女ⅩXXX图| 97超频国产在线公开免费视频| 大??美女禁?www| 波多野吉衣42部在线播放| 古装伦理电影| 欧美精品免费看| 男人边吃奶边爆c娇喘H漫画| 混战几p都数不过来| 小混球by天桥流浪香| 九浅一深还是九深一浅哪个好| 亚洲第一二三区| 教室内污辱女教师hd在线观看| 国产精品第一| 91精产国品一二三产区| 国产明星午夜福利视频| 爱我久久tv电影| 99pao在线视频成精品| 蜜挑成熟时| 男女野外做爰全过| 白丝美女被狂躁免费漫画|