国产片侵犯亲女视频播放_亚洲精品二区_在线免费国产视频_欧美精品一区二区三区在线_少妇久久久_在线观看av不卡

腳本之家,腳本語言編程技術(shù)及教程分享平臺!
分類導(dǎo)航

Python|VBS|Ruby|Lua|perl|VBA|Golang|PowerShell|Erlang|autoit|Dos|bat|

服務(wù)器之家 - 腳本之家 - Python - Python機(jī)器學(xué)習(xí)pytorch交叉熵?fù)p失函數(shù)的深刻理解

Python機(jī)器學(xué)習(xí)pytorch交叉熵?fù)p失函數(shù)的深刻理解

2022-01-23 22:20Ezail_xdu Python

這篇文章主要為大家介紹了Python機(jī)器學(xué)習(xí)中對交叉熵?fù)p失函數(shù)的深刻理解,文中作出了詳細(xì)易懂的講解,有需要的朋友可以借鑒參考下希望能夠有所幫助

說起交叉熵?fù)p失函數(shù)「Cross Entropy Loss」,腦海中立馬浮現(xiàn)出它的公式:

Python機(jī)器學(xué)習(xí)pytorch交叉熵?fù)p失函數(shù)的深刻理解

我們已經(jīng)對這個交叉熵函數(shù)非常熟悉,大多數(shù)情況下都是直接拿來使用就好。但是它是怎么來的?為什么它能表征真實(shí)樣本標(biāo)簽和預(yù)測概率之間的差值?上面的交叉熵函數(shù)是否有其它變種?

 

1.交叉熵?fù)p失函數(shù)的推導(dǎo)

我們知道,在二分類問題模型:例如邏輯回歸「Logistic Regression」、神經(jīng)網(wǎng)絡(luò)「Neural Network」等,真實(shí)樣本的標(biāo)簽為 [0,1],分別表示負(fù)類和正類。模型的最后通常會經(jīng)過一個 Sigmoid 函數(shù),輸出一個概率值,這個概率值反映了預(yù)測為正類的可能性:概率越大,可能性越大。
Sigmoid 函數(shù)的表達(dá)式和圖形如下所示:

Python機(jī)器學(xué)習(xí)pytorch交叉熵?fù)p失函數(shù)的深刻理解

Python機(jī)器學(xué)習(xí)pytorch交叉熵?fù)p失函數(shù)的深刻理解

其中 s 是模型上一層的輸出,Sigmoid 函數(shù)有這樣的特點(diǎn):s = 0 時,g(s) = 0.5;s >> 0 時, g ≈ 1,s << 0 時,g ≈ 0。顯然,g(s) 將前一級的線性輸出映射到 [0,1] 之間的數(shù)值概率上。這里的 g(s) 就是交叉熵公式中的模型預(yù)測輸出 。

我們說了,預(yù)測輸出即 Sigmoid 函數(shù)的輸出表征了當(dāng)前樣本標(biāo)簽為 1 的概率:

Python機(jī)器學(xué)習(xí)pytorch交叉熵?fù)p失函數(shù)的深刻理解

很明顯,當(dāng)前樣本標(biāo)簽為 0 的概率就可以表達(dá)成:

Python機(jī)器學(xué)習(xí)pytorch交叉熵?fù)p失函數(shù)的深刻理解

重點(diǎn)來了,如果我們從極大似然性的角度出發(fā),把上面兩種情況整合到一起:

Python機(jī)器學(xué)習(xí)pytorch交叉熵?fù)p失函數(shù)的深刻理解

不懂極大似然估計也沒關(guān)系。我們可以這么來看:

當(dāng)真實(shí)樣本標(biāo)簽 y = 0 時,上面式子第一項(xiàng)就為 1,概率等式轉(zhuǎn)化為:

Python機(jī)器學(xué)習(xí)pytorch交叉熵?fù)p失函數(shù)的深刻理解

當(dāng)真實(shí)樣本標(biāo)簽 y = 1 時,上面式子第二項(xiàng)就為 1,概率等式轉(zhuǎn)化為:

Python機(jī)器學(xué)習(xí)pytorch交叉熵?fù)p失函數(shù)的深刻理解

兩種情況下概率表達(dá)式跟之前的完全一致,只不過我們把兩種情況整合在一起了。

重點(diǎn)看一下整合之后的概率表達(dá)式,我們希望的是概率 P(y|x) 越大越好。首先,我們對 P(y|x) 引入 log 函數(shù),因?yàn)?log 運(yùn)算并不會影響函數(shù)本身的單調(diào)性。則有:

Python機(jī)器學(xué)習(xí)pytorch交叉熵?fù)p失函數(shù)的深刻理解

我們希望 log P(y|x) 越大越好,反過來,只要 log P(y|x) 的負(fù)值 -log P(y|x) 越小就行了。那我們就可以引入損失函數(shù),且令 Loss = -log P(y|x)即可。則得到損失函數(shù)為:

Python機(jī)器學(xué)習(xí)pytorch交叉熵?fù)p失函數(shù)的深刻理解

非常簡單,我們已經(jīng)推導(dǎo)出了單個樣本的損失函數(shù),是如果是計算 N 個樣本的總的損失函數(shù),只要將 N 個 Loss 疊加起來就可以了:

Python機(jī)器學(xué)習(xí)pytorch交叉熵?fù)p失函數(shù)的深刻理解

這樣,我們已經(jīng)完整地實(shí)現(xiàn)了交叉熵?fù)p失函數(shù)的推導(dǎo)過程。

 

2. 交叉熵?fù)p失函數(shù)的直觀理解

我已經(jīng)知道了交叉熵?fù)p失函數(shù)的推導(dǎo)過程。但是能不能從更直觀的角度去理解這個表達(dá)式呢?而不是僅僅記住這個公式。好問題!接下來,我們從圖形的角度,分析交叉熵函數(shù),加深理解。

首先,還是寫出單個樣本的交叉熵?fù)p失函數(shù):

Python機(jī)器學(xué)習(xí)pytorch交叉熵?fù)p失函數(shù)的深刻理解

我們知道,當(dāng) y = 1 時

Python機(jī)器學(xué)習(xí)pytorch交叉熵?fù)p失函數(shù)的深刻理解

這時候,L 與預(yù)測輸出的關(guān)系如下圖所示:

Python機(jī)器學(xué)習(xí)pytorch交叉熵?fù)p失函數(shù)的深刻理解

看了 L 的圖形,簡單明了!橫坐標(biāo)是預(yù)測輸出,縱坐標(biāo)是交叉熵?fù)p失函數(shù) L。顯然,預(yù)測輸出越接近真實(shí)樣本標(biāo)簽 1,損失函數(shù) L 越小;預(yù)測輸出越接近 0,L 越大。因此,函數(shù)的變化趨勢完全符合實(shí)際需要的情況。

當(dāng) y = 0 時:

Python機(jī)器學(xué)習(xí)pytorch交叉熵?fù)p失函數(shù)的深刻理解

這時候,L 與預(yù)測輸出的關(guān)系如下圖所示:

Python機(jī)器學(xué)習(xí)pytorch交叉熵?fù)p失函數(shù)的深刻理解

同樣,預(yù)測輸出越接近真實(shí)樣本標(biāo)簽 0,損失函數(shù) L 越小;預(yù)測函數(shù)越接近 1,L 越大。函數(shù)的變化趨勢也完全符合實(shí)際需要的情況。

從上面兩種圖,可以幫助我們對交叉熵?fù)p失函數(shù)有更直觀的理解。無論真實(shí)樣本標(biāo)簽 y 是 0 還是 1,L 都表征了預(yù)測輸出與 y 的差距。

另外,重點(diǎn)提一點(diǎn)的是,從圖形中我們可以發(fā)現(xiàn):預(yù)測輸出與 y 差得越多,L 的值越大,也就是說對當(dāng)前模型的 “ 懲罰 ” 越大,而且是非線性增大,是一種類似指數(shù)增長的級別。這是由 log 函數(shù)本身的特性所決定的。這樣的好處是模型會傾向于讓預(yù)測輸出更接近真實(shí)樣本標(biāo)簽 y。

 

3. 交叉熵?fù)p失函數(shù)的其它形式

什么?交叉熵?fù)p失函數(shù)還有其它形式?沒錯!我剛才介紹的是一個典型的形式。接下來我將從另一個角度推導(dǎo)新的交叉熵?fù)p失函數(shù)。

這種形式下假設(shè)真實(shí)樣本的標(biāo)簽為 +1 和 -1,分別表示正類和負(fù)類。有個已知的知識點(diǎn)是Sigmoid 函數(shù)具有如下性質(zhì):

Python機(jī)器學(xué)習(xí)pytorch交叉熵?fù)p失函數(shù)的深刻理解

這個性質(zhì)我們先放在這,待會有用。

好了,我們之前說了 y = +1 時,下列等式成立:

Python機(jī)器學(xué)習(xí)pytorch交叉熵?fù)p失函數(shù)的深刻理解

如果 y = -1 時,并引入 Sigmoid 函數(shù)的性質(zhì),下列等式成立:

Python機(jī)器學(xué)習(xí)pytorch交叉熵?fù)p失函數(shù)的深刻理解

重點(diǎn)來了,因?yàn)?y 取值為 +1 或 -1,可以把 y 值帶入,將上面兩個式子整合到一起:

Python機(jī)器學(xué)習(xí)pytorch交叉熵?fù)p失函數(shù)的深刻理解

這個比較好理解,分別令 y = +1 和 y = -1 就能得到上面兩個式子。

接下來,同樣引入 log 函數(shù),得到:

Python機(jī)器學(xué)習(xí)pytorch交叉熵?fù)p失函數(shù)的深刻理解

要讓概率最大,反過來,只要其負(fù)數(shù)最小即可。那么就可以定義相應(yīng)的損失函數(shù)為:

Python機(jī)器學(xué)習(xí)pytorch交叉熵?fù)p失函數(shù)的深刻理解

還記得 Sigmoid 函數(shù)的表達(dá)式吧?將 g(ys) 帶入:

Python機(jī)器學(xué)習(xí)pytorch交叉熵?fù)p失函數(shù)的深刻理解

好咯,L 就是我要推導(dǎo)的交叉熵?fù)p失函數(shù)。如果是 N 個樣本,其交叉熵?fù)p失函數(shù)為:

Python機(jī)器學(xué)習(xí)pytorch交叉熵?fù)p失函數(shù)的深刻理解

接下來,我們從圖形化直觀角度來看。當(dāng) y = +1 時:

Python機(jī)器學(xué)習(xí)pytorch交叉熵?fù)p失函數(shù)的深刻理解

這時候,L 與上一層得分函數(shù) s 的關(guān)系如下圖所示:

Python機(jī)器學(xué)習(xí)pytorch交叉熵?fù)p失函數(shù)的深刻理解

橫坐標(biāo)是 s,縱坐標(biāo)是 L。顯然,s 越接近正無窮,損失函數(shù) L 越小;s 越接近負(fù)無窮,L 越大。

另一方面,當(dāng) y = -1 時:

Python機(jī)器學(xué)習(xí)pytorch交叉熵?fù)p失函數(shù)的深刻理解

這時候,L 與上一層得分函數(shù) s 的關(guān)系如下圖所示:

Python機(jī)器學(xué)習(xí)pytorch交叉熵?fù)p失函數(shù)的深刻理解

同樣,s 越接近負(fù)無窮,損失函數(shù) L 越小;s 越接近正無窮,L 越大。

 

4.總結(jié)

本文主要介紹了交叉熵?fù)p失函數(shù)的數(shù)學(xué)原理和推導(dǎo)過程,也從不同角度介紹了交叉熵?fù)p失函數(shù)的兩種形式。第一種形式在實(shí)際應(yīng)用中更加常見,例如神經(jīng)網(wǎng)絡(luò)等復(fù)雜模型;第二種多用于簡單的邏輯回歸模型。

需要注意的是:第一個公式中的變量是sigmoid輸出的值,第二個公式中的變量是sigmoid輸入的值。

以上就是Python機(jī)器學(xué)習(xí)交叉熵?fù)p失函數(shù)的深刻理解的詳細(xì)內(nèi)容,更多關(guān)于pytorch交叉熵?fù)p失函數(shù)的資料請關(guān)注服務(wù)器之家其它相關(guān)文章!

原文鏈接:https://blog.csdn.net/weixin_38526306/article/details/87831201

延伸 · 閱讀

精彩推薦
主站蜘蛛池模板: 毛片黄片| 91精品国产日韩91久久久久久 | 日本精品一区 | 日韩在线观看中文字幕 | 精品国产一区二区三区久久久蜜 | 成人免费小视频 | 亚洲最大的黄色网 | 久久精品视频一区 | 天天操天天碰 | 国产欧美日韩精品一区 | 国产欧美日韩精品一区 | 日本亚洲最大的色成网站www | 天天摸天天操 | 日韩一区在线播放 | 一区二区色 | 国产精品久久久久久吹潮 | 最近中文字幕 | 中文亚洲字幕 | 一区二区免费 | 日韩成人一区 | 免费一区在线观看 | 日本久久网 | 欧美电影一区 | 亚洲视频在线免费观看 | 91精品一久久香蕉国产线看观看新通道出现 | 亚洲精品综合 | 色狠狠一区二区三区香蕉 | 在线看国产| 色婷婷国产精品综合在线观看 | 国产精品色一区二区三区 | 亚洲成人福利网 | 日韩中文字幕在线播放 | 国产一区二区三区免费看 | 国产午夜精品久久久久久久 | 亚洲精品毛片一区二区 | 国产精品久久久久久久久图文区 | 亚洲 欧美 另类 综合 偷拍 | 精品在线看| 久久久久久国产 | 国产 欧美 日韩 一区 | 精品久 |