一区二区三区日韩精品-日韩经典一区二区三区-五月激情综合丁香婷婷-欧美精品中文字幕专区

分享

機(jī)器學(xué)習(xí)——激活函數(shù)sigmoid、tanh、ReLU和softmax_也許明天

 univasity 2023-11-01 發(fā)布于法國(guó)

激活函數(shù),就是使得神經(jīng)網(wǎng)絡(luò)具有的擬合非線(xiàn)性函數(shù)的能力,使得其具有強(qiáng)大的表達(dá)能力!

關(guān)于激活函數(shù),首先要搞清楚的問(wèn)題是,激活函數(shù)是什么,有什么用?不用激活函數(shù)可不可以?答案是不可以

一、激活函數(shù)

1.1 什么是激活函數(shù):

多層神經(jīng)網(wǎng)絡(luò)中,上層節(jié)點(diǎn)的輸出和下層節(jié)點(diǎn)的輸入之間具有一個(gè)函數(shù)關(guān)系,這個(gè)函數(shù)稱(chēng)為激活函數(shù)(又稱(chēng)激勵(lì)函數(shù))。具體來(lái)說(shuō),神經(jīng)網(wǎng)絡(luò)中的每個(gè)神經(jīng)元節(jié)點(diǎn)接受上一層神經(jīng)元的輸出值作為本神經(jīng)元的輸入值,并將輸入值傳遞給下一層,輸入層神經(jīng)元節(jié)點(diǎn)會(huì)將輸入屬性值直接傳遞給下一層(隱層或輸出層)。

如下圖,在神經(jīng)元中,輸入的 inputs 通過(guò)加權(quán),求和后,還被作用了一個(gè)函數(shù),這個(gè)函數(shù)就是激活函數(shù) Activation Function。

1.2 那么激活函數(shù)應(yīng)該具有什么樣的性質(zhì)呢?

可微性: 當(dāng)優(yōu)化方法是基于梯度的時(shí)候,這個(gè)性質(zhì)是必須的。

單調(diào)性: 當(dāng)激活函數(shù)是單調(diào)的時(shí)候,單層網(wǎng)絡(luò)能夠保證是凸函數(shù)。

輸出值的范圍: 當(dāng)激活函數(shù)輸出值是 有限 的時(shí)候,基于梯度的優(yōu)化方法會(huì)更加 穩(wěn)定,因?yàn)樘卣鞯谋硎臼苡邢迿?quán)值的影響更顯著;當(dāng)激活函數(shù)的輸出是 無(wú)限 的時(shí)候,模型的訓(xùn)練會(huì)更加高效,不過(guò)在這種情況小,一般需要更小的learning rate。從目前來(lái)看,常見(jiàn)的激活函數(shù)多是分段線(xiàn)性和具有指數(shù)形狀的非線(xiàn)性函數(shù)。

1.3 激活函數(shù)的用途(為什么需要激活函數(shù))?

如果不用激勵(lì)函數(shù)(其實(shí)相當(dāng)于激勵(lì)函數(shù)是f(x) = x),在這種情況下你每一層節(jié)點(diǎn)的輸入都是上層輸出的線(xiàn)性函數(shù),很容易驗(yàn)證,無(wú)論你神經(jīng)網(wǎng)絡(luò)有多少層,輸出都是輸入的線(xiàn)性組合,與沒(méi)有隱藏層效果相當(dāng),這種情況就是最原始的感知機(jī)(Perceptron)了,那么網(wǎng)絡(luò)的逼近能力就相當(dāng)有限。正因?yàn)樯厦娴脑?,我們決定引入非線(xiàn)性函數(shù)作為激勵(lì)函數(shù),這樣深層神經(jīng)網(wǎng)絡(luò)表達(dá)能力就更加強(qiáng)大(不再是輸入的線(xiàn)性組合,而是幾乎可以逼近任意函數(shù))。

二、有哪些常見(jiàn)的激活函數(shù),都有什么性質(zhì)和特點(diǎn)?

激活函數(shù)可以分為兩大類(lèi) :

  • 飽和激活函數(shù): sigmoid、 tanh
  • 非飽和激活函數(shù): ReLU 、Leaky Relu   、ELU【指數(shù)線(xiàn)性單元】、PReLU【參數(shù)化的ReLU 】、RReLU【隨機(jī)ReLU】

相對(duì)于飽和激活函數(shù),使用“非飽和激活函數(shù)”的優(yōu)勢(shì)在于兩點(diǎn):
    1.首先,“非飽和激活函數(shù)”能解決深度神經(jīng)網(wǎng)絡(luò)【層數(shù)非常多??!】的“梯度消失”問(wèn)題,淺層網(wǎng)絡(luò)【三五層那種】才用sigmoid 作為激活函數(shù)。
    2.其次,它能加快收斂速度

在深度學(xué)習(xí)中,比較常用的激活函數(shù)主要有:sigmoid函數(shù)、tanh函數(shù)、ReLU函數(shù)softmax函數(shù)。下面我們將具體介紹。

2.1 Sigmoid函數(shù)

Sigmoid 是以前最常用的非線(xiàn)性的激活函數(shù),它能夠把輸入的 (-∞,+∞)范圍內(nèi) 連續(xù)實(shí)值變換為0和1之間的輸出,特別的,如果是非常大的負(fù)數(shù),那么輸出就是0;如果是非常大的正數(shù),輸出就是1。

此外,(0, 1) 的輸出還可以被表示作概率,或用于輸入的歸一化,代表性的如Sigmoid交叉熵?fù)p失函數(shù)。

公式: f(z)=\frac{1}{1+exp(-z)}

函數(shù)曲線(xiàn):

缺點(diǎn):sigmoid函數(shù)曾經(jīng)被使用的很多,不過(guò)近年來(lái),用它的人越來(lái)越少了。主要是因?yàn)樗逃械囊恍┤秉c(diǎn)。

缺點(diǎn)1:在深度神經(jīng)網(wǎng)絡(luò)中梯度反向傳遞時(shí)導(dǎo)致梯度爆炸和梯度消失,其中梯度爆炸發(fā)生的概率非常小,而梯度消失發(fā)生的概率比較大。

缺點(diǎn)2:Sigmoid 的 output 不是0均值(即zero-centered)。這是不可取的,因?yàn)檫@會(huì)導(dǎo)致后一層的神經(jīng)元將得到上一層輸出的非0均值的信號(hào)作為輸入。

缺點(diǎn)3:其解析式中含有冪運(yùn)算,計(jì)算機(jī)求解時(shí)相對(duì)來(lái)講比較耗時(shí)。對(duì)于規(guī)模比較大的深度網(wǎng)絡(luò),這會(huì)較大地增加訓(xùn)練時(shí)間。

2.2 tanh函數(shù)

Hyperbolic tangent function 雙曲正切函數(shù)將一個(gè) (-∞,+∞)范圍內(nèi) 實(shí)值輸入壓縮至 [-1, 1]的范圍,這類(lèi)函數(shù)具有平滑和漸近性,并保持單調(diào)性。

它解決了Sigmoid函數(shù)的不是zero-centered輸出問(wèn)題,與sigmoid相比,它的輸出均值是0,使得其收斂速度要比sigmoid快,減少迭代次數(shù),然而,梯度消失(gradient vanishing)的問(wèn)題和冪運(yùn)算的問(wèn)題仍然存在。

公式f(z)=tanh(z)=ez?e?zez+e?z

實(shí)際上是Sigmoid的變形,tanh(z)=2Sigmoid(2x)-1 

曲線(xiàn):

tanh函數(shù)也稱(chēng)為雙切正切函數(shù),取值范圍為[-1,1]。
tanh在特征相差明顯時(shí)的效果會(huì)很好,在循環(huán)過(guò)程中會(huì)不斷擴(kuò)大特征效果。
與 sigmoid 的區(qū)別是,tanh 是 0 均值的,因此實(shí)際應(yīng)用中 tanh 會(huì)比 sigmoid 更好。

2.3 Relu函數(shù)

Rectified Linear Unit(ReLU)  修正線(xiàn)性單元- 用于隱層神經(jīng)元輸出, 深度學(xué)習(xí)目前最常用的激活函數(shù),是一種分段線(xiàn)性函數(shù),彌補(bǔ)了sigmoid函數(shù)以及tanh函數(shù)的梯度消失問(wèn)題。

公式?(x)=max(0,x)

輸入信號(hào) <0 時(shí),輸出都是0,>0 的情況下,輸出等于輸入

曲線(xiàn):Relu函數(shù)及其導(dǎo)數(shù)的圖像

ReLU函數(shù)其實(shí)就是一個(gè)取最大值函數(shù),注意這并不是全區(qū)間可導(dǎo)的,但是我們可以取sub-gradient,如上圖所示。

ReLU雖然簡(jiǎn)單,但卻是近幾年的重要成果,有以下幾大優(yōu)點(diǎn)

1) 解決了gradient vanishing問(wèn)題 (在正區(qū)間)

2)計(jì)算速度非???,只需要判斷輸入是否大于0

3)使用梯度下降(GD)法時(shí),收斂速度更快 

缺點(diǎn)

1)ReLU的輸出不是zero-centered

2)Dead ReLU Problem,指的是某些神經(jīng)元可能永遠(yuǎn)不會(huì)被激活,導(dǎo)致相應(yīng)的參數(shù)永遠(yuǎn)不能被更新。有兩個(gè)主要原因可能導(dǎo)致這種情況產(chǎn)生: (1) 非常不幸的參數(shù)初始化,這種情況比較少見(jiàn) (2) learning rate太高導(dǎo)致在訓(xùn)練過(guò)程中參數(shù)更新太大,不幸使網(wǎng)絡(luò)進(jìn)入這種狀態(tài)。解決方法是可以采用Xavier初始化方法,以及避免將learning rate設(shè)置太大或使用adagrad等自動(dòng)調(diào)節(jié)learning rate的算法。

盡管存在這兩個(gè)問(wèn)題,ReLU目前仍是最常用的activation function,在搭建人工神經(jīng)網(wǎng)絡(luò)的時(shí)候推薦優(yōu)先嘗試!

2.4 Softmax函數(shù)

Softmax - 用于多分類(lèi)神經(jīng)網(wǎng)絡(luò)輸出

公式yk=exp(ak)i=1nexp(ai)

exp(x) 是表示 ex 的指數(shù)函數(shù)(e 是納皮爾常數(shù) 2.7182 …)。上式表示假設(shè)輸出層共有 n 個(gè)神經(jīng)元,計(jì)算第 k 個(gè)神經(jīng)元的輸出 yk。如上式所示,softmax 函數(shù)的分子是輸入信號(hào) ak 的指數(shù)函數(shù),分母是所有輸入信號(hào)的指數(shù)函數(shù)的和。

Softmax函數(shù)是用于多類(lèi)分類(lèi)問(wèn)題的激活函數(shù),在多類(lèi)分類(lèi)問(wèn)題中,超過(guò)兩個(gè)類(lèi)標(biāo)簽則需要類(lèi)成員關(guān)系。對(duì)于長(zhǎng)度為 K 的任意實(shí)向量,Softmax函數(shù)可以將其壓縮為長(zhǎng)度為 K,值在 [0,1] 范圍內(nèi),并且向量中元素的總和為 1 的實(shí)向量。
Softmax函數(shù)與正常的max函數(shù)不同:max函數(shù)僅輸出最大值,但Softmax函數(shù)確保較小的值具有較小的概率,并且不會(huì)直接丟棄。我們可以認(rèn)為它是arg?max函數(shù)的概率版本或“soft”版本。Softmax函數(shù)的分母結(jié)合了原始輸出值的所有因子,這意味著Softmax函數(shù)獲得的各種概率彼此相關(guān)。

Softmax激活函數(shù)的特點(diǎn):

  • 在零點(diǎn)不可微。
  • 負(fù)輸入的梯度為零,這意味著對(duì)于該區(qū)域的激活,權(quán)重不會(huì)在反向傳播期間更新,因此會(huì)產(chǎn)生永不激活的死亡神經(jīng)元。

此篇博客學(xué)習(xí)和部分引用以下優(yōu)秀博客:

機(jī)器學(xué)習(xí)(九):激活函數(shù) - 知乎

各種激活函數(shù)_狼刀流的博客-CSDN博客_激活函數(shù)

激活函數(shù)之softmax函數(shù)_小嘿黑15斤的博客-CSDN博客_softmax激活函數(shù)

機(jī)器學(xué)習(xí)中的數(shù)學(xué)——激活函數(shù)(七):Softmax函數(shù)_von Neumann的博客-CSDN博客_softmax激活函數(shù)

如有遺漏,可聯(lián)系我修正,謝謝~

    本站是提供個(gè)人知識(shí)管理的網(wǎng)絡(luò)存儲(chǔ)空間,所有內(nèi)容均由用戶(hù)發(fā)布,不代表本站觀(guān)點(diǎn)。請(qǐng)注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購(gòu)買(mǎi)等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊一鍵舉報(bào)。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評(píng)論

    發(fā)表

    請(qǐng)遵守用戶(hù) 評(píng)論公約

    類(lèi)似文章 更多

    中文字幕一区二区免费| 丰满人妻熟妇乱又乱精品古代| 免费黄色一区二区三区| 欧美国产在线观看精品| 激情图日韩精品中文字幕| 日韩精品你懂的在线观看| 老司机精品视频在线免费| 极品少妇一区二区三区精品视频 | 91久久国产福利自产拍| 狠色婷婷久久一区二区三区| 污污黄黄的成年亚洲毛片| 国产午夜精品美女露脸视频| 粉嫩一区二区三区粉嫩视频| 少妇淫真视频一区二区| 初尝人妻少妇中文字幕在线| 亚洲av专区在线观看| 亚洲中文字幕三区四区| 日本特黄特色大片免费观看| 一区二区三区18禁看| 亚洲深夜精品福利一区| 亚洲高清中文字幕一区二三区| 久久热九九这里只有精品| 国产主播精品福利午夜二区| 欧美精品久久99九九| 国产精品丝袜一二三区| 大香蕉久草网一区二区三区| 日本男人女人干逼视频| 殴美女美女大码性淫生活在线播放| 国产男女激情在线视频| 大胆裸体写真一区二区| 精品女同一区二区三区| 国产精品亚洲欧美一区麻豆 | 91播色在线免费播放| 免费一级欧美大片免费看| 日韩一级欧美一级久久| 亚洲日本中文字幕视频在线观看| 亚洲高清亚洲欧美一区二区| 91人妻人澡人人爽人人精品| 老熟妇2久久国内精品| 最近最新中文字幕免费| 国产精品视频一级香蕉|