成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

終于把神經網絡中的激活函數搞懂了!!!

人工智能
激活函數是神經網絡中的核心組件之一,其主要作用是在每個神經元中為輸入信號提供非線性變換。如果沒有激活函數,神經網絡將充當簡單的線性模型。

今天給大家分享神經網絡中的一個關鍵概念,激活函數

激活函數是神經網絡中的核心組件之一,其主要作用是在每個神經元中為輸入信號提供非線性變換。如果沒有激活函數,神經網絡將充當簡單的線性模型。

激活函數的作用

激活函數的引入使得神經網絡可以學習和表示復雜的非線性關系,從而解決一些線性模型無法處理的問題。

圖片圖片

  1. 非線性化
    神經網絡的每一層通常是線性運算(如線性變換),如果不加入激活函數,整個網絡將只是線性模型的堆疊,無論多少層都仍是線性的。
    激活函數通過引入非線性因素,使網絡能夠逼近任意復雜的非線性函數。
  2. 控制神經元的激活
    激活函數對輸入信號進行處理后輸出,控制著每個神經元的激活程度。
    某些激活函數會將輸出壓縮到一定范圍內,從而使網絡的輸出更加穩定。
  3. 梯度傳遞
    在反向傳播中,激活函數還會影響梯度的傳遞。
    合適的激活函數能夠使梯度在網絡中有效傳播,避免梯度消失或爆炸的問題(如 ReLU 激活函數在深度網絡中有顯著優勢)。

常見的激活函數

下面,我們一起來看一下神經網絡中常見的激活函數。

1.Sigmoid

Sigmoid 是一種 S 形曲線函數,將輸入壓縮到 (0,1) 之間,通常用于二分類問題。

圖片圖片

優點

  • 將輸入值映射到 (0, 1) 范圍內,非常適合二分類問題中的概率輸出。

缺點

  • 容易出現梯度消失問題,在反向傳播中,當輸入較大或較小時,導數趨近于零,使得梯度傳遞較慢,導致深層網絡的訓練效率降低。
  • 不以零為中心,導致梯度更新不平衡。
import numpy as np
def sigmoid(x):
    return 1 / (1 + np.exp(-x))

2.Tanh

Tanh 是 Sigmoid 的改進版本,輸出范圍在 (-1, 1),對稱于零。

圖片圖片

優點

  • 輸出范圍在 (-1, 1) 之間,使得正負值更加均衡,適合用作隱藏層的激活函數。
  • 零點對稱,可以更好地解決梯度消失問題,收斂速度比 Sigmoid 更快。

缺點

  • 在輸入值較大或較小時,依然存在梯度消失的問題,導致深層網絡的訓練困難。
def tanh(x):
    return np.tanh(x)

3.ReLU

ReLU 是最常用的激活函數之一,對正數直接輸出,對負數輸出零。

圖片圖片

優點

  • 簡單高效,且在正數區梯度始終為 1,能夠緩解梯度消失問題。
  • 計算速度快,常用于深層神經網絡。

缺點

  • 存在“死亡神經元”問題,輸入為負時輸出為零,可能導致某些神經元永遠不被激活。
def relu(x):
    return np.maximum(0, x)

4.Leaky ReLU

Leaky ReLU 是 ReLU 的改進版,負數區域的輸出為輸入的一個小比例,以解決“死亡神經元”問題。

圖片圖片

其中 是一個很小的正數,通常取 0.01。

優點

  • 保留負數區域的小梯度,減少神經元死亡的風險。
  • 保持 ReLU 的大部分優勢。

缺點

  • 引入了一個額外的參數 ,需要手動設置。
def leaky_relu(x, alpha=0.01):
    return np.where(x > 0, x, alpha * x)

5.PReLU

PReLU 是 Leaky ReLU 的變體,負區域的斜率參數 可以在訓練中自動學習。

圖片圖片

優點

  • 負區域的斜率參數 可學習,模型能夠自動適應數據特性。

缺點

  • 增加了模型復雜性和計算成本,因為需要學習額外的參數。
def prelu(x, alpha):
    return np.where(x > 0, x, alpha * x)

6.ELU

ELU 是 ReLU 的另一種改進版本,ELU 在正值區域與 ReLU 相同,但在負值區域應用指數函數進行變換。

圖片圖片

優點

  • 在負區域輸出接近零,有助于加快收斂。
  • 可以減少梯度消失的現象。

缺點

  • 計算開銷較高,不如 ReLU 高效。
def elu(x, alpha=1.0):
    return np.where(x > 0, x, alpha * (np.exp(x) - 1))

7.Swish

Swish 是一種平滑的激活函數,常常在深層網絡中表現優于 ReLU 和 Sigmoid。

圖片圖片

其中 是 Sigmoid 函數。

優點

  • 平滑且輸出無界,有更好的梯度流動性質,性能上往往優于 ReLU。
  • 在深層神經網絡中表現良好,可以提高模型準確性。

缺點

  • 計算量大于 ReLU,尤其在大規模神經網絡中。
def swish(x):
    return x * sigmoid(x)

8.Softmax

Softmax 通常用于多分類任務的輸出層,將輸出值歸一化到 [0, 1] 范圍,總和為 1,可以理解為概率分布。

圖片圖片

優點

  • 將輸出值轉換為概率,便于多分類任務。
  • 可以通過最大值索引確定類別。

缺點

  • 僅適合用于輸出層,而不適合隱藏層。
  • 對輸入值的極端變化敏感。
def softmax(x):
    exp_x = np.exp(x - np.max(x))  # 減去最大值避免指數爆炸
    return exp_x / np.sum(exp_x, axis=0)


責任編輯:武曉燕 來源: 程序員學長
相關推薦

2024-07-24 08:04:24

神經網絡激活函數

2024-09-12 08:28:32

2024-10-17 13:05:35

神經網絡算法機器學習深度學習

2024-10-28 00:38:10

2024-11-15 13:20:02

2025-02-21 08:29:07

2024-12-12 00:29:03

2024-09-20 07:36:12

2024-12-02 01:10:04

神經網絡自然語言DNN

2024-10-05 23:00:35

2024-09-26 07:39:46

2024-11-05 12:56:06

機器學習函數MSE

2024-07-17 09:32:19

2024-09-23 09:12:20

2024-10-16 07:58:48

2024-12-03 08:16:57

2024-08-01 08:41:08

2024-10-08 15:09:17

2024-10-08 10:16:22

2024-10-28 15:52:38

機器學習特征工程數據集
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 一区二区三区四区日韩 | 久久久久久国产精品免费免费 | 521av网站| 免费看国产片在线观看 | 国产精品完整版 | 91玖玖| 一区二区三区四区国产 | 久久精品超碰 | 视频在线一区二区 | 天天看天天操 | 日韩av成人在线观看 | 国产sm主人调教女m视频 | 久久精品国产一区老色匹 | 久久中文免费视频 | 午夜免费网站 | 69亚洲精品| 九九色九九 | 国产高清免费 | 91视频导航 | 久久成人18免费网站 | 9久9久9久女女女九九九一九 | 亚洲一区二区免费电影 | 欧美精品一区二区三区在线 | a级大片免费观看 | www.色婷婷| 在线视频一区二区 | 日日干日日射 | 国产精品日韩在线观看一区二区 | 在线视频 中文字幕 | 国产精品美女久久久久久久网站 | 美女福利视频网站 | 久久精品国产免费高清 | 懂色中文一区二区三区在线视频 | 久在线 | 欧美精品video| 久久精品日 | 欧美精品一区二区三区四区 在线 | 欧美视频免费在线 | 成人欧美一区二区三区黑人孕妇 | 天久久 | 久久久久久久久久久高潮一区二区 |