成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

終于把神經網絡中的激活函數搞懂了!

人工智能
在神經網絡中,激活函數(Activation Function)是神經元計算的一部分,決定了一個神經元在接收到輸入信號后的輸出。

大家好,我是小寒。

今天給大家分享神經網絡中的一個重要知識點,激活函數

在神經網絡中,激活函數(Activation Function)是神經元計算的一部分,決定了一個神經元在接收到輸入信號后的輸出。

激活函數通過引入非線性特性,使神經網絡能夠學習復雜的模式和表示。

什么是激活函數

激活函數使神經網絡能夠學習和模擬輸入數據和目標變量之間復雜的非線性關系。

通過引入非線性特性,激活函數可以幫助網絡處理涉及復雜函數映射的任務,而這些任務僅靠線性函數無法解決。

圖片圖片

實際上,在神經網絡中,神經元的輸出是通過對輸入特征 X 及其相應權重 W 的乘積加上偏差 b 

然后,將該線性組合傳遞到激活函數 f(x),從而引入必要的非線性和輸出信號。

現在,這些信號成為后續層的輸入,使網絡能夠構建數據的分層表示。

該機制確保 ANN 能夠從多樣化和非線性的數據分布中進行概括和學習。

常見的激活函數

1.Sigmoid 激活函數

Sigmoid 函數的公式為:

圖片圖片

特點:

  • 輸出范圍在 (0, 1) 之間。
  • 常用于二分類問題的輸出層。
  • 有平滑、單調遞增的特性。
  • 存在梯度消失問題,尤其在深層網絡中會導致訓練緩慢。

Python實現

import numpy as np
import matplotlib.pyplot as plt
def sigmoid(x):
 return 1 / (1 + np.exp(-x))
x = np.linspace(-10, 10, 100)
y = sigmoid(x)
plt.plot(x, y)
plt.title("Sigmoid Activation Function")
plt.show()

2.Tanh

Tanh(雙曲正切)函數的公式為:

圖片圖片

特點:

  • 輸出范圍在 (-1, 1) 之間。
  • 比 Sigmoid 更適合深層網絡,因為其輸出均值為 0,使得數據更容易居中。
  • 同樣存在梯度消失問題,但比 Sigmoid 稍微好一些。

Python 實現

def tanh(x):
 return np.tanh(x)
y = tanh(x)
plt.plot(x, y)
plt.title("Tanh Activation Function")
plt.show()

3.ReLU

ReLU(Rectified Linear Unit)函數的公式為:

圖片圖片

特點:

  • 輸出范圍在 [0, ∞) 之間。
  • 計算簡單,收斂速度快,廣泛應用于各種神經網絡中。
  • 存在 “死亡 ReLU” 問題,當輸入值為負時,梯度為 0,可能導致神經元不會再被更新。

Python 實現

def relu(x):
 return np.maximum(0, x)
y = relu(x)
plt.plot(x, y)
plt.title("ReLU Activation Function")
plt.show()

4.Leaky ReLU

Leaky ReLU 是 ReLU 的變種,允許負值通過一個很小的斜率,公式為

圖片圖片

特點

  • 解決了 ReLU 函數中神經元“死亡”的問題。
  • 允許少量的負值梯度流過,從而保持神經元的更新。

python 實現

def leaky_relu(x, alpha=0.01):
 return np.where(x > 0, x, alpha * x)
y = leaky_relu(x)
plt.plot(x, y)
plt.title("Leaky ReLU Activation Function")
plt.show()

5.PReLU

其公式為

圖片圖片

特點

  • 是 Leaky ReLU 的推廣,其中  是一個可訓練的參數。
  • 更靈活,能適應不同的數據分布。

Python實現

def prelu(x, alpha):
 return np.where(x > 0, x, alpha * x)
alpha = 0.1 # This would be learned during training
y = prelu(x, alpha)
plt.plot(x, y)
plt.title("Parametric ReLU Activation Function")
plt.show()

6.ELU

其公式為

圖片圖片

特點

  • 當 x > 0 時,ELU 的行為與 ReLU 類似,輸出為 x 本身。
  • 當 x ≤ 0 時,ELU 輸出一個負值,形如 ,其中  是一個超參數。
  • 負值部分的平滑特性可以使得平均激活接近 0,從而加快收斂速度。
  • 相較于 ReLU,ELU 在負值部分具有更好的特性,可以減輕梯度消失問題,同時保留了 ReLU 的大部分優點。

Python 實現

def elu(x, alpha=1.0):
 return np.where(x > 0, x, alpha * (np.exp(x) - 1))
y = elu(x)
plt.plot(x, y)
plt.title("ELU Activation Function")
plt.show()

7.Softmax 函數

公式為

圖片圖片

特點

  • 常用于多分類問題的輸出層。
  • 輸出的是一個概率分布,所有輸出值的和為1。

python 實現

def softmax(x):
 exp_x = np.exp(x-np.max(x))
 return exp_x / exp_x.sum(axis=0)
y = softmax(x)
plt.plot(x, y)
plt.title("Softmax Activation Function")
plt.show()

責任編輯:武曉燕 來源: 程序員學長
相關推薦

2024-11-07 08:26:31

神經網絡激活函數信號

2024-10-17 13:05:35

神經網絡算法機器學習深度學習

2024-09-12 08:28:32

2024-12-02 01:10:04

神經網絡自然語言DNN

2024-10-05 23:00:35

2024-11-15 13:20:02

2025-02-21 08:29:07

2024-10-28 00:38:10

2024-12-12 00:29:03

2024-09-20 07:36:12

2024-09-26 07:39:46

2024-11-05 12:56:06

機器學習函數MSE

2024-10-16 07:58:48

2024-12-03 08:16:57

2024-07-17 09:32:19

2024-09-23 09:12:20

2024-08-01 08:41:08

2025-02-17 13:09:59

深度學習模型壓縮量化

2024-08-23 09:06:35

機器學習混淆矩陣預測

2024-09-18 16:42:58

機器學習評估指標模型
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 国产精品入口久久 | 99国内精品久久久久久久 | 免费观看一区二区三区毛片 | 午夜小电影 | 中文字幕免费在线 | 亚洲视频免费在线播放 | 亚洲精品一区二区在线观看 | 欧美日韩在线观看视频 | 国产操操操 | 一道本视频 | 成人片网址| 精品欧美乱码久久久久久 | 免费毛片www com cn | 亚洲精品视频免费观看 | 国产成在线观看免费视频 | 亚洲一区国产精品 | 色www精品视频在线观看 | 久久久久久久久久久一区二区 | www国产成人免费观看视频 | 97精品超碰一区二区三区 | 在线一区| 欧美激情视频一区二区三区在线播放 | 久草在线高清 | 成人在线免费 | 久久99网 | 99资源站 | 日韩久久综合网 | 国产一级一片免费播放 | 日本黄色免费大片 | 99久久久久国产精品免费 | 国产精品视频在线播放 | 三级视频网站 | 狠狠色综合网站久久久久久久 | 亚洲视频在线观看 | 337p日本欧洲亚洲大胆 | 色爱综合网 | 国产午夜精品久久久久免费视高清 | 欧美日一区 | 成人亚洲 | 日日夜夜91 | 国户精品久久久久久久久久久不卡 |