成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

不同神經(jīng)網(wǎng)絡(luò)之間的區(qū)別,僅僅只是網(wǎng)絡(luò)結(jié)構(gòu)的不同,明白了這個(gè)你才能知道應(yīng)該怎么學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

人工智能
神經(jīng)網(wǎng)絡(luò)模型的主要難點(diǎn)就在于模型本身,而至于模型的效果還與其訓(xùn)練數(shù)據(jù)和過(guò)程有關(guān)。

在學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)技術(shù)的過(guò)程中,會(huì)有多種不同的神經(jīng)網(wǎng)絡(luò)架構(gòu);如常見(jiàn)的RNN,CNN等;因此,我們很多人都會(huì)被這些亂七八糟的神經(jīng)網(wǎng)絡(luò)架構(gòu)給迷惑住,即想學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)又不知道應(yīng)該怎么入手;面對(duì)各種各樣的網(wǎng)絡(luò)模型,也不知道應(yīng)該去學(xué)習(xí)哪種。

但是,我們從問(wèn)題的最本質(zhì)出發(fā),不同的神經(jīng)網(wǎng)絡(luò)唯一的區(qū)別就是網(wǎng)絡(luò)結(jié)構(gòu)的不同;之所以有多種神經(jīng)網(wǎng)絡(luò)模型的原因就在于不同的網(wǎng)絡(luò)架構(gòu)能夠完成不同的任務(wù)。

比如,RNN適合文本處理,機(jī)器翻譯;CNN適合圖像處理等。

神經(jīng)網(wǎng)絡(luò)架構(gòu)

在上一篇文章中——怎么實(shí)現(xiàn)一個(gè)神經(jīng)網(wǎng)絡(luò)?神經(jīng)網(wǎng)絡(luò)的組成結(jié)構(gòu)中,實(shí)現(xiàn)一個(gè)神經(jīng)網(wǎng)絡(luò)基本上需要經(jīng)過(guò)統(tǒng)一的幾個(gè)步驟;數(shù)據(jù)集,模型設(shè)計(jì),模型訓(xùn)練等。

數(shù)據(jù)集根據(jù)不同的任務(wù)類(lèi)型,需要整理和設(shè)計(jì)不同的數(shù)據(jù);而模型設(shè)計(jì)就涉及到不同的模型架構(gòu),如圖片處理就可以使用CNN架構(gòu);文字處理就可以使用RNN或Transformer架構(gòu)等;或者用戶(hù)根據(jù)自己的需求自定義神經(jīng)網(wǎng)絡(luò)架構(gòu)。

所以,從這個(gè)角度來(lái)看,一個(gè)可以使用的神經(jīng)網(wǎng)絡(luò)模型,從流程上來(lái)看幾乎都是相同的;區(qū)別只是神經(jīng)網(wǎng)絡(luò)架構(gòu)的異同,但具體的架構(gòu)是由具體的任務(wù)類(lèi)型所決定的;而不是由神經(jīng)網(wǎng)絡(luò)模型本身所決定的。

甚至在很多情況下,會(huì)把多種神經(jīng)網(wǎng)絡(luò)架構(gòu)結(jié)合起來(lái)使用。

因此,對(duì)我們這些學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)技術(shù)的人來(lái)說(shuō);我們首先需要的并不是去學(xué)習(xí)哪些復(fù)雜的神經(jīng)網(wǎng)絡(luò)模型,而是應(yīng)該從最簡(jiǎn)單的模型結(jié)構(gòu)開(kāi)始;比如說(shuō)神經(jīng)網(wǎng)絡(luò)技術(shù)中的Hello World——MINST手寫(xiě)數(shù)字識(shí)別。

為什么很多神經(jīng)網(wǎng)絡(luò)的課程中都會(huì)把MINST手寫(xiě)數(shù)字識(shí)別作為第一個(gè)神經(jīng)網(wǎng)絡(luò)教程?以及MINST神經(jīng)網(wǎng)絡(luò)模型能成為一個(gè)經(jīng)典模型?

原因就在于MINST神經(jīng)網(wǎng)絡(luò)模型——麻雀雖小,但五臟俱全。

在文章的開(kāi)始,就介紹說(shuō)不同神經(jīng)網(wǎng)絡(luò)模型的主要區(qū)別就在于模型結(jié)構(gòu)的不同;而MINST神經(jīng)網(wǎng)絡(luò)模型的結(jié)構(gòu)特別簡(jiǎn)單;加上輸入輸出層也僅僅只是一個(gè)三層模型。

MINST手寫(xiě)數(shù)字識(shí)別模型,由一個(gè)輸入層,以及兩個(gè)全鏈接層組成(第二個(gè)全鏈接層也就是輸出層);因此其模型結(jié)構(gòu)特別簡(jiǎn)單,模型結(jié)構(gòu)代碼如下,由P yTorch實(shí)現(xiàn):

# 定義神經(jīng)網(wǎng)絡(luò)
class MINSTNetwork(nn.Module):    
  def __init__(self):        
    super(Network, self).__init__()        
    # 線(xiàn)性層1 輸入層和隱藏層之間的線(xiàn)性層        
    self.layer1 = nn.Linear(784, 256)        
    self.layer2 = nn.Linear(256, 10) 
       
    # 前向傳播 forward 函數(shù)中 輸入圖像為x    
    def forward(self, x):        
      x = x.view(-1, 28 * 28)  # 使用view函數(shù) 將x展平作為輸入層        
      x = self.layer1(x)  # 將x輸入至layer1        
      x = torch.relu(x)  # 使用relu激活        
      return self.layer2(x)  # 輸入至layer2計(jì)算結(jié)果

以上代碼即為MINST神經(jīng)網(wǎng)絡(luò)模型的模型結(jié)構(gòu);layer1和layer2即為兩個(gè)全鏈接層;784是手寫(xiě)數(shù)字識(shí)別的圖片——1*28*28,也就是784個(gè)神經(jīng)元作為輸入層;而中間的256就屬于用戶(hù)自定義神經(jīng)元的個(gè)數(shù)。

MINST手寫(xiě)數(shù)字識(shí)別神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)圖如下所示,只不過(guò)代碼中的中間層神經(jīng)網(wǎng)絡(luò)個(gè)數(shù)為256。

我想很多對(duì)神經(jīng)網(wǎng)絡(luò)感興趣或者在學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)的技術(shù)人員,都看過(guò)和實(shí)現(xiàn)過(guò)以上圖片和代碼;但網(wǎng)絡(luò)上很多教程都只是介紹,這樣就可以實(shí)現(xiàn)一個(gè)手寫(xiě)數(shù)字識(shí)別的神經(jīng)網(wǎng)絡(luò)模型;但從來(lái)卻沒(méi)有講過(guò)這到底是為什么。

而由此這里也帶來(lái)了一個(gè)問(wèn)題,即為什么一個(gè)神經(jīng)網(wǎng)絡(luò)經(jīng)過(guò)兩個(gè)全鏈接層,以及在兩個(gè)全鏈接層經(jīng)過(guò)一次激活函數(shù)之后,就可以實(shí)現(xiàn)手寫(xiě)數(shù)字的分類(lèi)?

下圖是詢(xún)問(wèn)DeepSeek得到的回答:

訓(xùn)練過(guò)程:

  • 輸入數(shù)據(jù):28x28 的圖像展平為 784 維向量。
  • 第一次全連接層:將 784 維向量映射到 128 維隱藏層。
  • 激活函數(shù):使用 ReLU 引入非線(xiàn)性。
  • 第二次全連接層:將 128 維隱藏層映射到 10 維輸出層。
  • 輸出:通過(guò) Softmax 函數(shù)得到 10 個(gè)類(lèi)別的概率分布。

從DP的回答來(lái)看,它也沒(méi)完全說(shuō)明白為什么兩次全鏈接就可以完成手寫(xiě)數(shù)字識(shí)別;雖然它說(shuō)了兩個(gè)全鏈接層就可以學(xué)習(xí)到輸入數(shù)據(jù)的非線(xiàn)性特征;但具體原因是什么? 

而這也是目前學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)模型最疑惑的地方? 

為什么經(jīng)過(guò)神經(jīng)網(wǎng)絡(luò)的變換之后,神經(jīng)網(wǎng)絡(luò)就可以學(xué)習(xí)到數(shù)據(jù)的特征;并以此生成新的內(nèi)容;當(dāng)然也可能是作者的數(shù)學(xué)功底不好,沒(méi)有真正去深入研究過(guò)神經(jīng)網(wǎng)絡(luò)模型的底層數(shù)學(xué)原理。

目前來(lái)看,在學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)模型的過(guò)程中,從零開(kāi)始大模型開(kāi)發(fā)與微調(diào)算是一本比較專(zhuān)業(yè),也比較好的書(shū);作者在剛開(kāi)始學(xué)習(xí)的過(guò)程中,發(fā)現(xiàn)看不太懂這本書(shū),但現(xiàn)在有了一定的基礎(chǔ)之后,再看這本書(shū)發(fā)現(xiàn)寫(xiě)的是真有水平。從簡(jiǎn)到難,從理論到實(shí)踐都包含在內(nèi)。而現(xiàn)在這本書(shū)也是作者經(jīng)常看的一本書(shū),雖然有些東西還是看不懂,但過(guò)段時(shí)間再看發(fā)現(xiàn)就能看懂了。

責(zé)任編輯:趙寧寧 來(lái)源: AI探索時(shí)代
相關(guān)推薦

2023-04-19 10:17:35

機(jī)器學(xué)習(xí)深度學(xué)習(xí)

2025-03-05 14:00:00

2025-02-25 14:13:31

2020-07-03 08:45:26

神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

2025-03-05 08:00:00

2016-05-13 19:05:24

2020-08-06 10:11:13

神經(jīng)網(wǎng)絡(luò)機(jī)器學(xué)習(xí)算法

2018-07-03 16:10:04

神經(jīng)網(wǎng)絡(luò)生物神經(jīng)網(wǎng)絡(luò)人工神經(jīng)網(wǎng)絡(luò)

2017-08-07 11:36:04

神經(jīng)網(wǎng)絡(luò)數(shù)學(xué)BP

2018-05-16 09:41:13

神經(jīng)網(wǎng)絡(luò)NN函數(shù)

2018-03-22 13:34:59

TensorFlow神經(jīng)網(wǎng)絡(luò)

2021-06-22 09:46:52

神經(jīng)網(wǎng)絡(luò)人工智能深度學(xué)習(xí)

2025-02-19 15:12:17

神經(jīng)網(wǎng)絡(luò)PyTorch大模型

2021-03-29 09:02:24

深度學(xué)習(xí)預(yù)測(cè)間隔

2023-06-18 23:00:39

神經(jīng)網(wǎng)絡(luò)損失函數(shù)隨機(jī)變量

2013-08-21 10:04:32

大數(shù)據(jù)Gartner

2019-03-01 10:42:10

折疊手機(jī)iPhone智能手機(jī)

2017-09-10 07:07:32

神經(jīng)網(wǎng)絡(luò)數(shù)據(jù)集可視化

2016-12-27 14:24:57

課程筆記神經(jīng)網(wǎng)絡(luò)

2019-05-17 15:48:16

神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)人工智能
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

主站蜘蛛池模板: 亚洲精品久久久久久一区二区 | 天堂久久av | 日本黄色高清视频 | 中文字幕第三页 | 在线中文av| 在线免费国产视频 | 亚洲精品女优 | 羞羞在线观看视频 | 日本精品裸体写真集在线观看 | 91视视频在线观看入口直接观看 | 99热成人在线| 毛片大全| 国产精品福利一区二区三区 | 激情网站在线 | 欧美激情a∨在线视频播放 成人免费共享视频 | 久久婷婷色 | 日韩不卡在线 | 久久黄色网 | 国产视频第一页 | 自拍偷拍小视频 | 午夜视频免费在线 | 久久精品成人一区 | 成人不卡视频 | 免费观看羞羞视频网站 | 亚洲国产精品成人无久久精品 | 一级日批片| 亚洲黄色视屏 | 麻豆久久久久久 | 久久国产精品一区二区 | 精品二区 | 国产日韩一区 | 欧美成人一区二区三区 | 日韩二区 | 在线观看av中文字幕 | 色视频成人在线观看免 | 九色网址 | 国产成人99久久亚洲综合精品 | 欧美日韩在线免费观看 | 免费看片国产 | 国产精品国产三级国产aⅴ无密码 | 天天干人人 |