成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

近萬人圍觀Hinton最新演講:前向-前向神經網絡訓練算法,論文已公開

人工智能 新聞
在 NeurIPS 2022 會議的一場特邀演講中,圖靈獎得主、深度學習先驅 Hinton 在關于深度學習影響計算機構建方式、神經網絡算法等方面分享了他的最新觀點。

NeurIPS 2022 會議正在如火如荼地進行之中,各路專家學者圍繞著深度學習、計算機視覺、大規模機器學習、學習理論、優化、稀疏理論等眾多細分領域展開交流與探討。

會上,圖靈獎得主、深度學習先驅 Geoffrey Hinton 被邀請發表演講,以表彰他十年前與其研究生 Alex Krizhevsky 和 Ilya Sutskever 共同撰寫的論文《ImageNet Classification with Deep Convolutional Neural Networks》,該論文因對該領域的「巨大影響」而被授予時間檢驗獎。這項工作發表于 2012 年,是卷積神經網絡首次在 ImageNet 圖像識別競賽中表現人類水平的能力,它是啟動第三次人工智能浪潮的關鍵事件。

圖片

Hinton 此次演講的主題為《The Forward-Forward Algorithm for Training Deep Neural Networks》。在演講中,Geoffrey Hinton 表示,「機器學習研究社區在意識到深度學習對計算機構建方式的影響上一直表現緩慢。」他認為,人工智能的機器學習形式將引發計算機系統的變革,這是一種將 AI「放入你的烤面包機」的新型軟硬結合。

他繼續說到,「我認為我們將看到一種完全不同的計算機,雖然幾年內無法實現。但我們有充分的理由來研究這種完全不同的計算機。」

圖片

構建完全不同的新型計算機

迄今為止,所有的數字計算機都被構建為「不朽」(immortal),其中硬件設計非常可靠,以便相同的軟件可以在任何地方運行。「我們可以在不同的物理硬件上運行相同的程序,知識是不朽的。」

Hinton 表示,這種設計要求意味著數字計算機已經錯過了「硬件的各種可變、隨機、不穩定、模擬和不可靠特性」,而這些特性可能對我們非常有用。

在 Hinton 看來,未來的計算機系統將采取不同的方式:它們將是「神經形態的」,并且是普通的(mortal)。這意味著每臺計算機都將是神經網絡軟件與雜亂無章硬件的緊密結合,在具有模擬而非數字元件的意義上,它可以包含不確定性因素并隨時間推移而發展。

圖片

Hinton 解釋到,「現在的替代方案是我們將放棄硬件與軟件的分離,但計算機科學家真的不喜歡這種做法。」

所謂的普通計算(mortal computation),就是系統學習到的知識和硬件是密不可分的。這些普通計算機可以「成長」,擺脫造價高昂的芯片制造廠。

Hinton 指出,如果我們這樣做了,就可以使用功耗極低的模擬計算,還能使用憶阻器權重來進行萬億次并行處理。這里指的是一種基于非線性電路元件、擁有數十年歷史的實驗芯片。此外我們還可以在不了解不同位硬件的精確行為的精準質量時發展硬件。

但是,Hinton 也表示,新的普通計算機并不會取代傳統的數字計算機,「它不是掌控你的銀行賬戶的計算機,也不會確切知道你有多少錢。」

這種計算機用于放置(即處理)其他東西,比如它可以使用一美元將 GPT-3 之類的東西「放入你的烤面包機中」,這樣只需幾瓦的功率,就可以與自己的烤面包機對話。

圖片

適合普通計算硬件的 FF 網絡

在這次演講中,Hinton 花了大部分時間談論一種新的神經網絡方法,他稱之為 Forward-Forward(FF)網絡,它取代了幾乎所有神經網絡中使用的反向傳播技術。Hinton 提出,通過去除反向傳播,前向網絡可能更合理地接近現實生活中在大腦中發生的情況。

這篇論文草稿被張貼在多倫多大學的 Hinton 主頁上:

圖片

論文鏈接:https://www.cs.toronto.edu/~hinton/FFA13.pdf

Hinton 表示,FF 方法可能更適合普通的計算硬件。「當前如果要實現這樣的事情,我們必須有一個將在專屬硬件中運行的學習程序,必須要學習利用該專屬硬件的具體屬性,而不知道所有這些屬性是什么。但我認為前向算法是一個有潛力的選項。」

他說,建造新的模擬計算機的一個障礙是,人們對在數百萬臺設備上運行一個軟件的可靠性很重視。「這些手機中的每一部都必須從一個嬰兒手機開始取代,而且它必須學習如何成為一部手機,」Hinton 說。「而這是非常痛苦的。」

即使是最擅長相關技術的工程師,也會因為擔心不確定性,而遲遲不能放棄完美的、相同的不朽計算機的范式。

Hinton 說:「在對模擬計算感興趣的人中,仍有極少數人愿意放棄不朽。這是因為對一致性、可預測性的依戀。但如果你希望模擬硬件每次都做同樣的事情,你遲早因為這些雜亂的東西遇到真正的問題。」

論文內容

在論文中,Hinton 介紹了一種新的神經網絡學習程序,并通過實驗證明它在一些小問題上的效果足夠好。具體內容如下:

反向傳播有什么問題?

過去十年,深度學習的成功確立了在大量參數和大量數據的情況下執行隨機梯度下降的有效性。梯度通常是通過反向傳播來計算的,這導致人們對大腦是否實現了反向傳播或是否有其他方式來獲得調整連接權重所需的梯度產生了興趣。

作為大腦皮層如何學習的模型,反向傳播仍然是不可信的,盡管人們做出了相當大的努力來讓它像真實的神經元一樣實施。目前沒有令人信服的證據表明大腦皮層明確地傳播誤差導數或儲存神經活動,以便在隨后的反向傳播中使用。從一個皮層區域到視覺通路中較早的區域的自上而下的連接并不像預期的那樣,即如果在視覺系統中使用反向傳播,就會出現自下而上的連接。相反,它們形成了循環,其中神經活動經過兩個區域的大約半打皮質層,然后回到它開始的地方。

通過時間的反向傳播作為學習序列的一種方式是特別不靠譜的。為了處理感官輸入流而不頻繁超時,大腦需要通過感官處理的不同階段對感官數據進行 pipeline 處理,它需要一個能「在飛行中」學習的學習程序。Pipeline 后期階段的表征可能提供自上而下的信息,在后續的時間步中影響 pipeline 早期階段的表征,但感知系統需要實時地進行推理和學習,而不需要停止執行反向傳播。

反向傳播的另一個嚴重限制是,它需要完全了解在前向傳遞中進行的計算,以便計算出正確的導數。如果我們在前向傳遞中插入一個黑匣子,那么就不可能再進行反向傳播,除非我們學習了黑匣子的可微分模型。正如我們將看到的,黑匣子根本不會改變 FF 算法的學習程序,因為不需要通過它進行反向傳播。

在沒有完美的前向傳遞模型的情況下,或許能求助于許多形式的強化學習之一。這個想法是對權重或神經活動進行隨機擾動,并將這些擾動與收益函數的變化聯系起來。但強化學習程序存在高變異性:當許多其他變量同時被擾動時,很難看到擾動一個變量的效果。為了平均化所有其他擾動造成的噪音,學習率需要與被擾動的變量數量成反比,這意味著強化學習的規模很差,對于包含數百萬或數十億參數的大型網絡,無法與反向傳播競爭。

這篇論文的主要觀點是,含有未知非線性的神經網絡不需要借助于強化學習。FF 算法的速度與反向傳播相當,但它的優點是可以在正向計算的精確細節未知時使用。它的優勢還在于可以在通過神經網絡對順序數據進行流水作業時進行學習,而不需要儲存神經活動或停止傳播誤差導數。

總體來說,FF 算法比反向傳播要慢一些,而且在本文研究的幾個 toy problem 上,它的歸納性也不太理想,所以在功率不太受限的應用中,它不太可能取代反向傳播。對于在非常大的數據集上訓練的非常大的模型,這類探索將繼續使用反向傳播。FF 算法在兩個方面可能優于反向傳播,一是作為大腦皮層的學習模型,二是作為使用非常低功率的模擬硬件而不需要借助于強化學習。

FF 算法

Forward-Forward 算法是一種貪婪的多層學習程序,其靈感來自玻爾茲曼機和噪聲對比估計。思路是用兩個前向傳遞代替反向傳播的前向和后向傳遞,這兩個前向傳遞又以完全相同的方式彼此運算,但在不同的數據上,目標也相反。其中,positive 傳遞在真實數據上運算,并調整權重以增加每個隱藏層的優點(goodness);negative 傳遞在 negative 數據上運算,并調整權重以減少每個隱藏層中的優點。

在論文中,Hinton 通過在 CIFAR-10 上的實驗展示了 FF 算法的性能。

CIFAR-10 有 50000 幅訓練圖像,這些圖像為 32 x 32 像素大小,每個像素有三個顏色通道。因此,每幅圖像有 3072 個維度。這些圖像的背景很復雜,變化很大,在如此有限的訓練數據下無法很好地建模。一般來說,有兩到三個隱藏層的全連接網絡在用反向傳播法訓練時,除非隱藏層非常小,否則過擬合效果很差,所以幾乎所有的報告結果都是卷積網絡。

由于 FF 的目的是用于權重共享不可行的網絡,所以將它與反向傳播網絡進行了比較,后者使用局部感受野來限制權重的數量,而不過于限制隱藏單元的數量。其目的只是為了表明,在有大量隱藏單元的情況下,對于包含高度可變背景的圖像,FF 的性能與反向傳播相當。

表 1 顯示了用反向傳播和 FF 訓練網絡的測試性能,這兩種方法都使用了權重衰減來減少過擬合。

圖片

更多研究細節,可參考原論文。

責任編輯:張燕妮 來源: 機器之心
相關推薦

2022-12-06 09:44:00

算法神經網絡

2024-03-08 10:57:07

2021-03-02 10:49:57

神經網絡數據圖形

2025-04-08 09:20:00

神經網絡模型訓練

2017-10-15 21:19:19

科技盛會

2012-06-14 15:55:32

諾基亞塞班

2020-02-05 18:20:07

OPPO

2013-01-24 10:14:30

網絡·安全技術周刊

2023-04-04 19:10:29

Twitter算法開源

2017-09-08 15:36:15

DNN神經網絡算法

2019-11-06 17:00:51

深度學習神經網絡人工智能

2018-04-08 11:20:43

深度學習

2017-12-22 08:47:41

神經網絡AND運算

2017-01-04 08:35:26

CES2017科技新聞早報

2009-08-26 08:49:46

IBM裁員

2014-08-05 10:31:53

360公司

2017-09-10 17:47:04

正則項RNN神經網絡

2018-05-14 10:50:13

SQL查詢語句神經網絡

2018-05-28 13:12:49

深度學習Python神經網絡

2020-05-02 10:54:13

神經網絡AI算法
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 秋霞在线一区二区 | av免费网址 | 欧美一区二区免费在线 | 久久91精品 | 精品久久久久久久人人人人传媒 | 日韩久久在线 | 国产激情一区二区三区 | 国产乱码久久久久久 | 毛片1 | 午夜理伦三级理论三级在线观看 | 成人综合一区 | 久久只有精品 | 天天躁日日躁狠狠躁2018小说 | 99国产视频 | 久久精品成人热国产成 | 日本精品一区二区在线观看 | 国产福利在线 | 美女一级毛片 | 日本黄色一级片视频 | 亚洲福利在线观看 | 亚洲人在线 | 久久久亚洲 | 国产精品一区二区在线免费观看 | 色婷婷亚洲国产女人的天堂 | 中文字幕在线一区二区三区 | 精品视频免费 | 亚洲精品国产电影 | 性色视频在线观看 | 日韩欧美二区 | 欧美一级黄 | 亚洲高清av| 色婷婷综合久久久中字幕精品久久 | 久久综合影院 | 国产一级一级国产 | 精品亚洲一区二区三区 | 国精品一区 | 成人性生交大片 | 91精品国产91久久久久久吃药 | 美女在线视频一区二区三区 | 精品久久久久久 | 久久性色|