成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

從頭開始構(gòu)建,DeepMind新論文用偽代碼詳解Transformer

人工智能 新聞
與滾動 1000 行源代碼相比,偽代碼更濃縮,思路更清晰。

2017 年 Transformer 橫空出世,由谷歌在論文《Attention is all you need》中引入。這篇論文拋棄了以往深度學(xué)習(xí)任務(wù)里面使用到的 CNN 和 RNN。這一開創(chuàng)性的研究顛覆了以往序列建模和 RNN 劃等號的思路,如今被廣泛用于 NLP。大熱的 GPT、BERT 等都是基于 Transformer 構(gòu)建的。

Transformer 自推出以來,研究者已經(jīng)提出了許多變體。但大家對 Transformer 的描述似乎都是以口頭形式、圖形解釋等方式介紹該架構(gòu)。關(guān)于 Transformer 的偽代碼描述可參考的資料很少。

正如下面這段話所表達(dá)的:一位 AI 領(lǐng)域非常出名的研究者,曾向一位著名的復(fù)雜性理論家發(fā)送了一篇自認(rèn)為寫得非常好的論文。而理論家的回答是:我在論文中找不到任何定理,我不知道這篇論文是關(guān)于什么的。

對于從業(yè)者來說,論文可能足夠詳細(xì),但理論家需要的精度通常更高。由于某些原因,DL 社區(qū)似乎不愿為他們的神經(jīng)網(wǎng)絡(luò)模型提供偽代碼。

目前看來,DL 社區(qū)存在以下問題:

DL 出版物缺乏科學(xué)的準(zhǔn)確性和細(xì)節(jié)。深度學(xué)習(xí)在過去 5 到 10 年間取得了巨大的成功,每年發(fā)表的論文數(shù)以千計。許多研究者只是非正式地描述了他們?nèi)绾胃淖円郧暗哪P停蠹s 100 多頁的論文只包含幾行非正式地模型描述。充其量是一些高級圖表,沒有偽代碼,沒有方程式,沒有提到對模型的精確解釋。甚至沒有人為著名的 Transformer 及其編碼器 / 解碼器變體提供偽代碼。

源代碼與偽代碼。開源源代碼非常有用,但與數(shù)千行的真實(shí)源代碼相比,精心設(shè)計的偽代碼通常不到一頁,并且基本上仍然是完整的。這似乎是一項沒有人愿意做的苦工作。

解釋訓(xùn)練過程同樣重要,但有時論文中甚至沒有提到模型的輸入和輸出以及潛在的副作用是什么。論文中的實(shí)驗部分通常不會解釋輸入算法的內(nèi)容以及如何輸入。如果方法部分有一些解釋,通常與實(shí)驗部分中描述的內(nèi)容脫節(jié),可能是由于不同的作者編寫了不同的部分造成的。

有人會問:真的需要偽代碼嗎? 偽代碼有什么用?

來自 DeepMind 的研究者認(rèn)為提供偽代碼有很多用途,與閱讀文章或滾動 1000 行實(shí)際代碼相比,偽代碼將所有重要的內(nèi)容濃縮在一頁紙上,更容易開發(fā)新的變體。為此,他們最近發(fā)表的一篇論文《 Formal Algorithms for Transformers 》,文章以完備的、數(shù)學(xué)上精確的方式來描述 Transformer 架構(gòu)。

論文簡介

本文涵蓋了什么是 Transformer、Transformer 如何訓(xùn)練、Transformer 被用來做什么、Transformer 關(guān)鍵架構(gòu)組件以及比較出名的模型預(yù)覽。

圖片

論文地址:https://arxiv.org/pdf/2207.09238.pdf

不過,閱讀本文,讀者需熟悉基礎(chǔ) ML 術(shù)語和簡單的神經(jīng)網(wǎng)絡(luò)體系架構(gòu) (如 MLPs)。對于讀者而言,在理解了文中的內(nèi)容后,將會扎實(shí)的掌握 Transformer,并可能會使用偽代碼實(shí)現(xiàn)自己的 Transformer 變體。

這篇論文的主體部分是第 3-8 章,分別介紹了 Transformer 及其典型任務(wù)、tokenization、Transformer 的架構(gòu)組成、Transformer 的訓(xùn)練和推理、實(shí)際應(yīng)用。

圖片

論文中基本完整的偽代碼大約有 50 行,而實(shí)際的真實(shí)源代碼則有數(shù)千行。論文中表述算法的偽代碼適用于需要緊湊、完整和精確公式的理論研究者、從頭實(shí)現(xiàn) Transformer 的實(shí)驗研究人員,同時對使用形式 Transformer 算法擴(kuò)充論文或教科書也大有裨益。

?

圖片

論文中偽代碼示例

對于熟悉基本的 ML 術(shù)語和簡單的神經(jīng)網(wǎng)絡(luò)架構(gòu)(例如 MLP)的初學(xué)者來說,這篇論文將幫你掌握扎實(shí)的 Transformer 基礎(chǔ),并用偽代碼模板實(shí)現(xiàn)自己的 Transformer 模型。

作者介紹

這篇論文的第一作者是今年 3 月正式入職 DeepMind 的研究員 Mary Phuong。她博士畢業(yè)于奧地利科學(xué)技術(shù)研究所,主要從事機(jī)器學(xué)習(xí)的理論研究。

圖片

?

論文的另一位作者是 DeepMind 的資深研究員 Marcus Hutter,也是澳大利亞國立大學(xué) (ANU) 計算機(jī)科學(xué)研究院 (RSCS) 的名譽(yù)教授。

圖片

?

Marcus Hutter 多年來一直從事人工智能數(shù)學(xué)理論的研究。這一研究領(lǐng)域基于若干數(shù)學(xué)和計算科學(xué)概念,涉及強(qiáng)化學(xué)習(xí)、概率論、算法信息理論、優(yōu)化、搜索和計算理論等。他的書《通用人工智能:基于算法概率的順序決策》于 2005 年出版,這是一本技術(shù)性和數(shù)學(xué)性都很強(qiáng)的書。

2002 年,Marcus Hutter 與 Jürgen Schmidhuber 和 Shane Legg 一起提出了基于理想化智能體和獎勵強(qiáng)化學(xué)習(xí)的人工智能數(shù)學(xué)理論 AIXI。2009 年,Marcus Hutter 又提出了特征強(qiáng)化學(xué)習(xí)理論。

責(zé)任編輯:張燕妮 來源: 機(jī)器之心
相關(guān)推薦

2013-01-08 11:02:26

IBMdW

2024-03-01 13:49:00

數(shù)據(jù)訓(xùn)練

2023-08-11 17:30:54

決策樹機(jī)器學(xué)習(xí)算法

2013-05-23 10:10:53

PHP5.5PHP編譯php

2017-02-23 08:45:36

Python決策樹數(shù)據(jù)集

2020-06-11 08:32:50

Python遺傳算法代碼

2022-11-14 10:49:33

Linux發(fā)行版

2024-09-26 16:51:23

2024-06-24 07:50:00

代碼機(jī)器學(xué)習(xí)

2009-05-08 09:40:07

網(wǎng)易魔獸暴雪

2022-09-20 10:18:05

論文技術(shù)

2024-03-20 12:44:35

AI訓(xùn)練

2020-11-17 08:09:01

webpack配置項腳手架

2022-11-23 16:20:12

GPU編程流和事件開發(fā)

2022-06-01 23:21:34

Python回歸樹數(shù)據(jù)

2023-05-24 16:20:39

DevOpsCI/CD 管道軟件開發(fā)

2021-06-04 22:43:32

Python本地搜索

2025-01-13 08:00:00

2017-08-28 18:41:34

PythonLogistic回歸隨機(jī)梯度下降

2020-08-14 10:01:25

編程神經(jīng)網(wǎng)絡(luò)C語言
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號

主站蜘蛛池模板: 国产精品一区二区欧美黑人喷潮水 | 久久精品国产亚洲 | www.狠狠干 | 久久综合入口 | 国产一区二区电影网 | 欧美性生活一区二区三区 | 在线成人免费观看 | a级在线免费观看 | 亚洲综合无码一区二区 | 国产精品色哟哟网站 | 国产精品一区二区免费 | 国产美女在线免费观看 | 久久久精品一区 | 免费的色网站 | 国产在线精品一区二区三区 | 精品成人69xx.xyz | 国产精品成人一区二区 | 午夜电影一区 | 在线视频成人 | 人人澡人人射 | 国产在线看片 | 天堂一区| 亚洲欧美日韩久久久 | 成人性视频免费网站 | 欧美国产亚洲一区二区 | 毛片免费观看 | 国产精品欧美一区二区 | 精品在线一区二区三区 | 日韩视频在线观看一区二区 | 一级毛片在线播放 | 在线观看国产视频 | 欧美一级高清片 | 国精产品一区二区三区 | 久久69精品久久久久久久电影好 | 日韩欧美大片在线观看 | www久久 | 成人精品国产免费网站 | 精品国产黄色片 | 国产玖玖 | 久久久高清 | 天天天久久久 |