成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

Yann LeCun不看好強化學(xué)習(xí):「我確實更喜歡 MPC」

人工智能 新聞
在最近發(fā)布的一個帖子中,Meta 首席人工智能科學(xué)家 Yann LeCun 發(fā)表了這樣一番看法。

「相比于強化學(xué)習(xí)(RL),我確實更喜歡模型預(yù)測控制(MPC)。至少從 2016 年起,我就一直在強調(diào)這一點。強化學(xué)習(xí)在學(xué)習(xí)任何新任務(wù)時都需要進行極其大量的嘗試。相比之下,模型預(yù)測控制是零樣本的:如果你有一個良好的世界模型和一個良好的任務(wù)目標,模型預(yù)測控制就可以在不需要任何特定任務(wù)學(xué)習(xí)的情況下解決新任務(wù)。這就是規(guī)劃的魔力。這并不意味著強化學(xué)習(xí)是無用的,但它的使用應(yīng)該是最后的手段。」

在最近發(fā)布的一個帖子中,Meta 首席人工智能科學(xué)家 Yann LeCun 發(fā)表了這樣一番看法。

圖片

一直以來,Yann LeCun 都是強化學(xué)習(xí)的批評者。他認為,強化學(xué)習(xí)這種方法需要大量的試驗,非常低效。這和人類的學(xué)習(xí)方式大相徑庭 —— 嬰兒不是通過觀察一百萬個相同物體的樣本來識別物體,或者嘗試危險的東西并從中學(xué)習(xí),而是通過觀察、預(yù)測和與它們互動,即使沒有監(jiān)督。

在半年前的一次演講中,他甚至主張「放棄強化學(xué)習(xí)」(參見《GPT-4 的研究路徑?jīng)]有前途?Yann LeCun 給自回歸判了死刑》)。但在隨后的一次采訪中,他又解釋說,他的意思并不是完全放棄,而是最小化強化學(xué)習(xí)的使用,訓(xùn)練系統(tǒng)的正確方法是首先讓它從主要觀察(也許還有一點交互)中學(xué)習(xí)世界和世界模型的良好表示。

圖片

同時,LeCun 也指出,相比于強化學(xué)習(xí),他更傾向于 MPC(模型預(yù)測控制)。

圖片

MPC 是一種使用數(shù)學(xué)模型在有限時間內(nèi)實時優(yōu)化控制系統(tǒng)的技術(shù),自二十世紀六七十年代問世以來,已廣泛應(yīng)用于化學(xué)工程、煉油、先進制造、機器人和航空航天等各個領(lǐng)域。比如,前段時間,波士頓動力就分享了他們利用 MPC 進行機器人控制的多年經(jīng)驗(參見《波士頓動力技術(shù)揭秘:后空翻、俯臥撐與翻車,6 年經(jīng)驗、教訓(xùn)總結(jié)》)。

MPC 的最新發(fā)展之一是與機器學(xué)習(xí)技術(shù)的集成,即 ML-MPC。在這種方法中,機器學(xué)習(xí)算法用于估計系統(tǒng)模型、進行預(yù)測和優(yōu)化控制動作。機器學(xué)習(xí)和 MPC 的這種結(jié)合有可能在控制性能和效率方面提供顯著的改進。

LeCun 的世界模型相關(guān)研究也用到了 MPC 相關(guān)理論。

最近,LeCun 對于 MPC 的偏愛又在 AI 社區(qū)引發(fā)了一些關(guān)注。

圖片


圖片

有人說,如果我們的問題能夠很好地建模,并且具有可預(yù)測的 dynamics,MPC 就會很好地發(fā)揮作用。

圖片

或許對于計算機科學(xué)家來說,信號處理和控制領(lǐng)域還有很多值得挖掘的東西。

圖片

圖片

不過,也有人指出,求解精確的 MPC 模型是個很難的問題,LeCun 觀點中的前提 ——「如果你有一個良好的世界模型」本身就難以實現(xiàn)。

圖片

還有人說,強化學(xué)習(xí)和 MPC 未必是二選一的關(guān)系,二者可能有各自的適用場景。

圖片

圖片

之前已經(jīng)有一些研究將二者結(jié)合起來使用,效果很好。

圖片

強化學(xué)習(xí) vs MPC

在前面的討論中,有網(wǎng)友推薦了一篇 Medium 文章,分析對比了強化學(xué)習(xí)與 MPC。

接下來,就讓我們根據(jù)這篇技術(shù)博客,具體分析下兩者的優(yōu)缺點。

強化學(xué)習(xí)(RL)和模型預(yù)測控制(MPC)是優(yōu)化控制系統(tǒng)的兩種強大技術(shù)。兩種方法都有其優(yōu)點和缺點,解決問題的最佳方法取決于特定問題的具體要求。

那么,兩種方法的優(yōu)缺點分別有哪些,又適用于解決哪些問題呢?

強化學(xué)習(xí)

強化學(xué)習(xí)是一種通過反復(fù)試驗來學(xué)習(xí)的機器學(xué)習(xí)方法。它特別適合解決復(fù)雜動力學(xué)或未知系統(tǒng)模型的問題。在強化學(xué)習(xí)中,智能體學(xué)習(xí)在環(huán)境中采取行動以最大化獎勵信號。智能體與環(huán)境交互,觀察結(jié)果狀態(tài)并采取行動。然后根據(jù)結(jié)果給予智能體獎勵或懲罰。隨著時間的推移,智能體將學(xué)會采取能夠帶來更積極獎勵的行動。強化學(xué)習(xí)在控制系統(tǒng)中有多種應(yīng)用,旨在提供動態(tài)自適應(yīng)方法來優(yōu)化系統(tǒng)行為。一些常見的應(yīng)用包括:

  • 自主系統(tǒng):強化學(xué)習(xí)用于自主控制系統(tǒng),例如自動駕駛、無人機和機器人,以學(xué)習(xí)導(dǎo)航和決策的最佳控制策略。
  • 機器人技術(shù):強化學(xué)習(xí)使機器人能夠?qū)W習(xí)并調(diào)整其控制策略,以完成復(fù)雜動態(tài)環(huán)境中抓取物體、操縱和運動等任務(wù)。
  • ......

圖片

強化學(xué)習(xí)(RL)工作流。

  • 智能體:學(xué)習(xí)者和決策者。
  • 環(huán)境:智能體與之交互的環(huán)境或?qū)嶓w。智能體觀察并采取行動,影響環(huán)境。
  • 狀態(tài):對世界狀態(tài)的完整描述。智能體可以完全觀察或部分觀察狀態(tài)。
  • 獎勵:指示智能體績效的標量反饋。智能體的目標是最大化長期總獎勵。智能體會基于獎勵改變策略。
  • 動作空間:智能體可以在給定環(huán)境中執(zhí)行的一組有效動作。有限的動作構(gòu)成離散的動作空間;無限的動作構(gòu)成連續(xù)的動作空間。

模型預(yù)測控制

模型預(yù)測控制(Model Predictive Control,MPC)是一種廣泛使用的控制策略,已應(yīng)用于許多領(lǐng)域,包括過程控制、機器人、自主系統(tǒng)等等。

MPC 的核心宗旨是使用系統(tǒng)的數(shù)學(xué)模型來預(yù)測未來的行為,然后利用該知識來產(chǎn)生控制操作,以最大化某些性能目標。

經(jīng)過多年的不斷改進和完善,MPC 現(xiàn)在可以處理日益復(fù)雜的系統(tǒng)和困難的控制問題。如下圖所示,在每個控制間隔,MPC 算法計算控制范圍的開環(huán)序列,以優(yōu)化預(yù)測范圍內(nèi)受控體(plant)的行為。

圖片

離散 MPC 方案。

MPC 在控制系統(tǒng)中的應(yīng)用包括:

  • 過程工業(yè)
  • 電力系統(tǒng)
  • 汽車控制
  • 機器人技術(shù)

其中,MPC 在機器人系統(tǒng)中用于規(guī)劃和優(yōu)化運動軌跡,確保機械臂和機器人平臺在各種應(yīng)用(包括制造和物流)中平穩(wěn)高效地運動。

下表列出了強化學(xué)習(xí)和 MPC 在模型、學(xué)習(xí)方法、速度、穩(wěn)健性、樣本效率、適用場景等方面的區(qū)別。一般來說,對于難以建模或具有復(fù)雜動態(tài)的問題,強化學(xué)習(xí)是合適的選擇。對于建模良好且動態(tài)可預(yù)測的問題,MPC 是一個不錯的選擇。

圖片

MPC 的最新進展之一是與機器學(xué)習(xí)技術(shù)的集成,即 ML-MPC。ML-MPC 采用和傳統(tǒng) MPC 不同的方法來進行控制,使用機器學(xué)習(xí)算法來估計系統(tǒng)模型、進行預(yù)測和生成控制動作。它背后的主要思想是使用數(shù)據(jù)驅(qū)動模型來克服傳統(tǒng) MPC 的局限性。

基于機器學(xué)習(xí)的 MPC 可以實時適應(yīng)不斷變化的條件,使其適用于動態(tài)和不可預(yù)測的系統(tǒng)。與基于模型的 MPC 相比,基于機器學(xué)習(xí)的 MPC 可以提供更高的準確性,尤其是在復(fù)雜且難以建模的系統(tǒng)中。

此外,基于機器學(xué)習(xí)的 MPC 可以降低模型的復(fù)雜性,使其更易于部署和維護。不過,與傳統(tǒng) MPC 相比,ML-MPC 也有一些局限性,比如需要大量數(shù)據(jù)來訓(xùn)練模型、可解釋性差等等。

看來,要想真正將 MPC 引入 AI 領(lǐng)域,計算機科學(xué)家們還有很長的路要走。

責任編輯:張燕妮 來源: 機器之心
相關(guān)推薦

2022-06-25 21:38:36

AI模型

2023-03-09 08:00:00

強化學(xué)習(xí)機器學(xué)習(xí)圍棋

2020-08-10 06:36:21

強化學(xué)習(xí)代碼深度學(xué)習(xí)

2017-07-18 10:16:27

強化學(xué)習(xí)決策問題監(jiān)督學(xué)習(xí)

2009-07-16 18:32:12

2020-06-29 14:20:28

深度學(xué)習(xí)編程人工智能

2023-11-07 07:13:31

推薦系統(tǒng)多任務(wù)學(xué)習(xí)

2024-08-09 12:46:04

2023-09-14 08:00:00

基于主干的開發(fā)分支模型

2022-09-28 08:23:56

AI人工智能工具

2017-07-20 11:18:38

臺式電腦娛樂

2022-09-04 14:38:00

世界模型建模IRIS

2020-11-12 19:31:41

強化學(xué)習(xí)人工智能機器學(xué)習(xí)

2024-04-03 07:56:50

推薦系統(tǒng)多任務(wù)推薦

2021-09-17 15:54:41

深度學(xué)習(xí)機器學(xué)習(xí)人工智能

2025-05-08 09:16:00

模型強化學(xué)習(xí)訓(xùn)練

2022-11-02 14:02:02

強化學(xué)習(xí)訓(xùn)練

2024-01-16 12:10:10

2022-08-25 10:31:57

模型人工智能

2017-09-11 19:58:06

PostgreSQLMySQL數(shù)據(jù)庫
點贊
收藏

51CTO技術(shù)棧公眾號

主站蜘蛛池模板: 成人免费精品视频 | 国产精品视频一区二区三区四蜜臂 | 天天干天天玩天天操 | 亚洲男人的天堂网站 | 久久精品手机视频 | 亚洲欧美一区二区三区国产精品 | 精品国产免费人成在线观看 | 一级毛片黄片 | 国产高清免费 | 免费久久精品视频 | 久久久噜噜噜久久中文字幕色伊伊 | 国产精品成人在线播放 | 日韩av一区在线观看 | 国产这里只有精品 | 一级毛片播放 | 免费三级av | 欧美一区二区三区在线观看视频 | 午夜男人天堂 | 日韩欧美国产精品 | 国产精品国产a级 | 日韩欧美在线免费 | 国产一区二区在线91 | 中文字幕高清 | 亚洲精品片 | 99精品欧美一区二区蜜桃免费 | 在线看片国产 | 久久久久亚洲av毛片大全 | 热久久久 | 97久久精品午夜一区二区 | 精品无码久久久久久国产 | 黑人精品欧美一区二区蜜桃 | 天天操网 | 男女下面一进一出网站 | 午夜精品一区二区三区三上悠亚 | 亚州成人 | 国产一区二区三区久久久久久久久 | 啪一啪 | 成人精品高清 | 中文成人在线 | 亚洲欧美日韩在线 | 成人黄色在线观看 |