成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

DeepMind用AI重寫排序算法;將33B大模型塞進(jìn)單個(gè)消費(fèi)級(jí)GPU

人工智能 新聞
近期,大語言模型展現(xiàn)出了令人矚目的能力。我們能否給大模型裝上 “眼睛” 和 “耳朵”,讓它能夠理解視頻,陪著用戶互動(dòng)呢?

目錄:


  1. Faster sorting algorithms discovered using deep reinforcement learning
  2. Video-LLaMA: An Instruction-tuned Audio-Visual Language Model for Video Understanding
  3. Patch-based 3D Natural Scene Generation from a Single Example
  4. Spatio-temporal Diffusion Point Processes
  5. SpQR: A Sparse-Quantized Representation for Near-Lossless LLM Weight Compression
  6. UniControl: A Unified Diffusion Model for Controllable Visual Generation In the Wild
  7. FrugalGPT: How to Use Large Language Models While Reducing Cost and Improving Performance

論文 1:Faster sorting algorithms discovered using deep reinforcement learning

  • 作者:Daniel J. Mankowitz 等
  • 論文地址:https://www.nature.com/articles/s41586-023-06004-9

摘要:「通過交換和復(fù)制移動(dòng),AlphaDev 跳過了一個(gè)步驟,以一種看似錯(cuò)誤,但實(shí)際上是捷徑的方式連接項(xiàng)目。」這種前所未見、違反直覺的思想不禁讓人回憶起 2016 年那個(gè)春天。

七年前,AlphaGo 在圍棋上擊敗人類世界冠軍,如今 AI 又在編程上給我們上了一課。Google DeepMind CEO 哈薩比斯的兩句話引爆計(jì)算機(jī)領(lǐng)域:「AlphaDev 發(fā)現(xiàn)了一種全新且更快的排序算法,我們已將其開源到主要 C++ 庫中供開發(fā)人員使用。這只是 AI 提升代碼效率進(jìn)步的開始。」

圖片

推薦:AI 重寫排序算法,速度快 70%:DeepMind AlphaDev 革新計(jì)算基礎(chǔ),每天調(diào)用萬億次的庫更新了

論文 2:Video-LLaMA: An Instruction-tuned Audio-Visual Language Model for Video Understanding

  • 作者:Hang Zhang 等
  • 論文地址:https://arxiv.org/abs/2306.02858

摘要:近期,大語言模型展現(xiàn)出了令人矚目的能力。我們能否給大模型裝上 “眼睛” 和 “耳朵”,讓它能夠理解視頻,陪著用戶互動(dòng)呢?

從這個(gè)問題出發(fā),達(dá)摩院的研究人員提出了 Video-LLaMA,一個(gè)具有綜合視聽能力大模型。Video-LLaMA 能夠感知和理解視頻中的視頻和音頻信號(hào), 并能理解用戶輸入的指令,完成一系列基于音視頻的復(fù)雜任務(wù),例如音 / 視頻描述,寫作,問答等。目前論文,代碼,交互 demo 都已開放。另外,在 Video-LLaMA 的項(xiàng)目主頁中,該研究團(tuán)隊(duì)還提供了中文版本的模型,讓中文用戶的體驗(yàn)更絲滑。

下面兩個(gè)例子展示了 Video-LLaMA 的視聽綜合感知能力,例子中的會(huì)話圍繞有聲視頻展開。

圖片

推薦:給語言大模型加上綜合視聽能力,達(dá)摩院開源 Video-LLaMA。

論文 3:Patch-based 3D Natural Scene Generation from a Single Example

  • 作者:Weiyu Li 等
  • 論文地址:https://arxiv.org/abs/2304.12670

摘要:北京大學(xué)陳寶權(quán)團(tuán)隊(duì)聯(lián)合山東大學(xué)和騰訊 AI Lab 的研究人員,提出了首個(gè)基于單樣例場景無需訓(xùn)練便可生成多樣高質(zhì)量三維場景的方法。

圖片

推薦:CVPR 2023 | 三維場景生成:無需任何神經(jīng)網(wǎng)絡(luò)訓(xùn)練,從單個(gè)樣例生成多樣結(jié)果。

論文 4:Spatio-temporal Diffusion Point Processes

  • 作者:Yuan Yuan 等
  • 論文地址:https://arxiv.org/abs/2305.12403

摘要:清華電子工程系城市科學(xué)與計(jì)算研究中心最新提出時(shí)空擴(kuò)散點(diǎn)過程,突破已有方法建模時(shí)空點(diǎn)過程的受限概率形式和高采樣成本等缺陷,實(shí)現(xiàn)了靈活、高效且易于計(jì)算的時(shí)空點(diǎn)過程模型,可廣泛用于城市自然災(zāi)害、突發(fā)事故和居民活動(dòng)等時(shí)空事件的建模與預(yù)測,促進(jìn)城市規(guī)劃和管理的智能化發(fā)展。下表展示 DSTPP 相比已有點(diǎn)過程解決方案的優(yōu)勢。

圖片

推薦:擴(kuò)散模型還能預(yù)測地震和犯罪?清華團(tuán)隊(duì)最新研究提出時(shí)空擴(kuò)散點(diǎn)過程。

論文 5:SpQR: A Sparse-Quantized Representation for Near-Lossless LLM Weight Compression

  • 作者:Tim Dettmers 等
  • 論文地址:https://arxiv.org/pdf/2306.03078.pdf

摘要:為了解決準(zhǔn)確性問題,來自華盛頓大學(xué)、蘇黎世聯(lián)邦理工學(xué)院等機(jī)構(gòu)的研究者提出了一種新的壓縮格式和量化技術(shù) SpQR(稀疏 - 量化表征),首次實(shí)現(xiàn)了 LLM 跨模型尺度的近無損壓縮,同時(shí)達(dá)到了與以前方法相似的壓縮水平。

SpQR 通過識(shí)別和隔離異常權(quán)重來工作,這些異常權(quán)重會(huì)導(dǎo)致特別大的量化誤差,研究者將它們以更高的精度存儲(chǔ),同時(shí)將所有其他權(quán)重壓縮到 3-4 位,在 LLaMA 和 Falcon LLMs 中實(shí)現(xiàn)了不到 1% 的困惑度相對(duì)準(zhǔn)確率損失。在單個(gè) 24GB 的消費(fèi)級(jí) GPU 上運(yùn)行 33B 參數(shù)的 LLM,而不會(huì)有任何性能下降,同時(shí)還能提高 15% 的速度。下圖 3 為 SpQR 的總體架構(gòu)。

圖片

推薦:將 330 億參數(shù)大模型「塞進(jìn)」單個(gè)消費(fèi)級(jí) GPU,加速 15%、性能不減。

論文 6:UniControl: A Unified Diffusion Model for Controllable Visual Generation In the Wild

  • 作者:Can Qin 等
  • 論文地址:https://arxiv.org/abs/2305.11147

摘要:本文中,Salesforce AI、東北大學(xué)、斯坦福大學(xué)的研究者提出了 MOE-style Adapter 和 Task-aware HyperNet 來實(shí)現(xiàn) UniControl 中的多模態(tài)條件生成能力。UniControl 在九個(gè)不同的 C2I 任務(wù)上進(jìn)行訓(xùn)練,展示了強(qiáng)大的視覺生成能力和 zero-shot 泛化能力。UniControl 模型由多個(gè)預(yù)訓(xùn)練任務(wù)和 zero-shot 任務(wù)組成。

圖片

推薦:多模態(tài)可控圖片生成統(tǒng)一模型來了,模型參數(shù)、推理代碼全部開源。

論文 7:FrugalGPT: How to Use Large Language Models While Reducing Cost and Improving Performance

  • 作者:Lingjiao Chen 等
  • 論文地址:https://arxiv.org/pdf/2305.05176.pdf

摘要:成本和準(zhǔn)確性之間的平衡是決策制定的關(guān)鍵因素,尤其是在采用新技術(shù)時(shí)。如何有效和高效地利用 LLM 是從業(yè)者面臨的關(guān)鍵挑戰(zhàn):如果任務(wù)相對(duì)簡單,那么聚合來自 GPT-J (其規(guī)模比 GPT-3 小 30 倍)的多個(gè)響應(yīng)可以實(shí)現(xiàn)與 GPT-3 類似的性能,從而實(shí)現(xiàn)成本和環(huán)境上的權(quán)衡。然而,在較為困難任務(wù)上,GPT-J 的性能可能會(huì)大大下降。因此,如何經(jīng)濟(jì)高效地使用 LLM 需要采用新的方法。

最近的一項(xiàng)研究嘗試提出解決這一成本問題的方法,研究者通過實(shí)驗(yàn)表明,F(xiàn)rugalGPT 可以與最佳個(gè)體 LLM(例如 GPT-4) 的性能相媲美,成本降低高達(dá) 98%,或者在相同成本下將最佳個(gè)體 LLM 的準(zhǔn)確性提高 4%。該研究討論了三種降低成本的策略,即 prompt 適應(yīng)、LLM 近似和 LLM 級(jí)聯(lián)。

圖片

推薦:GPT-4 API 平替?性能媲美同時(shí)成本降低 98%,斯坦福提出 FrugalGPT,研究卻惹爭議。

責(zé)任編輯:張燕妮 來源: 機(jī)器之心
相關(guān)推薦

2023-06-07 17:55:01

模型性能

2022-08-20 07:52:56

語言模型參數(shù)PaLM

2023-06-02 15:47:49

2023-06-20 16:13:37

研究模型

2023-09-12 14:45:18

2023-09-16 13:30:37

AI訓(xùn)練

2025-01-09 08:01:10

2023-06-08 14:08:00

AI算法

2025-04-01 09:54:09

AI算法大模型AI

2023-09-23 12:36:32

蘋果模型

2023-02-28 07:03:09

AIMeta大型語言

2024-02-29 12:56:00

AI訓(xùn)練

2025-01-17 13:53:11

AI大模型檢測工具

2023-08-14 13:29:37

2023-06-09 09:32:52

DeepMindC++庫算法

2023-06-08 11:33:00

谷歌AI

2024-12-25 08:02:17

人工智能AI運(yùn)維

2022-03-04 19:14:06

AI深度學(xué)習(xí)DeepMind

2024-09-25 15:34:21

數(shù)據(jù)模型數(shù)據(jù)驅(qū)動(dòng)數(shù)字化轉(zhuǎn)型

2022-06-02 10:29:23

神經(jīng)網(wǎng)絡(luò)AI計(jì)算機(jī)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

主站蜘蛛池模板: 精品久久久久久久久久久院品网 | 亚洲精品国产成人 | 一区中文字幕 | 91精产国品一二三区 | 国产精品久久 | 女女百合av大片一区二区三区九县 | 九九久久精品 | 91久久精品一区二区二区 | 国产精品亚洲第一区在线暖暖韩国 | 天天拍天天操 | 亚洲永久精品国产 | 欧美aaa一级片 | 99久久婷婷国产综合精品 | 久久久久久免费免费 | 精品欧美一区二区在线观看欧美熟 | av看片网站 | 91在线视频 | 免费一看一级毛片 | 国产精品色 | 日韩福利片 | 免费观看一级特黄欧美大片 | 久久精品视频9 | 欧美一级在线 | 欧美人成在线视频 | 久久亚洲一区二区 | 99久久久99久久国产片鸭王 | 亚洲欧美一区二区三区国产精品 | 91精品国产91 | 精品麻豆剧传媒av国产九九九 | 黄色毛片在线看 | 国产ts人妖系列高潮 | 精品久久国产老人久久综合 | 欧美不卡一区 | 亚洲国产精品99久久久久久久久 | 日本一区二区不卡 | 中文字幕第100页 | 国产日韩欧美电影 | 国产一级一级毛片 | 亚洲美女一区二区三区 | 欧美视频一区二区三区 | 欧美精 |