成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

谷歌擁抱英偉達(dá)!推出云端GPU,把AI引進(jìn)無服務(wù)器,開源大模型愛好者福利來了 原創(chuàng)

發(fā)布于 2024-8-22 13:35
瀏覽
0收藏

編輯 | 言征

有點(diǎn)震驚,谷歌也開始擁抱英偉達(dá)的GPU了!

盡管有著自家的TPU,但為了更好地市場競爭,英偉達(dá)的GPU終究是繞不開(皮衣客黃教主盡情笑吧!)

近日,谷歌抖了大料:不僅推出了云端的GPU,把AI引進(jìn)了Serverless,同時(shí)贈送了幾個(gè)開源大模型以供開發(fā)者進(jìn)行部署和微調(diào)。

這對開源大模型愛好者們而言是一個(gè)重大利好:省事更省錢了。

這相當(dāng)于不管是硬件的算力,還是軟件層面的大模型,谷歌直接給出了一個(gè)完整的全家桶,不必再苦于本地設(shè)備的能力不足,而不能體驗(yàn)性能領(lǐng)先的開源大模型了!在此基礎(chǔ)上,開源開發(fā)者可以創(chuàng)建自己的Copilot、智能體等應(yīng)用程序。 

1.谷歌推出云端GPU,附帶開源LLM

如果你熱愛開源AI,但卻沒有在本地運(yùn)行AI模型的計(jì)算能力,谷歌今天的消息的確令人興奮。

據(jù)悉,谷歌正在將英偉達(dá)的L4 GPU引入其云服務(wù)。L4 GPU是H100 GPU的輕量級版本,曾用于訓(xùn)練Meta的Llama 3.1和OpenAI的GPT-4o模型。

開發(fā)者可以登錄谷歌的Cloud Run,在容器中加載Ollama,啟動(dòng)開源LLM,如谷歌的Gemma 2或Meta的Llama 3.1,指向L4 GPU,然后進(jìn)行推理。具體指令將在下文提供。

2.將 AI 引入無服務(wù)器世界

Cloud Run是 Google 的全托管無服務(wù)器平臺,由于能夠簡化容器部署和管理,因此一直受到開發(fā)人員的青睞。然而,人工智能工作負(fù)載(尤其是需要實(shí)時(shí)處理的工作負(fù)載)的需求不斷增加,凸顯了對更強(qiáng)大的計(jì)算資源的需求。

GPU 支持的集成將為 Cloud Run 開發(fā)者開辟了廣泛的用例,包括:

  • 使用輕量級開放模型(例如 Gemma 2B/7B 或 Llama3 (8B))進(jìn)行實(shí)時(shí)推理,可以創(chuàng)建響應(yīng)式自定義聊天機(jī)器人和即時(shí)文檔摘要工具。
  • 提供定制的微調(diào)生成式 AI 模型,包括可根據(jù)需求擴(kuò)展的品牌特定圖像生成應(yīng)用程序。
  • 加速圖像識別、視頻轉(zhuǎn)碼和 3D 渲染等計(jì)算密集型服務(wù),并能夠在不使用時(shí)擴(kuò)展到零。

3.GPU的無服務(wù)器玩法

Google Cloud Run 無服務(wù)器產(chǎn)品現(xiàn)在集成了 Nvidia L4 GPU,使組織能夠運(yùn)行無服務(wù)器推理。

無服務(wù)器服務(wù)的承諾是,服務(wù)僅在需要時(shí)運(yùn)行,用戶只需為使用的內(nèi)容付費(fèi)。這與典型的云實(shí)例形成對比,后者將作為持久服務(wù)運(yùn)行一段時(shí)間,并且始終可用。在這種情況下,無服務(wù)器服務(wù)只會在需要時(shí)啟動(dòng)和使用用于推理的 GPU。

無服務(wù)器推理可以部署為Nvidia NIM,以及其他框架(例如 VLLM、Pytorch 和 Ollama)。Nvidia L4 GPU 的添加目前處于預(yù)覽階段。

Google Cloud Serverless 產(chǎn)品經(jīng)理 Sagar Randive 告訴 VentureBeat:“隨著客戶越來越多地采用 AI,他們正在尋求在他們熟悉并啟動(dòng)的平臺上運(yùn)行推理等 AI 工作負(fù)載。” “Cloud Run 用戶更喜歡該平臺的效率和靈活性,并一直要求谷歌增加 GPU 支持。”

4.運(yùn)行無服務(wù)器 AI 推理會更便宜嗎?

無服務(wù)器的一個(gè)常見問題是性能。畢竟,如果服務(wù)并非始終運(yùn)行,那么僅僅為了讓服務(wù)從所謂的冷啟動(dòng)運(yùn)行,性能就會受到影響。


Google Cloud 旨在消除任何此類性能擔(dān)憂,并引用了新的支持 GPU 的 Cloud Run 實(shí)例的一些令人印象深刻的指標(biāo)。據(jù) Google 稱,包括 Gemma 2b、Gemma2 9b、Llama2 7b/13b 和 Llama 3.1 8b 在內(nèi)的各種型號的冷啟動(dòng)時(shí)間范圍為 11 到 35 秒,展示了該平臺的響應(yīng)能力。


每個(gè) Cloud Run 實(shí)例均可配備一個(gè) Nvidia L4 GPU,最高可配備 24GB vRAM,為許多常見的 AI 推理任務(wù)提供充足的資源。


Google Cloud 還計(jì)劃在運(yùn)行哪些模型方面做到與模型無關(guān),不過它在某種程度上也采取了兩面下注的做法。

“我們不限制任何 LLM,用戶可以運(yùn)行他們想要的任何模型,”Randive 說道。“但為了獲得最佳性能,建議他們在 13B 參數(shù)下運(yùn)行模型。”

無服務(wù)器的一個(gè)關(guān)鍵優(yōu)勢是更好地利用硬件,這也意味著更低的成本。

至于對于組織來說,以無服務(wù)器或長期運(yùn)行的服務(wù)器方式提供人工智能推理是否實(shí)際上更便宜,這是一個(gè)有點(diǎn)微妙的問題。

“這取決于應(yīng)用程序和預(yù)期的流量模式,”Randive 表示。“我們將更新我們的定價(jià)計(jì)算器,以反映 Cloud Run 的新 GPU 價(jià)格,屆時(shí)客戶將能夠比較他們在各個(gè)平臺上的總運(yùn)營成本。”

5.終于,為開源社區(qū)提供服務(wù)

谷歌終于擁有了一個(gè)完整的硬件和軟件包,開源開發(fā)者可以在此基礎(chǔ)上利用開源模型創(chuàng)建應(yīng)用程序。開發(fā)者可以完全控制前端和后端,并可以通過Cloud Run指向谷歌云中的L4。

到目前為止,Cloud Run服務(wù)僅限于谷歌的專有模型,包括Gemini 1.0 LLM、用于圖像生成的Imagen以及用于多模態(tài)模型的Gemini 1.5 Flash。


現(xiàn)在,Cloud Run已經(jīng)擁有了Gemma 2(Gemini的開源版本)和Llama 3.1。L4 GPU也是一個(gè)新增的功能,可用于在開源模型上進(jìn)行推理。

6.在PC上本地運(yùn)行LLM的替代方案

谷歌提供的服務(wù)避免了在PC上加載Ollama并本地運(yùn)行LLM的繁瑣過程。谷歌的Cloud Run可以在30秒內(nèi)加載LLM和Ollama。

在大多數(shù)情況下,大多數(shù)PC都沒有運(yùn)行具有大上下文窗口的LLM所需的GPU。像LM Studio這樣的應(yīng)用程序已經(jīng)可以實(shí)現(xiàn)下載LLM,并且該軟件會顯示這些LLM是否可以在本地GPU上運(yùn)行,但這仍然需要時(shí)間。

Cloud Run上提供的最新模型包括擁有90億參數(shù)的Gemma 2和擁有80億參數(shù)的Llama 3.1。其他可用的模型還包括擁有130億參數(shù)的Llama 2和擁有20億參數(shù)的Gemma。

谷歌表示,配備L4 GPU的Cloud Run實(shí)例將在大約5秒內(nèi)加載,之后還需要幾秒鐘的時(shí)間用Ollama初始化框架和模型。整個(gè)LLM的大小可達(dá)7.4GB,可以在幾秒鐘內(nèi)完成下載和初始化。

最小的20億參數(shù)的Gemma模型需要11到17秒,而最新的90億參數(shù)的Gemma 2需要25到30秒。80億參數(shù)的Llama 3.1需要15到21秒來加載。

7.關(guān)于定價(jià):是否值得一試

谷歌尚未公布在L4 GPU上運(yùn)行開源Llama和Gemma模型的定價(jià)。但根據(jù)目前的定價(jià)結(jié)構(gòu),在谷歌云上運(yùn)行Gemma的成本很高,使用L4作為云GPU的起步價(jià)為516美元。

谷歌承諾每月免費(fèi)提供兩百萬次請求,不過業(yè)內(nèi)實(shí)際情況比較復(fù)雜,當(dāng)幾乎所有變量都考慮在內(nèi)時(shí),客戶通常最終可能會選擇支付費(fèi)用。

時(shí)間就是金錢,而且你沒有本地的處理能力,那么L4可能是最便宜的GPU選擇;但如果你已經(jīng)投資了一臺配備頂級GPU的筆記本電腦,并且可以等待10到20分鐘來下載、調(diào)整和加載LLM,那么還是堅(jiān)持使用本地設(shè)備吧。

目前,Cloud Run GPU僅在谷歌位于美國中部1區(qū)(愛荷華州)可用,預(yù)計(jì)今年年底將在歐洲和亞洲上線。谷歌在一封電子郵件中表示:“我們未來可能會提供更多GPU選項(xiàng),并擴(kuò)展到更多地區(qū)。”

8.寫在最后:谷歌對待AI開發(fā)的玩法變了

要知道此前,開發(fā)者們一般是借用了谷歌Colab上可用的硬件來進(jìn)行推理。這很簡單,只需使用帶有Python腳本的Jupyter筆記本,選擇硬件(CPU、GPU或TPU),然后運(yùn)行視頻、圖像、文本或語音AI應(yīng)用程序。

免費(fèi)層級原本僅供研究人員使用,因此有人認(rèn)為這會導(dǎo)致一部分人在濫用這一資源。

所以,后來谷歌Colab最終取消了廣泛的GPU訪問權(quán)限的免費(fèi)使用。大多數(shù)應(yīng)用程序無法利用谷歌的TPU,而是默認(rèn)使用CPU,這非常緩慢。

現(xiàn)在Colab上唯一提供的GPU是接近八年歷史的英偉達(dá)T4。

不過,今天我們看到了Google似乎開始篤定的走上“GPU+無服務(wù)器”這條道路了,畢竟AI開發(fā)的需求已經(jīng)毫無疑問地成為了新的增長引擎。

本文轉(zhuǎn)載自??51CTO技術(shù)棧??,作者:言征

?著作權(quán)歸作者所有,如需轉(zhuǎn)載,請注明出處,否則將追究法律責(zé)任
標(biāo)簽
已于2024-8-22 14:51:35修改
收藏
回復(fù)
舉報(bào)
回復(fù)
相關(guān)推薦
主站蜘蛛池模板: 亚洲国产激情 | 性色网站| 翔田千里一区二区 | 中文字幕综合 | 久久av一区 | 精品一区二区在线视频 | 国产中文字幕在线 | www.午夜 | av永久免费 | 精品一区二区三区四区在线 | 一区二区中文 | 91久久国产精品 | 久久久国产一区二区三区 | 成人福利网| 老司机精品福利视频 | 一区二区福利视频 | 五月婷婷婷 | 99久久中文字幕三级久久日本 | 久久蜜桃资源一区二区老牛 | 91av免费看| 国产精品福利视频 | 亚洲 中文 欧美 日韩 在线观看 | 欧美亚洲国产一区二区三区 | 羞羞网站在线观看 | 欧美久久一级特黄毛片 | 毛片视频网址 | 成人夜晚看av | 精品日本中文字幕 | 日韩一区不卡 | 中文字幕久久精品 | 视频一区二区三区在线观看 | 国产午夜精品视频 | 美女福利视频 | 99精品国产一区二区三区 | 国产精品永久久久久久久www | 欧美日韩在线播放 | 国产一区二区 | 日韩av在线一区二区 | 中国黄色毛片视频 | 成人综合视频在线观看 | 精品视频 免费 |