OpenAI 發布兩款新 AI 推理模型 o3 與 o4-mini,圖像推理及自主工具使用成最大亮點
OpenAI 發布了其最新的人工智能推理模型:o3 和 o4-mini。
o3 被譽為該公司迄今“最強大的推理模型”,在數學、編程、推理、科學及視覺理解等多個基準測試中刷新了記錄,尤其擅長處理需要多角度分析的復雜查詢和視覺任務,并在實際應用中顯著減少了錯誤。
與此同時,o4-mini 作為一款更小巧、快速的模型,旨在提供具有競爭力的價格、速度和性能平衡。它在保持低成本的同時,在數學(如 AIME 基準測試近乎滿分)、編程和視覺任務上表現卓越,且支持更高的使用頻率,適合需要高吞吐量的場景。
核心亮點:
圖像思考能力: o3 和 o4-mini 是 OpenAI 首批能將圖像直接融入推理過程的模型,能夠理解模糊或低質量圖像,并在分析時進行放大或旋轉等操作。還可以結合搜索進行補充思考,完成復雜的福爾摩斯級的深度思考。?
- 自主工具使用: 兩款模型都能自主調用所有 ChatGPT 工具(如網絡瀏覽、Python 代碼執行、圖像處理與生成)以及通過 API 調用的自定義工具,以解決復雜問題。現有的Agent編排過程及復雜的提示詞設計被模型能力的增強進一步弱化。
- 性能與成本優化: 相較于前代模型(如 o1 和 o3-mini),新模型在提供更強智能的同時,通常成本更低。例如,o3-mini 相較于 o1-mini 價格降低了 63%。
- API 更新: o3 和 o4-mini 通過 API 提供 20 萬 token 的上下文窗口、最高 10 萬 token 的輸出,知識截止日期更新至 2024 年 6 月 1 日。
- 強化學習進展: 開發過程驗證了強化學習也遵循“計算量越大=性能越好”的擴展定律,提升了模型的推理和工具使用能力。
- Codex CLI: 一款新的開源命令行工具,可在本地終端運行,將自然語言轉化為代碼,充分利用 o3 等模型的推理能力,支持多模態輸入。地址:https://github.com/openai/codex
- 可用性: o3 和 o4-mini 已通過 API 向開發者開放。ChatGPT Plus、Pro 及 Team 用戶今日起可在 o3、o4-mini 和 o4-mini-high 版本上使用新模型及其工具能力,o3-pro 版本將在數周內跟進。舊版模型(o1、o3-mini 等)將逐步淘汰。
小結:
此次 o3 與 o4-mini 的發布,再一次將模型能力邊界向前推進一大步,過去針對圖片的看圖說話進階成“福爾摩斯”級的深度思考,而工具調用進階為“manus”級的全能工具人,agentic workflow的過渡價值被大大壓縮。什么樣的產品才能不被大模型所吞噬又成為迫切回答的問題。
本文轉載自???AI工程化???,作者:ully
贊
收藏
回復
分享
微博
QQ
微信
舉報

回復
相關推薦