一文剖析基于 MCP 的 AI 應(yīng)用技術(shù)架構(gòu)全景視圖:從基礎(chǔ)實(shí)施層、云原生層、模型層、應(yīng)用技術(shù)層、應(yīng)用架構(gòu)層 原創(chuàng)
1、基于 MCP 的 AI 應(yīng)用技術(shù)架構(gòu)全景圖
MCP 已經(jīng)成為業(yè)界的標(biāo)準(zhǔn),基于 MCP 的 AI 應(yīng)用技術(shù)已經(jīng)在具體的業(yè)務(wù)場(chǎng)景落地實(shí)踐,本文通過梳理基于 MCP 的 AI 應(yīng)用技術(shù)架構(gòu)的全景視圖,讓你全面了解 AI 應(yīng)用技術(shù)的各個(gè)層次,從基礎(chǔ)實(shí)施層、云原生層、模型層、應(yīng)用技術(shù)層、應(yīng)用架構(gòu)層、到應(yīng)用層,如下圖所示,揭示基于 MCP 的 AI 應(yīng)用技術(shù)如何在不同的層面上協(xié)同工作,推動(dòng)產(chǎn)業(yè)應(yīng)用的落地。
一、 基礎(chǔ)設(shè)施層
AI 大模型技術(shù)發(fā)展離不開堅(jiān)實(shí)的基礎(chǔ)設(shè)施支持,涵蓋了 GPU、CPU、RAM、HDD、Network 等關(guān)鍵硬件設(shè)施。這些硬件設(shè)備為 AI 大模型的訓(xùn)練與推理提供了關(guān)鍵的運(yùn)算資源和存儲(chǔ)能力。
1.1、 GPU(圖形處理單元)的作用
GPU 針對(duì)并行計(jì)算進(jìn)行了優(yōu)化,非常適合深度學(xué)習(xí)以及執(zhí)行復(fù)雜計(jì)算任務(wù)。與傳統(tǒng) CPU 相比,GPU 在處理大規(guī)模數(shù)據(jù)時(shí)具有顯著優(yōu)勢(shì),特別是在圖像處理和神經(jīng)網(wǎng)絡(luò)訓(xùn)練領(lǐng)域。
1.2、 CPU(中央處理單元)的重要性
CPU 作為通用處理器,承擔(dān)了大部分的計(jì)算任務(wù)。雖然在并行處理方面不及GPU,但 CPU 在執(zhí)行邏輯運(yùn)算和控制任務(wù)時(shí)表現(xiàn)高效,構(gòu)成了計(jì)算機(jī)系統(tǒng)的關(guān)鍵部分。
1.3、 RAM(隨機(jī)存取存儲(chǔ)器)的功能
RAM 提供了計(jì)算過程中快速讀寫數(shù)據(jù)的臨時(shí)存儲(chǔ)空間。其主要職責(zé)是存放正在運(yùn)行的程序和數(shù)據(jù),使得 CPU 能夠迅速訪問這些信息,從而提升整體的計(jì)算效率。
1.4、 HDD(硬盤驅(qū)動(dòng)器)的角色
HDD 承擔(dān)著存儲(chǔ)大量訓(xùn)練數(shù)據(jù)和模型文件的任務(wù)。盡管其訪問速度不及RAM,但 HDD憑 借較大的存儲(chǔ)容量,成為長(zhǎng)期保存數(shù)據(jù)的主要設(shè)備。
1.5、 Network(網(wǎng)絡(luò))的角色
Network 為 AI 大模型的預(yù)訓(xùn)練、微調(diào)、推理、應(yīng)用訪問提供分布式的通信基礎(chǔ)設(shè)施。
二、 云原生層
2.1、 彈性伸縮層
基于 Docker 容器和 K8S 的彈性云原生架構(gòu),為 AI 大模型的預(yù)訓(xùn)練、微調(diào)、推理以及 AI 應(yīng)用的部署,提供了高擴(kuò)展、高可用的云環(huán)境,從而根據(jù)訪問量的情況動(dòng)態(tài)伸縮。
三、模型層
這一層主要由大語言模型、視覺-語言模型、小模型等構(gòu)成。
3.1、 大語言模型(LLMs)
大語言模型的運(yùn)用大語言模型,比如:DeepSeek R1,具備處理及生成自然語言文本的能力。這些模型通過海量訓(xùn)練數(shù)據(jù)學(xué)習(xí)語言規(guī)律,能夠執(zhí)行包括文本創(chuàng)作、翻譯、摘要在內(nèi)的多種自然語言處理任務(wù)。
3.2、 視覺-語言模型的融合
視覺-語言模型結(jié)合了視覺與語言信息,能夠理解和創(chuàng)造跨模態(tài)內(nèi)容。這種模型不僅能夠處理文字信息,還能識(shí)別和生成圖像、視頻等視覺內(nèi)容,廣泛應(yīng)用于圖像標(biāo)注、視頻解析等領(lǐng)域。
3.3、 智能文檔理解的實(shí)現(xiàn)
智能文檔理解技術(shù)通過解析文本和非結(jié)構(gòu)化數(shù)據(jù),實(shí)現(xiàn)對(duì)文檔內(nèi)容的深入理解。它能夠自動(dòng)抓取關(guān)鍵信息,執(zhí)行文檔的分類和提煉工作,從而為文檔管理及信息檢索提供智能化支持。
3.4、 多模態(tài)檢測(cè)與分類的技術(shù)
多模態(tài)檢測(cè)與分類技術(shù)整合了多種數(shù)據(jù)類型,以實(shí)現(xiàn)更精確的分類和檢測(cè)。通過融合文本、圖像、音頻等多種模態(tài)的信息,該技術(shù)提升了模型的精確度和穩(wěn)健性,并在安全監(jiān)控、醫(yī)療診斷等多個(gè)領(lǐng)域得到了廣泛應(yīng)用。
四、應(yīng)用技術(shù)層
4.1、 MCP 技術(shù)
MCP(Model Context Protocol)是由 Anthropic 公司提出的一種協(xié)議,旨在解決不同大語言模型(LLM)與不同外部工具集成的標(biāo)準(zhǔn)化問題。通過MCP,開發(fā)者能夠以一種統(tǒng)一的方式將各種數(shù)據(jù)源和工具連接到 AI 大模型,從而提升大模型的實(shí)用性和靈活性。
目前,MCP 生態(tài)已經(jīng)得到了廣泛的支持,包括 Anthropic 的 Claude 系列、OpenAI 的 GPT 系列、Meta 的 Llama 系列、DeepSeek、阿里的通義系列以及 Anysphere 的 Cursor 等主流模型均已接入 MCP 生態(tài)。
MCP 的架構(gòu)設(shè)計(jì)
MCP 采用了客戶端-服務(wù)器架構(gòu),主要包括以下幾個(gè)核心組件:
1、MCP 主機(jī)(Hosts)
角色:這是需要訪問數(shù)據(jù)的程序,例如Claude Desktop、各種IDE或AI工具。
功能:它們是MCP生態(tài)系統(tǒng)的入口點(diǎn),負(fù)責(zé)向用戶提供AI功能,并作為用戶與AI模型之間的橋梁。
2、MCP 客戶端(Clients)
角色:這些是協(xié)議客戶端,負(fù)責(zé)維持與 MCP 服務(wù)器的1:1連接。
功能:它們處理通信細(xì)節(jié),確保主機(jī)和服務(wù)器之間的數(shù)據(jù)傳輸順暢,從而實(shí)現(xiàn)高效的數(shù)據(jù)交互。
3、MCP 服務(wù)器(Servers)
角色:這些是輕量級(jí)程序,每個(gè)服務(wù)器都通過標(biāo)準(zhǔn)化的 Model Context Protocol 暴露特定功能。
功能:服務(wù)器是 MCP 的核心,它們連接 AI 大模型與實(shí)際數(shù)據(jù)源,使模型能夠訪問和操作數(shù)據(jù)。
4、數(shù)據(jù)源
本地?cái)?shù)據(jù)源:包括您計(jì)算機(jī)上的文件、數(shù)據(jù)庫和服務(wù),MCP 服務(wù)器可以安全地訪問這些資源。
遠(yuǎn)程服務(wù):通過互聯(lián)網(wǎng)可用的外部系統(tǒng)(比如:通過 API),MCP 服務(wù)器可以連接這些系統(tǒng),從而擴(kuò)展模型的能力。
4.2、 Agent(智能體)技術(shù)
Agent 智能體技術(shù)就是利用大模型的推理能力對(duì)任務(wù)進(jìn)行規(guī)劃拆解,并使用外部的工具完成一件復(fù)雜的任務(wù)。
4.3、 RAG(檢索增強(qiáng)生成)技術(shù)
RAG 技術(shù)融合了檢索與生成兩種方法,旨在提升信息生成的精準(zhǔn)度。它利用檢索到的相關(guān)信息來增強(qiáng)生成模型的效能,確保所生成內(nèi)容的準(zhǔn)確性與相關(guān)性。
4.4、 大模型微調(diào)(Fine-tuning)
大模型微調(diào)技術(shù)通過對(duì)模型進(jìn)行細(xì)致調(diào)整,使其更好地適應(yīng)特定任務(wù)需求。在特定任務(wù)的數(shù)據(jù)集上進(jìn)行微調(diào)后,模型在相關(guān)任務(wù)上的性能可以得到顯著提升,實(shí)現(xiàn)更精準(zhǔn)和高效的處理。
4.5、 提示詞工程(Prompt Engineering)
提示詞工程專注于設(shè)計(jì)高效的提示語,以優(yōu)化模型的輸出結(jié)果。通過精心設(shè)計(jì)的提示詞,可以引導(dǎo)模型生成更加符合預(yù)期的內(nèi)容,從而提升生成文本的質(zhì)量。
4.6、 思維鏈(Chain-of-Thought)技術(shù)
思維鏈技術(shù)模擬人類的思考過程,以增強(qiáng)模型的決策和推理能力。通過逐步推理和決策,該技術(shù)使得模型能夠更有效地處理復(fù)雜問題,并做出更加合理的判斷。
4.7、 數(shù)據(jù)工程技術(shù)
在應(yīng)用技術(shù)層,還涵蓋了數(shù)據(jù)抓取、清洗、構(gòu)建向量庫、實(shí)施訪問控制等數(shù)據(jù)處理的全流程,這些環(huán)節(jié)確保了數(shù)據(jù)的質(zhì)量和安全。這些基礎(chǔ)步驟對(duì)于模型的訓(xùn)練和推理至關(guān)重要,它們有助于增強(qiáng)模型的性能和信賴度。
五、應(yīng)用架構(gòu)層
5.1、 工程技術(shù)架構(gòu)
通過工程技術(shù)架構(gòu)的設(shè)計(jì)解決 AI 應(yīng)用高可用、高性能、高可靠。
5.2、 業(yè)務(wù)架構(gòu)
針對(duì)業(yè)務(wù)場(chǎng)景選擇合適的業(yè)務(wù)架構(gòu)類型(RAG 架構(gòu)、AI Agent 架構(gòu)等選型)。
5.3、 云原生架構(gòu)
解決 AI 應(yīng)用彈性伸縮。
六、應(yīng)用層
6.1、 增量應(yīng)用
AI 應(yīng)用的增量應(yīng)用主要分為 RAG 類應(yīng)用、Agent 類應(yīng)用。
6.2、 存量應(yīng)用
AI 應(yīng)用的存量應(yīng)用主要分為 OLTAP 類應(yīng)用、OLAP 類應(yīng)用。
本文轉(zhuǎn)載自公眾號(hào)玄姐聊AGI 作者:玄姐
