忘掉 Manus 模型上下文協議MCP 正在重新定義智能體的未來 原創
大多數普通人眼里 AI 的模樣是什么?看著網站草圖,AI就自動做了一個原形網站。只需要告訴 AI 指令,它就幫你完成了一系列的機票訂票流程。許多人更是憧憬過 All in One App —— 我只要動嘴,一切活有AI搞定??梢哉f,現階段的 AI 使用形態,充其量就是個氛圍組。我只能獲取必要的資料指引,具體的活還得我自己來干。
而過去兩年的發展,AI Agent 不過是雷聲大,雨點小的玩意了。做的人很多,但是能夠在路人之間火出圈的產品,大抵也只有 Manus,它的火爆宣告著 —— AI Agent,就是眾人的希望。沒辦法,誰讓人類就是這么懶呢?要是一個技術能讓我偷懶摸魚,那最好趕緊的。接觸 MCP 之后,全知全能 AI Agent可能真的近在咫尺了,比如下面這些場景。
1. 基于內部文檔的智能客服
把幫助文檔做成 MCP 服務,直接變身智能客服,不需要做 RAG 知識庫,也能夠精準解答客戶基礎問題。
2. 自動網頁爬蟲工具
讓 AI 自動爬取澳洲各高校錄取要求,自動生成匯總生成招生簡章,并附上所有引用信源。
你可以直接點擊此處看看它寫的咋樣。??http://au.pflm.net/news/??
3. 瀏覽器操作助手
讓 AI 操作瀏覽器,登錄 WP 網站后臺,按照你的需求進行點點的操作。我更喜歡這個案例,因為它真的可以看懂你的網頁內容,按照你的指令干活。而實現這一切的背后技術,全然離不開 Anthropic 在 24 年 12 月悄的 MCP(模型上下文協議)標準。
接下來,將深入解析 MCP 的概念、技術原理以及多種應用場景,幫助你快速理解并上手 MCP。
什么是 MCP?
MCP(模型上下文協議)是一個標準化工具箱,使 AI 大模型能夠與外部工具交互,獲取信息并完成具體任務。在傳統方法中,用戶需要手動復制文本、截圖,然后粘貼到 AI 窗口進行交互。而 MCP 通過標準化協議自動化了這一過程,作為 AI 與外部工具的中間層,替代人工操作,相當于一個能夠讓所有 LLM 順暢自動使用互聯網上的一系列軟件工具,只要支持了 MCP,那么不用你教,LLM 自己就會用了。
智能體普及緩慢最重要的一個原因在于大模型與現有應用和數據的集成度比較低,無法獲取多種數據,形成數據孤島。真是應了那句 “巧婦難為無米之炊”。即使你大模型在強大,沒有數據集成、工具的調用,大模型的能力無用武之地。在 Anthropic 發布 MCP 之后將會將 AI 應用開發推向一個高度。許多大模型開發框架 Spring AI、 LangChain4j 都已經集成,包括 OpenAI 也宣布支持 MCP。
MCP 的工作原理
MCP 由多個 MCP 服務器(MCP Server)組成,每個 Server 負責特定任務,例如:
- 瀏覽器操作(如讀取網頁內容)
- 文檔處理(如編輯和解析本地文檔)
- 代碼管理(如操作 Git 倉庫)
架構組件 | 描述 |
MCP Host | 通過 MCP 訪問數據的 Claude Desktop、IDE 、 AI 工具或自己開發應用等程序 |
MCP Clients | 與服務器保持 1:1 連接的協議客戶端 |
MCP Servers | 輕量級程序,每個程序都通過標準化的 Model Context Protocol 公開特定功能 |
Local Data Sources | MCP 服務器可以安全訪問的計算機文件、數據庫和服務 |
Remote Services | MCP 服務器可以連接到的 Internet 上可用的外部系統(例如,通過 API) |
架構上也是非常簡單,核心內容還是在于三部分內容:MCP Client、MCP Server 以及 Client 與 Server之間的交互協議 Transport。
工作原理
MCP的工作原理可以概括為三個關鍵步驟,這三個步驟環環相扣,如同精密的齒輪,推動著 AI 與數據之間的交互 。
1. 調用聊天完成 API 傳遞函數和用戶輸入
當我們在 MCP 主機(如 Claude Desktop)上向 AI 助手提出一個問題時,MCP 客戶端會將這個問題以及相關的函數調用信息,通過聊天完成 API 傳遞給 MCP 服務器 。例如,我們詢問 “我昨天在 GitHub 上提交的代碼有哪些問題?”,MCP 客戶端就會把這個問題和與 GitHub 相關的函數調用信息發送給 MCP 服務器。
2. 用模型響應調用 API 或函數
MCP服務器接收到請求后,會將其傳遞給AI模型。AI模型根據接收到的信息進行分析和處理,然后生成一個響應。這個響應可能包含對API或函數的調用指令。比如,AI模型判斷需要獲取GitHub上的代碼信息,就會生成調用GitHub API的指令,MCP服務器會根據這些指令去調用相應的API或函數,獲取所需的數據。
3. 再次調用 API 得到最終響應
MCP服務器獲取到API或函數的執行結果后,會將這個結果再次與用戶的原始輸入一起,通過聊天完成API發送給AI模型。AI模型根據這些信息生成最終的響應,并通過 MCP客戶端返回給用戶。在上述例子中,MCP服務器將從GitHub獲取到的代碼信息發送給AI模型,AI模型分析后給出關于代碼問題的回答,然后通過MCP客戶端展示給用戶。
MCP為大模型帶來的變革
MCP 賦予了 AI 自助提問,自主尋找答案和結果的權力, 為 AI 大模型帶來了變革。
(一)打破數據孤島
在傳統的數據集成方式中,每個數據源都像是一座孤立的島嶼,與其他數據源之間缺乏有效的連接。不同的數據庫、文件系統、服務等,由于各自的接口、協議、數據格式等不同,很難實現數據的自由流動和共享。這就導致AI大模型在獲取數據時面臨重重困難,無法充分利用各種數據資源來提升自身的能力。
而 MCP 的出現,就像是一場 “數據解放運動”,打破了這些數據孤島之間的壁壘 。它提供了一個標準化的協議,讓AI大模型能夠以統一的方式訪問各種數據源,無論是本地的文件、數據庫,還是遠程的 API服務。通過 MCP,不同的數據源可以輕松地連接到AI模型,就像無數條小溪匯聚成一條大河,讓數據能夠自由地流動起來 。
以一個企業為例,它可能擁有客戶關系管理系統(CRM)、企業資源規劃系統(ERP)、數據分析平臺等多個不同的系統,每個系統都存儲著重要的數據 。在過去,這些系統之間的數據很難共享,AI大模型想要獲取這些數據,需要分別與每個系統進行復雜的集成 。但有了MCP之后,企業可以通過MCP服務器將這些系統的數據暴露出來,AI大模型只需要通過MCP客戶端,就能夠輕松地訪問這些數據,實現數據的整合和利用,為企業的決策提供更全面、準確的支持 。
(二)簡化開發流程
在 MCP 出現之前,開發者要讓 AI 大模型與不同的數據源進行交互,需要為每個數據源編寫單獨的連接器。這就好比你要連接不同的電器設備,卻需要為每個設備都準備一種獨特的插頭,不僅繁瑣,而且容易出錯。每一個新的數據源,都意味著開發者要花費大量的時間和精力去了解其接口規范、數據格式,編寫相應的代碼來實現數據的讀取、寫入和處理。而且,當數據源發生變化或者需要更新時,開發者還需要對連接器進行維護和修改,這無疑增加了開發的成本和復雜性 。
MCP的出現,就像是為所有的電器設備提供了一個通用的插頭,讓開發者無需再為每個數據源編寫單獨的連接器。它提供了一個標準化的接口,開發者只需要遵循這個接口規范,就能夠輕松地將不同的數據源連接到 AI 大模型 。無論是連接數據庫、文件系統,還是調用 API 服務,都變得簡單而高效 。
例如,一個開發者想要讓 AI 大模型能夠訪問 GitHub 上的代碼倉庫和 Slack 上的團隊聊天記錄 。在沒有 MCP 的情況下,他需要分別為 GitHub 和 Slack 編寫不同的連接器,處理不同的認證方式、數據格式等問題。而有了MCP之后,他只需要使用 MCP 提供的客戶端和服務器 SDK,按照MCP的規范進行配置,就能夠快速地實現 AI 大模型與 GitHub 和 Slack 的連接,大大簡化了開發流程,提高了開發效率 。
(三)增強模型能力
數據是AI大模型的 “燃料”,更多、更豐富的數據能夠讓模型學習到更多的知識和模式,從而提升其性能和表現。MCP通過為AI大模型提供無縫的數據訪問,讓模型能夠獲取到更廣泛、更實時的數據,從而生成更精準、相關的響應 。
當AI大模型能夠訪問實時的新聞數據時,它在回答關于時事熱點的問題時,就能夠給出更及時、準確的答案。當模型能夠連接到專業的學術數據庫時,它在處理學術問題時,就能夠提供更深入、專業的見解。MCP還能夠讓模型在不同的數據源之間進行上下文切換,更好地理解用戶的問題和需求 。
比如,在一個智能客服場景中,客服人員向AI大模型詢問某個客戶的訂單信息以及該客戶的歷史咨詢記錄。通過MCP,AI大模型可以同時訪問訂單管理系統和客戶服務系統的數據,快速準確地獲取到相關信息,并根據這些信息為客服人員提供全面的解答,提高客戶服務的質量和效率。MCP就像是為AI大模型打開了一扇通往知識寶庫的大門,讓模型能夠不斷地汲取新的知識和信息,變得更加智能和強大 。
快速上手:安裝 MCP
就像大部分軟件使用一樣,想要讓 AI 使用上 MCP,那么你得安裝一個客戶端軟件。這個軟件不僅要能調 AI,還需要連接 MCP 服務器。
1、安裝支持 MCP 的客戶端
目前支持 MCP 的客戶端較少,基本只有以下工具:
- Cursor(AI 編程工具,開通 MCP 需支付 20 美元/月)
- Claude 官方客戶端 (美國信用卡 20 美元 / 月)
- Client(開源免費,本文以此為例)
我知道你們在想啥,不就是錢的事(你還得搞定美國信用卡),所以下文將會用免費的 VS Code + Cline 插件來帶你一步步安裝 → 感受你的 AI Agent 時刻。
1.1 安裝 Cline 并配置 AI 模型
- 下載并安裝 VS Code。??https://code.visualstudio.com/??
- 在 VS Code 的 Extensions(插件)市場搜索并安裝 Client。
3.配置 AI 模型:
- 選擇 DeepSeek 作為模型提供商。
- 去 DeepSeek API 平臺 () 申請一個 API Key。現在官方的服務器已經可以穩定使用了。
- 選擇 ?
?deepseek-chat?
?。你也可以使用 ??deepseek-r1?
?,我只是嫌它每次使用工具還要思考一遍,太內耗太慢了。
這安裝頁面這么程序員,有沒有一個更小清新的使用入口?沒錯希望我朋友圈的大廠里的高人快速整一個,AI 大舞臺,有夢你就來。MCP 時代,客戶端軟件是妥妥的流量入口。
2、安裝 Node.js 運行環境
MCP Server 運行在本地的 Node.js 進程上,因此需要安裝 Node.js。
- 訪問 Node.js 官網 下載并安裝。??https://nodejs.org/??
- 驗證安裝:
打開你的終端,運行以下命令:
node -v
npx -v
好了確保成功輸出版本號。
3、安裝 MCP Server
1. 在 Cline 內點擊 MCP Server 按鈕,打開 MCP Server 應用市場。
2. 選擇所需的 MCP Server(例如 Playwright 會使用瀏覽器的工具),點擊安裝。
4、 測試 MCP Server
- 在 Cline 中輸入命令:使用 Playwright 打開網站: au.pflm.net
- AI 自動調用 MCP 工具,此時你需要點擊同意。
3.然后你就可以讓 AI 去幫你干活了,比如說扒拉網頁中的內容,變成自己的文檔。
4.其它 MCP 工具同理。
更多 MCP 工具推薦
- browser2:AI 讀取瀏覽器內容,需安裝 Chrome 插件。
- Squint Shell Thinking:將普通大模型轉換為推理模型。
- Filesystem:允許 AI 訪問本地文件系統。
你也可以訪問訪問 Smithery AI https://smithery.ai/ 發現更多 MCP Server。
MCP 作為 AI 與外部工具交互的標準協議,極大提升了自動化能力。掌握 MCP 的基本原理和配置方法,可以幫助你高效利用 AI 進行開發和數據處理。
總結
自 Anthropic 公司開源 MCP 以來,它便在AI 領域引起了廣泛關注,猶如一顆投入平靜湖面的石子,激起層層漣漪。許多知名企業和平臺已經敏銳地察覺到MCP的潛力,并紛紛接入。美國金融服務公司 Block Inc. 已經把MCP整合進了他們的系統,借助MCP,能夠更高效地處理金融數據,為客戶提供更精準的金融服務。
在開源方面,Anthropic 為開發者提供了豐富的資源,包括模型上下文協議規范、軟件開發工具包(SDK),以及 Claude 桌面應用程序中的本地 MCP 服務器支持。還提供了一個 MCP 服務器的開源存儲庫,開發者可以根據自己的需求,在這個基礎上進行二次開發,構建出符合自己業務需求的 MCP 應用 。
展望未來,MCP將進一步推動AI生態系統的發展,促進不同AI模型、數據源和工具之間的互聯互通。它將成為AI世界的 “通用語言”,讓各種AI組件能夠更加順暢地協作,形成一個更加龐大、高效的AI生態網絡。在這個生態網絡中,開發者可以更輕松地構建出復雜的AI應用,實現更多創新的想法 。
MCP的發展也面臨著一些挑戰。數據安全和隱私保護始終是重中之重,隨著MCP連接的數據源越來越多,如何確保數據在傳輸和使用過程中的安全性和隱私性,是需要持續關注和解決的問題。不同數據源和系統之間的兼容性問題也不容忽視,MCP需要不斷優化,以適應各種復雜的環境。隨著MCP的應用場景不斷拓展,對其性能和可擴展性也提出了更高的要求,需要不斷進行技術創新和改進 。
本文轉載自公眾號數字化助推器 作者:天涯咫尺TGH
原文鏈接:??https://mp.weixin.qq.com/s/30MDvDNE3zF4f2kGHWazbQ??
