成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

扒一扒最近較火的MCP 原創

發布于 2025-4-10 06:28
瀏覽
0收藏

MCP正在成為一種標準,可幫助開發人員構建AI系統,使這些系統能夠與其他外部應用程序進行有效通信。Microsoft最近宣布將MCP集成到其Copilot Studio 中,以簡化AI應用程序和代理訪問工具的方式。此外,OpenAI還宣布在其產品中支持MCP,例如Agents SDK和ChatGPT的桌面應用程序。

封面的圖片很直觀的闡述了MCP,它是一種開放協議,MCP 是一個開放協議,用于標準化應用程序向大語言模型提供上下文的方式。MCP由Anthropic公司在2024年底推出,旨在解決大語言模型(LLM)與外部數據源和工具之間的集成問題。

扒一扒最近較火的MCP-AI.x社區

進入2025年它在github的星星也是一路暴漲,可以將MCP想象成AI應用的USB-C端口。正如USB-C提供了一種將設備連接到各種外圍設備和配件的標準化方式一樣,MCP也提供了一種AI模型連接到不同數據源和工具的標準化方式。

扒一扒最近較火的MCP-AI.x社區

MCP由三個核心組件構成:Host、Client和Server。

扒一扒最近較火的MCP-AI.x社區

舉個栗子解釋上圖,假設你正在使用某個大模型的桌面端(例如LLMDesktop)進行大模型詢問:"我桌面上有哪些文檔?"

  • Host:LLMDesktop作為Host,負責接收你的提問并與對應的LLM模型交互。
  • Client:當LLM模型決定需要訪問你的文件系統時,Host中內置的MCPClient會被激活。這個Client負責與適當的MCPServer建立連接。
  • Server:在這個例子中,文件系統會被MCPServer調用。它負責執行實際的文件掃描操作,訪問你的桌面目錄,并返回找到的文檔列表。

進一步抽象,當用戶提出一個問題時:

1) 客戶端把你的問題發送給LLM。

2) LLM分析可用的工具,并決定使用哪一個(或多個)。

3)客戶端通過MCPServer執行所選的工具。

4) 工具的執行結果被送回給LLM。

5) LLM結合執行結果構造最終的prompt并生成自然語言的回應。

6)回應最終展示給用戶

扒一扒最近較火的MCP-AI.x社區

1.LLM自動挑選工具

MCPServer是由LLM主動選擇并調用的!那么有意思的事情來了,模型如何選擇工具呢?可以通過分析官網的代碼得知:模型是通過Prompt Engineering來實現的。也就是說MCPServer將所有它能提供的工具進行結構化描述,包括給一些使用示例加入到提示詞,以便讓LLM理解且來確定該使用哪些工具。

什么是工具,工具可以是接口調用,也可以是任何的服務。熟悉Agent的同學應該不是很陌生。另一方面,由于MCP是Anthropic最早提出,肯定對Claude做了專門的訓練(畢竟是自家協議,Claude更能理解工具的prompt以及輸出結構化代碼)

system_message=("你是一位小助手,你有權訪問下面的這些工具:\n\n"f"{工具描述,包括出入參數}\n""請選擇最合適的工具來回答用戶的問題.""如果沒有任何工具需要,就直接回答.\n\n""重要:若你需要使用工具,你必須按照下面的格式響應"#下面對于工具的使用做出了提示詞層面的約束"…………:\n""{\n"'"tool":"tool-name",\n''"arguments":{\n''"argument-name":"value"\n'"}\n""}\n\n""Afterreceivingatool'sresponse:\n""1.Transform the rawdata into a natural,conversational response\n""2.Keep responses concise but informative\n""3.Focus on the most relevant information\n""4.Use appropriate context from the user'squestion\n""5.Avoid simply repeating the rawdata\n\n""Please use only the tools that are explicitly defined above.")

工具文檔至關重要由此而言特別重要,模型通過工具描述文本來理解和選擇工具,因此精心編寫工具的名稱、文檔和參數說明至關重要。由于MCP的選擇是基于prompt的,所以任何模型其實都適配MCP,只要你能提供對應的工具描述。但是當你使用非Claude模型時,MCP使用的效果和體驗難以保證(沒有做專門的訓練)。下面再次展示了一個例子,DB MCP Server提供了Execute SQL的Tool,然暴露出來,但是客戶使用的時候,將資源和需求發送給LLM,讓LLM決定執行的SQL與調用的工具,最后完成SQL調用和執行。

扒一扒最近較火的MCP-AI.x社區

2.MCP Server

扒一扒最近較火的MCP-AI.x社區

MCP服務是MCP世界與外部系統的特定功能(API、數據庫、本地文件等)之間的橋梁/API。它們本質上是根據MCP規范公開這些外部功能的包裝器。服務器可以用各種語言(Python、TypeScript、Java、Rust等)構建,只要它們可以通過支持的傳輸方式進行通信。服務器主要通過兩種方法與Client端通信:

  • STDIO(標準輸入/輸出):當Client和Server在同一臺計算機上運行時使用。這對于本地集成(例如,訪問本地文件或運行本地腳本)來說既簡單又有效。
  • 通過SSE的HTTP(服務器發送的事件):客戶端通過HTTP連接到服務器。初始設置后,Server可以使用SSE標準通過持久連接將消息(事件)推送到Client。

除了上述的三個要素,其實還存在另外的兩個要素:

  • 本地數據源:MCP服務可以安全訪問的計算機文件、數據庫和服務
  • 遠程服務:MCP服務可以連接到的互聯網(例如,通過API)提供的外部系統

這種架構設計使得LLM大模型可以在不同場景下靈活調用各種工具和數據源,而開發者只需專注于開發對應的MCPServer,無需關心Host和Client的實現細節。

3.熱度上升

雖然Anthropic在2024年底宣布了MCP,但其勢頭在2025年初顯著加速。這不僅僅是隨機的炒作。幾個因素匯聚在一起:

1)MCP是專為滿足現代AI Agent的需求而設計的。MCP優化和抽象了Agent的運行模式

工具(模型控制):AI決定執行的。

資源(應用程序控制):提供給AI的上下文。

提示(用戶控制):特定的用戶調用的交互。

2)MCP的開放標準存在非常好的規范,且提供非常詳細的規格說明。

3)Anthropic不是從頭開始重新發明一切,而是從語言服務器協議(LSP)改編而來,例如JSON-RPC2.0。

4)Anthropic為它構建了強大的初始生態系統,并發布了一個全面的初始客戶:ClaudeDesktop,還包括各種服務(文件系統、git、Slack等)。5. 開發工具包也是齊整。Python、TypeScript、Java、Kotlin、C#。6.Cursor和Windsurf等工具集成了MCP。Composio等公司為數百個集成提供了預構建服務。OpenAI也宣布支持MCP。

本文轉載自??魯班模錘??,作者:龐德公

?著作權歸作者所有,如需轉載,請注明出處,否則將追究法律責任
收藏
回復
舉報
回復
相關推薦
主站蜘蛛池模板: 在线观看日韩av | 在线视频 中文字幕 | 亚洲在线 | 四虎永久在线精品免费一区二 | 欧美一级片黄色 | 很很干很很日 | 日韩综合一区 | 国产精品久久久精品 | 99国内精品 | 婷婷中文字幕 | 日韩视频 中文字幕 | 成人福利网站 | 久久91| 黑人巨大精品欧美一区二区免费 | 久热电影 | 日韩中文一区二区三区 | 国产成人精品久久二区二区91 | 97精品超碰一区二区三区 | 亚洲一区二区中文字幕在线观看 | aaa综合国产| 激情婷婷 | 久久不卡| 国产日韩欧美在线观看 | 99精品网站 | 国产精品久久久久久av公交车 | 国产精品久久久久久久久久久免费看 | 欧美日韩在线视频一区 | 日韩免费一区二区 | 欧美三级电影在线播放 | 久久香蕉精品视频 | 在线观看亚洲专区 | 亚洲欧美日韩精品 | 在线看片网站 | 亚洲精品一二三区 | av毛片 | 中文字幕乱码视频32 | 91pron在线| 欧美激情在线精品一区二区三区 | 日本在线视频中文字幕 | 午夜免费观看体验区 | 日本中文字幕日韩精品免费 |