成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

Cursor + MCP:雙劍合璧,解鎖極致編程效率

人工智能
本文探討了 Cursor 與 MCP 的深度結合可以顯著提升編程效率。通過引入 MCP 的概念,我們了解到它能夠為 AI 開發工具提供更精準的上下文理解,使大模型在代碼生成、調試和優化時更加智能。

前言

近期,MCP在開發者社區中廣受關注,成為業界熱點。值得關注的是,Cursor編輯器在0.45.x版本中已正式加入了對MCP的支持。作為深度依賴Cursor的開發者們,理解MCP的核心概念及其應用場景,將有助于我們更高效地利用它來提升開發效率。

環境說明

開發環境: Node

Cursor:1.1.3

一、MCP

什么是MCP

MCP全稱Model Context Protocol(模型上下文協議),這是官方的介紹:

MCP 是一種開放協議,用于標準化應用程序向大語言模型(LLM)提供上下文的方式。你可以把 MCP 想象成 AI 應用的 USB-C 接口——正如 USB-C 為設備與各種外設和配件提供了統一的連接標準,MCP 也為 AI 模型與不同數據源和工具之間的交互提供了標準化方案

一句話描述就是MCP是一座橋,讓大模型可以調用我們的應用。

為什么規范了這樣的協議?

工具調用能力是大模型進化為智能體Agent的關鍵所在,如果不能調用,那么大模型只是一個高級聊天機器人。在此之前,業內通用的做法是利用Function Calling來實現外部工具調用。

Function Calling是OpenAI在2023年6月首次提出的技術方案,它旨在當模型在對話過程中識別到用戶請求需要特定操作時,通過調用預定義的外部函數接口實現復雜操作,從而打通了大模型與外部服務之間的數據通道。但是這種技術有一定的弊端。舉個例子,當我們對大模型發出一段復合指令:"查詢北京天氣、生成旅游攻略并完成門票購買"。開發者需要:

  1. 分別對接天氣服務、地圖服務和票務系統API;
  2. 編寫復雜的串聯調用邏輯;
  3. 針對不同模型平臺重復適配接口規范;

這種碎片化的開發模式造成大量重復勞動。而MCP作為標準化工具調用協議應運而生,其核心價值在于:

  • 統一跨模型的工具調用規范
  • 實現服務接口的"一次定義,多處復用"
  • 構建可擴展的智能體開發生態

MCP 與 Function Calling 的區別

圖片

MCP工作方式

MCP的核心是遵循客戶端-服務器架構,其中主機應用程序可以連接到多個服務器:

圖片圖片

  • Host: 想要通過MCP訪問數據的程序
  • MCP Client:與服務器保持1:1連接的協議客戶端
  • MCP Server:負責向客戶端提供 ResourcesPrompts 和 Tools 的服務器

二、Cursor接入MCP

了解了MCP的核心機制后,你可能會想:這在實際開發中能帶來哪些價值?接下來,我將通過一個真實場景,展示MCP如何顯著提升我們的工作效率。

在前端開發工作中,頁面構建始終是一項耗時且重要的任務。雖然目前已有V0、Bolt.new等AI工具可以快速生成頁面原型,但仍需開發人員進行復制粘貼等手動操作。2025年3月,MasterGo發布了MCP Server,通過將MasterGo MCP與Cursor集成,開發者可以直接獲取設計畫布數據,并借助智能Agent自動生成項目代碼。下面我將介紹下關鍵操作流程,具體可參考MasterGo MCP官方文檔。

生成token

  1. 前往MasterGo官網注冊
  2. 右上角頭像 - 個人設置 - 設置 - 安全設置
  3. 點擊生成令牌

圖片圖片

Cursor配置

  1. Cursor Setting > Tools & Integrations > MCP Tools
  2. 點擊 “new MCP Server”
  3. 將以下代碼添加進mcp.json

Mac配置

{
  "mcpServers": {
    "mastergo-magic-mcp": {
      "command": "npx",
      "args": [
        "-y",
        "@mastergo/magic-mcp",
        "--token=MG_MCP_TOKEN",
        "--url=https://mastergo.com"
      ],
      "env": {
        "NPM_CONFIG_REGISTRY": "https://registry.npmjs.org/"
      }
    }
  }
}

Windows配置

{
  "mcpServers": {
    "mastergo-magic-mcp": {
      "command": "cmd",
      "args": [
        "/c",
        "npx",
        "-y",
        "@mastergo/magic-mcp",
        "--token=MG_MCP_TOKEN",
        "--url=https://mastergo.com"
      ],
      "env": {
        "NPM_CONFIG_REGISTRY": "https://registry.npmjs.org/"
      }
    }
  }
}

將其中的MG_MCP_TOKEN替換為從MasterGo官網上生成的token,保存后返回Cursor Settings,點擊刷新,服務前綠燈亮起,代表啟動成功

圖片圖片

使用MCP

在Cursor中Ctrl + L打開智能對話聊天框,選擇Agent模式,將MasterGo設計畫布鏈接(提示:可使用官方示例或通過MasterGo AI生成的UI設計稿)粘貼至輸入區,即可自動生成完整頁面。

圖片圖片

如上圖所示,大模型在解析用戶prompt后,通過調用MCP工具首先生成基礎HTML文檔結構,隨后基于設計規范自動填充完整的頁面代碼。

最終效果

圖片圖片

通過上述案例可以看出,接入MasterGo MCP后,僅需提供設計畫布鏈接就能快速生成項目頁面,開發效率得到顯著提升。

三、Cursor開發MCP Server實踐

在理解MCP基本原理的基礎上,讓我們通過Cursor實現MCP Server的快速開發。開發者可參考官方文檔或使用 FastMCP逐步開發,下面主要講述的是用Cursor幫我們自動生成一個MCP Server。

生成Cursor Rules

當前,大模型的應用效果與prompt質量密切相關,但高質量prompt的編寫往往需要豐富的經驗積累。在實踐中,可通過結構化、模板化的方法(如LangGPT)來提升prompt編寫質量。基于大模型的自我學習能力,現可按照以下流程實現prompt的優化生成規則:

  1. 將LangGPT Github地址粘貼至Cursor對話框中,生成LangGPT助手.md
  2. 點擊Cursor Setting > Rules > Add Rule
  3. 命名文件,粘貼LangGPT助手內容至.mdc文件

圖片圖片

接下來,我們繼續讓大模型去學習MCP:

  1. 點擊Cursor Setting > Indexing & Docs > Docs > Add Doc
  2. 將MCP官網地址加入Cursor Docs中
  3. 在Cursor聊天對話框中輸入@Doc選擇剛才添加的MCP,讓大模型去學習并用LangGPT格式生成MCP應用專家.md
  4. 點擊Cursor Setting > Rules > Add Rule
  5. 命名文件,粘貼MCP應用專家內容至.mdc文件

圖片圖片

生成MCP Server文件

上面已經在當前路徑下創建了rules,接下來我們可以根據rules來生成MCP Server:

圖片圖片

如上圖所示,大模型的角色現在是一個mcp專家,同時提出自己的要求,且為它提供一個官方參考案例(https://github.com/modelcontextprotocol/typescript-sdk?tab=readme-ov-file),讓它幫我們生成一個項目:

圖片圖片

將生成好的項目執行npm run build,同時我們需要將打包好的文件路徑(args中路徑替換為實際打包后的路徑)添加至mcp.json中:

"beijing-mock-weather-mcp": {
      "command": "node",
      "args": ["D:\\mcp\\dist\\beijing-weather-mcp.js"]
    }

查看連接狀態,綠燈亮起,至此,確認通過Cursor自動生成的MCP Server已成功建立連接。接下來將進行功能驗證測試。

首先,關閉beijing-mock-weather-mcp對北京天氣進行詢問:

圖片圖片

可見,大模型無法直接獲取實時的天氣信息,我們開啟beijing-mock-weather-mcp后進行詢問:

圖片圖片

可以看到,大模型成功調用了beijing-mock-weather-mcp中定義的tools,且得到了天氣信息反饋。

四、推薦

從上面的實踐案例可以看出,Cursor與MCP的結合顯著提升了開發效率。目前市面上有了很多MCP Server可以直接使用,推薦幾個目前比較好的平臺:

  • Model Context Protocol servers(https://github.com/modelcontextprotocol/servers)
  • awesome-mcp-servers(https://github.com/punkpeye/awesome-mcp-servers/blob/main/README-zh.md#%E5%AE%9E%E7%94%A8%E5%B7%A5%E5%85%B7)
  • 阿里云百煉(https://bailian.console.aliyun.com/?tab=mcp#/mcp-market)

五、總結

本文探討了 Cursor 與 MCP 的深度結合可以顯著提升編程效率。通過引入 MCP 的概念,我們了解到它能夠為 AI 開發工具提供更精準的上下文理解,使大模型在代碼生成、調試和優化時更加智能。

在 Cursor + MCP 的應用示例中,我們演示了如何利用這一組合:

  1. 智能代碼生成:Cursor 結合 MCP 的上下文感知能力,可自動生成符合項目規范的代碼,減少重復勞動。
  2. 快速構建 MCP Server:通過 Cursor 的 AI 輔助,開發者能高效搭建 MCP Server,而無需手動處理。

隨著 MCP 生態的完善,AI 輔助開發將更加精準、自動化。Cursor 作為前沿的 AI 編程工具,結合 MCP 的上下文協議,將持續推動開發模式的革新,讓開發者更專注于創造性工作,而非繁瑣的代碼細節。 Cursor + MCP 的協同,不僅是工具的結合,更是開發范式的升級。它們的融合讓 AI 真正理解開發者的意圖,使編程更高效、更智能,為軟件工程帶來全新的可能性。

責任編輯:武曉燕 來源: 大轉轉FE
相關推薦

2018-11-15 14:19:19

區塊鏈人工智能AI

2016-12-21 16:12:12

2012-07-06 17:45:44

2009-10-10 02:21:48

Windows7Windows Ser微軟

2025-06-26 08:42:34

2020-08-10 08:07:59

IstioK8s微服務

2012-02-27 15:09:54

2018-07-02 01:17:06

大數據分析云技術數據

2021-11-22 09:39:21

深度學習神經網絡人工智能

2025-05-13 00:05:00

CursorMCP工具

2014-07-31 18:57:29

開心網

2018-07-10 15:07:07

技術

2018-08-29 09:58:14

2009-11-02 10:28:37

2019-04-22 15:46:56

新華三

2025-01-07 09:00:00

2025-03-31 12:00:00

2021-09-13 14:30:22

數字化

2012-08-07 16:53:07

美麗說

2013-01-15 09:26:50

清華大學浪潮集團計算地球科學
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 美女一区 | 国产精品视频中文字幕 | 黄色在线免费播放 | 久久国产高清 | 美女天天干 | caoporn视频在线 | 亚洲免费精品 | 七七婷婷婷婷精品国产 | 久久91精品国产 | 精品婷婷| 天天摸天天看 | 国产激情视频在线观看 | 韩日精品一区 | 日韩精品一 | 亚洲精品在线免费 | 黄色毛片免费视频 | 激情视频中文字幕 | 亚洲视频中文字幕 | 99精品久久久久 | aaaa一级毛片| 亚洲 中文 欧美 日韩 在线观看 | 成人网视频 | 国产精品毛片一区二区三区 | 欧美日韩网站 | 欧美精品a∨在线观看不卡 国产精品久久国产精品 | 一区日韩 | 91精品在线看 | 午夜婷婷激情 | 久久99国产精品 | 黑人精品欧美一区二区蜜桃 | 欧美一区二区小视频 | 欧美日韩久久 | 97成人在线 | 亚洲 欧美 另类 综合 偷拍 | 亚洲国产一区二区三区 | 欧美精品一区二区三区在线播放 | 18性欧美| 国产高清自拍视频在线观看 | 久久亚洲精品久久国产一区二区 | 亚洲欧美在线观看 | 日韩精品一区二区三区中文字幕 |