成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

用 MCP 讓大模型自動批量下載文獻,太香了!

發布于 2025-3-25 00:34
瀏覽
0收藏

MCP 最近這么火,你還不知道它是啥嗎?別慌,動手實戰一番就包你明白了。

而且,咱這個是真的實戰,絕對干貨啊,全網少見的干貨。

我們之前講了很多建立知識庫之類的,新鮮的知識才有意思嘛。問題是新鮮貨哪里來呢,徒手去搜索加下載?2025 年了,咱不能這么干了。

你有沒有想過讓大模型自動給我們搜索、下載、解讀文獻,一條龍服務?即便像 Deep Research 之類的服務也主要是幫你搜索和整合資源,但不給你下載資源對不。

實際上,是可以手擼一個智能體幫我們干這項大工程的。只是現在不是流行 MCP 嘛,咱們也想通過這種方式來建一個。

馬上給你安排上。

本篇將以 arxiv 為例,目標是讓你發個話,智能體就幫你搜索、下載文獻,甚至解讀一條龍到家。

為了照顧不同需求,咱這里貼心地實現了兩套方案,

  • Trae CN + Cline,功能強大
  • Cherry Studio,容易上手
當然,如果你喜歡的話,也不攔著你直接用 Python 開干。

1、MCP

這個概念最近很熱,相信大家都見過。這里簡要地作個解釋,畢竟本篇的主旨是在于動手實踐。

你別看網文一篇一篇,不如跟著本篇擼一擼,你就真刀真槍見識過了。

當然,概念了解下還是有必要的。先看一個圖,心急的話也可以跳過此圖看下面的大白話。

用 MCP 讓大模型自動批量下載文獻,太香了!-AI.x社區

MCP 作為「模型上下文協議」,可以看成專門為 AI 模型設計生態系統服務,它通過一個標準化的協議來管理和交換 AI 模型所需的各種信息,從而實現與各種外部服務和數據源的無縫集成。

用大白話來說,MCP 就像是 AI 模型(比如 DeepSeek、Gemini 等)的「超級翻譯官」和「萬能助手」。

我們不妨想象一下,AI 模型是個很厲害的專家,但是它自己只會說一種「AI 語言」。它需要跟各種網站、數據庫、工具等外部世界打交道才能完成任務。

  • 翻譯官:這些「外部世界」說的都是不同的「外語」,即各種不同的數據格式和通信方式。MCP 就負責把 AI 模型說的話翻譯成這些外語,也把這些外語翻譯成 AI 模型能聽懂的話。這樣,AI 模型就不用學那么多外語了,只需要跟 MCP 說就行。
  • 萬能助手:AI 模型有時候需要很多信息才能做好一件事,就像做菜需要菜譜、食材、調料一樣。MCP 就負責把 AI 模型需要的所有信息(比如要查的資料、要用的工具、之前的聊天記錄等等)都準備好,打包成一個大禮包(上下文),交給 AI 模型。這樣,AI 模型就能直接開始工作。

舉個例子:

你問 DeepSeek:杭州今天天氣怎么樣?

DeepSeek 自己沒這項功能啊,咋辦?它通過 MCP 獲知提供這項功能的服務,然后使喚它查詢外部天氣預報網站,得知今天杭州的天氣情況,再將數據整理好,最后給你答案:杭州今天晴,最高 27 度。

所以,MCP 的好處是:

  • 簡單:AI 模型不用學那么多外語,不用操心那么多雜事,只需要跟 MCP 打交道。
  • 方便:要加新的功能,比如查天氣、訂機票、下載文獻等,只需要讓 MCP 學會跟新的外部世界打交道就行,不用改 AI 模型本身。
  • 整潔:MCP 把所有亂七八糟的信息都整理好,AI 模型用起來更順手。

總之,MCP 就是一個讓 AI 模型更方便、更強大、更容易跟各種服務和數據打交道的「中間人」。

這時候可以品一下這個圖,

用 MCP 讓大模型自動批量下載文獻,太香了!-AI.x社區


2、安裝服務

回到主題,我們的目標是自動給咱從 arxiv 上下載文獻,那就先搜一下提供這個功能的 MCP 服務器。

找到兩個,一個如下圖所示,但感覺它主要是搜索,貌似不提供下載業務。

用 MCP 讓大模型自動批量下載文獻,太香了!-AI.x社區

另一個見下圖,看起來它是能夠下載文獻的。這下省事了,必須給一個大贊。

用 MCP 讓大模型自動批量下載文獻,太香了!-AI.x社區

本人用的是 mac,下面的安裝流程也是針對它而言。因為手頭沒有 Windows 電腦,稍微有點差異吧,但問題應該不大,稍微搗鼓一下肯定沒問題。

  • 安裝第一個比較方便,用命令??pip install mcp-simple-arxiv?? 即可;
  • 用??brew install uv?? 先安裝??uv??,然后用命令??uv tool install arxiv-mcp-server?? 安裝第二個。

順利的話,很快就搞定啦。主要一點,你安裝過 Python,就方便了。

用 MCP 讓大模型自動批量下載文獻,太香了!-AI.x社區

然后就是在 Cline 里配置,可以用 VS Code 或者 Cursor、Windsurf 之類的。

此處我們用國貨 Trae 的國內版,安裝插件 Cline 咱就略過了,直接打開 Cline,點擊 MCP 服務器。

用 MCP 讓大模型自動批量下載文獻,太香了!-AI.x社區

然后,點擊左側底部的 ??Configure MCP Servers??,像右側那樣填寫,然后看到燈綠就算配置好了。

用 MCP 讓大模型自動批量下載文獻,太香了!-AI.x社區


這樣子就算配置好兩個 MCP 服務了,然后就等著給大模型發號施令:搜索、解讀、下載等任務。搜索和下載不是大模型自己的本事,需要外掛。

在 Cline 中提供了兩種與大模型的交互模式,計劃模式(Plan)和執行模式(Act),分別負責智能規劃任務和高效執行任務。

3、設置大模型

別忘了在 Cline 里選擇大模型!注意,這里需要大模型的 API Key。你可以讓 plan 和 act 使用同一個模型,或者讓它們分別使用不同模型。比如一個用 deepseek-chat,另一個使用 deepseek-reasoner,像下面這樣。

用 MCP 讓大模型自動批量下載文獻,太香了!-AI.x社區


雖然在 DeepSeek API 那里咱也充了錢,但為了省錢,繼續擼谷歌的羊毛,此處均使用 Gemini 2.0 Pro or Flash。

4、論文智能體

好了,現在就是整裝待發的狀態了。

用 MCP 讓大模型自動批量下載文獻,太香了!-AI.x社區

Cline 默認在左側,如果你習慣右側開車的話,像下面這樣點擊一下即可發射到右側。


用 MCP 讓大模型自動批量下載文獻,太香了!-AI.x社區


左側關掉,就可以右側開車了。

給大模型下達命令:幫我搜一下擴散模型和大語言模型相結合的最新論文。

用 MCP 讓大模型自動批量下載文獻,太香了!-AI.x社區

Gemini 調用 simple-arxiv 搜了 10 篇論文,

用 MCP 讓大模型自動批量下載文獻,太香了!-AI.x社區

繼續下命令:把這些論文的摘要和方法概要用中文解讀一下,然后存放到一個 Markdown 文件中。

稍等一會兒,左側就自動出現一個 Markdown 文件,里面就是摘要和對方法的簡要解讀。

用 MCP 讓大模型自動批量下載文獻,太香了!-AI.x社區

下載論文

接下來,我們讓它下載論文。你會發現,這時它會自動調用第二個服務,就是 ??arxiv-mcp-server??。因為第一服務并沒有提供下載業務嘛。

用 MCP 讓大模型自動批量下載文獻,太香了!-AI.x社區

它會詢問你是否下載到配置好的那個目錄里,選 yes。

用 MCP 讓大模型自動批量下載文獻,太香了!-AI.x社區

不一會兒,任務完成。不過你也可以讓它給你把文件名改一改。

用 MCP 讓大模型自動批量下載文獻,太香了!-AI.x社區

上面這樣子其實是比較泛泛地搜索,如果想讓它精細一些,比如讓它搜題目中包含 Self-Supervised Learning 的論文

用 MCP 讓大模型自動批量下載文獻,太香了!-AI.x社區

會發現返回的結果不符要求,只有一篇的題目符合要求。

那就給它明確指示:在 arxiv 上使用 ??ti: "Self-Supervised Learning"?? 搜。

用 MCP 讓大模型自動批量下載文獻,太香了!-AI.x社區

這樣看著就對路了嘛。

用 MCP 讓大模型自動批量下載文獻,太香了!-AI.x社區

接著,讓它給出詳細信息,

用 MCP 讓大模型自動批量下載文獻,太香了!-AI.x社區

5、Cherry Studio

如果你沒怎么編過程,也許不喜歡 Trae + Cline 這種方式,那咱們也可以使用可愛的小櫻桃是不。代價是用不了 Trae 強大的文件編輯能力。

因為我們前面已經安裝好相應的工具了,這里只需要配置一下 MCP 服務器即可。

先如下步驟打開配置文件,

用 MCP 讓大模型自動批量下載文獻,太香了!-AI.x社區

然后,可以直接參考我的配置。

{
  "mcpServers": {
    "arxiv-mcp-server": {
      "command": "uv",
      "args": [
        "tool",
        "run",
        "arxiv-mcp-server",
        "--storage-path",
        "~/Documents/arxiv"
      ]
    },
    "simple-arxiv": {
      "command": "/opt/anaconda3/bin/python",
      "args": [
        "-m",
        "mcp_simple_arxiv"
      ]
    }
  }
}

回到上面那個圖,啟用那里的綠燈點亮的話,就說明 OK 啦。

接著,到聊天界面打開 MCP 服務器。

用 MCP 讓大模型自動批量下載文獻,太香了!-AI.x社區

最后,選擇大模型,給它上活。

用 MCP 讓大模型自動批量下載文獻,太香了!-AI.x社區

用 MCP 讓大模型自動批量下載文獻,太香了!-AI.x社區

最后三篇如下,

用 MCP 讓大模型自動批量下載文獻,太香了!-AI.x社區

不錯,題目都符合要求。然后,讓它下載一篇看看。

用 MCP 讓大模型自動批量下載文獻,太香了!-AI.x社區

好了,今天就到這里了。

本文轉載自??機器學習與數學??,作者:煦若射

收藏
回復
舉報
回復
相關推薦
主站蜘蛛池模板: 日韩av免费在线观看 | 日韩一区二区三区在线观看视频 | 久久99精品久久久久久国产越南 | 日韩欧美天堂 | 精品国产91 | 日本不卡在线观看 | 国产精品久久久 | 国产农村一级片 | 精品九九久久 | 日韩a在线 | 美国黄色毛片 | 日韩av福利在线观看 | 日韩中文字幕免费在线 | 中文字幕欧美一区 | 亚洲热在线视频 | 国产欧美精品一区 | 久久成人国产 | 欧美亚洲成人网 | 国产激情视频 | 亚洲国产成人精品女人久久久 | 国产精品美女久久久久aⅴ国产馆 | 久久综合久色欧美综合狠狠 | 久久久久久久久久毛片 | 日韩欧美天堂 | 国产69久久精品成人看动漫 | 亚洲欧美激情精品一区二区 | a黄视频| 国产免费一区二区 | 男女爱爱福利视频 | 97超碰成人 | 日韩精品一区二 | 免费能直接在线观看黄的视频 | 欧美a∨ | 亚洲一区中文字幕 | 色婷婷国产精品 | 色综合网站| 国产一级特黄aaa大片评分 | 97人澡人人添人人爽欧美 | 97精品国产97久久久久久免费 | 91精品久久久久久久久中文字幕 | 日韩av在线中文字幕 |