成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

擺脫云端限制!Qwen3+MCP+Ollama 本地工具調(diào)用實(shí)戰(zhàn)教程

發(fā)布于 2025-5-7 07:01
瀏覽
0收藏

通義千問3(Qwen3)是阿里巴巴通義千問團(tuán)隊(duì)發(fā)布的最新開源大語言模型,它具備強(qiáng)大的性能、高度的模塊化特性以及出色的工具使用能力。

本文教你如何通過Ollama在本地運(yùn)行通義千問3,并啟用模型上下文協(xié)議(MCP),以使用代碼解釋器、數(shù)據(jù)獲取、時(shí)間查詢等工具。

通過學(xué)習(xí),你會(huì)構(gòu)建一個(gè)完全在本地機(jī)器上運(yùn)行、由通義千問3驅(qū)動(dòng)的智能助手,且無需云API密鑰!開始吧!

1.為什么選擇通義千問3 + Ollama + MCP

為了實(shí)現(xiàn)這些先進(jìn)功能,阿里巴巴推出了模型上下文協(xié)議(MCP)。MCP允許模型通過調(diào)度命令行服務(wù)與外部工具進(jìn)行交互,這讓大語言模型能夠以結(jié)構(gòu)化且安全的方式獲取時(shí)間、從網(wǎng)站抓取數(shù)據(jù),或調(diào)用其他本地工具。

在通義千問智能體(Qwen-Agent)生態(tài)系統(tǒng)中,諸如??mcp-server-time???和??mcp-server-fetch??之類的MCP工具,充當(dāng)著端點(diǎn)的角色,模型可在需要時(shí)自行觸發(fā)這些端點(diǎn)。這些工具通過一個(gè)字典進(jìn)行配置,該字典會(huì)告知智能體每個(gè)功能應(yīng)運(yùn)行的命令。

  • 通義千問3:專為開源部署優(yōu)化的前沿大語言模型。
  • Ollama:通過一條命令就能簡化本地大語言模型(如通義千問3)的部署。
  • MCP:允許外部工具通過結(jié)構(gòu)化消息進(jìn)行通信(例如網(wǎng)頁瀏覽或時(shí)間查詢)。
  • 工具使用:拓展通義千問3的能力,使其超越靜態(tài)文本處理——支持執(zhí)行代碼、調(diào)用API等更多功能!

2 在本地設(shè)置Ollama和通義千問3

步驟1:安裝Ollama并運(yùn)行通義千問3

在本地終端(Linux/macOS系統(tǒng))運(yùn)行以下命令:

# 安裝Ollama
curl -fsSL https://ollama.com/install.sh | sh
# 啟動(dòng)Ollama服務(wù)器
ollama serve

然后拉取通義千問3模型:

ollama pull qwen3

這會(huì)獲取通義千問3的模型權(quán)重,并通過??http://localhost:11434/v1??這個(gè)Ollama API端點(diǎn),為在本地使用做好準(zhǔn)備。

步驟2:克隆并安裝通義千問智能體(Qwen-Agent)

接下來,克隆通義千問智能體的官方代碼庫,并安裝支持圖形用戶界面(GUI)、檢索增強(qiáng)生成(RAG)、代碼解釋以及MCP所需的額外組件。運(yùn)行以下命令:

# 克隆代碼庫
git clone https://github.com/QwenLM/Qwen-Agent.git
# 安裝所有額外組件
pip install -e ./Qwen-Agent"[gui, rag, code_interpreter, mcp]"

??-e??標(biāo)記確保以可編輯模式安裝該軟件包,方便在需要時(shí)深入研究其內(nèi)部機(jī)制。安裝完成后,你可以編寫一個(gè)Python腳本來連接智能助手和Ollama,并啟用工具使用功能。

步驟3:編寫Python腳本

以下是通過MCP + Ollama運(yùn)行一個(gè)支持工具使用的智能助手的完整代碼:

from qwen_agent.agents import Assistant

# 步驟1:配置本地通義千問3模型(由Ollama提供服務(wù))
llm_cfg = {
   'model': 'qwen3',
   'model_server': 'http://localhost:11434/v1',  # Ollama API
    'api_key': 'EMPTY',
}

# 步驟2:定義工具(MCP + 代碼解釋器)
tools = [
    {'mcpServers': {
            'time': {
                'command': 'uvx',
                'args': ['mcp-server-time', '--local-timezone=Asia/Shanghai']
            },
            'fetch': {
                'command': 'uvx',
                'args': ['mcp-server-fetch']
            }
        }
    },
    'code_interpreter',
]

# 步驟3:初始化通義千問智能體助手
bot = Assistant(llm=llm_cfg, function_list=tools)

# 步驟4:發(fā)送包含URL的用戶消息
messages = [{'role': 'user', 'content': 'https://qwenlm.github.io/blog/ Introduce the latest developments of Qwen'}]

# 步驟5:運(yùn)行智能助手并打印結(jié)果
for responses in bot.run(messages=messages):
    pass
print(responses)

這個(gè)腳本使用Ollama后端初始化通義千問3模型,并注冊了兩個(gè)MCP工具(??time???和??fetch???)以及內(nèi)置的??code_interpreter??。在根據(jù)需求評估工具或代碼后,智能助手會(huì)處理用戶消息并返回響應(yīng)。

3.總結(jié)

通義千問 3 搭配通義千問智能體(Qwen - Agent)、模型上下文協(xié)議(MCP)和 Ollama,可構(gòu)建強(qiáng)大的本地人工智能助手,擺脫對外部云服務(wù)的依賴。該組合支持多輪對話、實(shí)時(shí)信息檢索與 Python 代碼執(zhí)行,所有操作均可在本地環(huán)境完成。

對于重視隱私、追求靈活性與擴(kuò)展性,且致力于構(gòu)建智能體的開發(fā)者、研究人員和產(chǎn)品團(tuán)隊(duì)而言,這無疑是理想之選。隨著通義千問 3 持續(xù)迭代,未來它將更有力地支持復(fù)雜任務(wù),實(shí)現(xiàn)與自定義工具的無縫融合,為本地自主人工智能智能體的發(fā)展開拓廣闊前景。

本文轉(zhuǎn)載自??AI科技論談?????,作者:AI科技論談

標(biāo)簽
收藏
回復(fù)
舉報(bào)
回復(fù)
相關(guān)推薦
主站蜘蛛池模板: 亚洲免费在线观看 | 一区二区免费高清视频 | 91久久久www播放日本观看 | 国产精品日韩欧美一区二区三区 | 国产视频久久久 | 亚洲欧美日韩精品久久亚洲区 | 日韩一二区 | 亚洲在线视频 | 欧美成视频 | 一区亚洲 | 日韩欧美一级精品久久 | 99久久99久久精品国产片果冰 | 亚洲电影一区二区三区 | 亚洲国产精品成人无久久精品 | 免费成人av网站 | 国产一区二区精品在线 | 国产精品成人国产乱一区 | 在线免费小视频 | 中文在线一区二区 | 日韩精品久久久久 | 久久九九免费 | 亚洲精品字幕 | 99精品免费 | 免费一区二区 | 欧美在线视频一区二区 | 精品国产乱码久久久久久久久 | 亚洲精品一区二区三区中文字幕 | 日本精品一区二区三区四区 | 欧美视频二区 | 午夜久久av | 欧美成年视频 | 成人免费观看男女羞羞视频 | 在线成人精品视频 | 99精品视频免费观看 | 欧美激情区 | 九九久久国产 | 国产精品久久久久久52avav | 国产在线二区 | 亚洲成人免费在线 | 亚洲一区国产精品 | 国产精品久久一区二区三区 |