成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

將端側(cè)大模型進(jìn)行到底-MiniCPM3-4B開源

發(fā)布于 2024-9-9 01:07
瀏覽
0收藏

面壁一直都在做端側(cè)大模型,之前有文本系列MiniCPM-2B模型,還有多模態(tài)系列的MiniCPM-V系列模型,今天又開源了MiniCPM3-4B模型,真是端側(cè)一路走到低。

這次MiniCPM3-4B也是在效果上有了巨大的提升,超過Phi-3.5-mini-Instruct模型,肩比Llama3.1-8B-Instruct、GLM-4-9B-Chat、Qwen2-7B-Instruct等一眾模型,堪稱小模型之王。

之前的MiniCPM-2B模型報(bào)告也是干活滿滿,詳見:https://shengdinghu.notion.site/MiniCPM-c805a17c5c8046398914e47f0542095a

這里說一下哈,MiniCPM-2B是1.0版本模型,MiniCPM-1B是2.0版本模型,現(xiàn)在是3.0版本4B。

模型改進(jìn)

下面是3個(gè)版本的模型結(jié)構(gòu)(1->2->3)的區(qū)別:

  • 位置編碼:RoPE->RoPE->RoPE

注意力機(jī)制:MHA->GQA->MLA,MLA也是DeepSeek-V2的核心創(chuàng)新

將端側(cè)大模型進(jìn)行到底-MiniCPM3-4B開源-AI.x社區(qū)

  • 詞表大小:123K->73K->73K
  • 模型層數(shù):40->52->62
  • 隱藏層節(jié)點(diǎn):2304->1536->2560
  • 最大長度:4k->4K->32k
  • 系統(tǒng)提示詞:不支持->不支持->支持
  • 工具調(diào)用和代碼解釋器:不支持->不支持->支持

同時(shí),還發(fā)布了RAG套件MiniCPM-Embedding模型和MiniCPM-Reranker模型,針對 RAG場景還發(fā)布了微調(diào)版MiniCPM3-RAG-LoRA模型。

模型效果

MiniCPM3-4B模型在中文英文遵循、數(shù)據(jù)推理、代碼能力、工具調(diào)用上表現(xiàn)均很不錯(cuò)的效果。

將端側(cè)大模型進(jìn)行到底-MiniCPM3-4B開源-AI.x社區(qū)

其中,工具調(diào)用能力尤為突出,在Berkeley Function Calling Leaderboard上優(yōu)于Llama3.1-8B-Instruct、GLM-4-9B-Chat、Qwen2-7B-Instruct等更大模型。

將端側(cè)大模型進(jìn)行到底-MiniCPM3-4B開源-AI.x社區(qū)

長文檔的大海撈針也是全綠。

將端側(cè)大模型進(jìn)行到底-MiniCPM3-4B開源-AI.x社區(qū)

模型快速使用

PS:模型下載有困難的同學(xué),詳見我之前寫的一篇文章??《大模型下載使我痛苦》??。

from transformers import AutoModelForCausalLM, AutoTokenizer
import torch

# 模型加載
path = "openbmb/MiniCPM3-4B"

tokenizer = AutoTokenizer.from_pretrained(path, trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained(path, torch_dtype=torch.bfloat16, device_map="cuda", trust_remote_code=True)

# 輸入構(gòu)造
messages = [
    {"role": "user", "content": "你知道劉聰NLP是誰嗎?"},
]
model_inputs = tokenizer.apply_chat_template(messages, return_tensors="pt").to("cuda")

# 模型生成
model_outputs = model.generate(
    model_inputs,
    max_new_tokens=1024,
    top_p=0.8,
    temperature=0.9,
    repetition_penalty=1.1
)

# 模型解碼
output_token_ids = [
    model_outputs[i][len(model_inputs[i]):] for i in range(len(model_inputs))
]

responses = tokenizer.batch_decode(output_token_ids, skip_special_tokens=True)[0]
print(responses)

本文轉(zhuǎn)載自 ??NLP工作站??,作者: 劉聰NLP

收藏
回復(fù)
舉報(bào)
回復(fù)
相關(guān)推薦
主站蜘蛛池模板: 日韩在线观看视频一区 | 视频一二区 | 一区二区电影网 | 日韩精品一区二区三区在线播放 | 国产一区二区精品在线观看 | 日韩欧美手机在线 | 国产欧美久久一区二区三区 | 欧美日韩一区二区在线 | 激情 婷婷 | 久久99精品国产 | 少妇淫片aaaaa毛片叫床爽 | 欧美日韩久久久 | 视频三区| 一区二区在线免费观看 | www久| 五月天综合影院 | 欧美中文在线 | 日韩成人一区 | 亚洲欧美激情精品一区二区 | 美女日批免费视频 | 亚洲综合激情 | 在线2区| 日本高清中文字幕 | 国产高清在线观看 | a级片网站 | 国产在线a视频 | 日本激情一区二区 | 天天澡天天狠天天天做 | 成人午夜高清 | 国产精品揄拍一区二区久久国内亚洲精 | 日韩免费av | h视频在线观看免费 | 亚洲福利 | 久久乐国产精品 | 伊人免费视频二 | 亚洲国产精品一区二区三区 | 欧美激情a∨在线视频播放 成人免费共享视频 | 久久精品一区二区三区四区 | 国产95在线 | 国产一区二区免费在线 | 久久久夜夜夜 |