成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

Qwen2.5系列模型開(kāi)源,你值得擁有!!!

發(fā)布于 2024-9-20 10:37
瀏覽
0收藏

Ta來(lái)了,Ta來(lái)了,Ta帶著7個(gè)Size的開(kāi)源模型迎面走來(lái)了。

是的,期待已久的Qwen2.5開(kāi)源了,共有7個(gè)尺寸規(guī)模,包括:0.5B、1.5B、3B、7B、14B、32B和72B,分別有Base模型和Instruct模型。本次全是Dense模型,沒(méi)有MoE模型。

同時(shí)還開(kāi)源了Qwen2.5-Coder模型和Qwen2.5-Math模型。

還開(kāi)了GGUF、GPTQ和AWQ 3種量化模型,別問(wèn),就是服務(wù)到位,主打一個(gè)“全”。

你有Llama3.1,我有Qwen2.5,請(qǐng)問(wèn)閣下如何應(yīng)對(duì)。

下面從模型說(shuō)明、效果說(shuō)明、Qwen2.5-72B實(shí)測(cè)、快速使用等幾個(gè)方面來(lái)介紹一下剛剛開(kāi)源的Qwen2.5系列模型。

Blog: https://qwenlm.github.io/blog/qwen2.5/
HF: https://huggingface.co/collections/Qwen/qwen25-66e81a666513e518adb90d9e

模型介紹

  • 訓(xùn)練數(shù)據(jù)從Qwen2的7T Tokens 擴(kuò)展到了Qwen2.5的18T tokens。
  • 上下文最大長(zhǎng)度128K,其中超過(guò)32K的部分利用YARN來(lái)進(jìn)行外推處理,并且最大生成長(zhǎng)度8K(從1K升級(jí)到 8K),更大的輸出長(zhǎng)度意味著可以更容易適配到cot輸出上
  • 結(jié)構(gòu)化數(shù)據(jù)(如表格)理解能力更強(qiáng),并且輸出json效果更好,同時(shí)適配多樣的系統(tǒng)提示詞,增強(qiáng)角色扮演能力
  • 更強(qiáng)的代碼和數(shù)學(xué)能力,借助Qwen2-Math的數(shù)據(jù)到Qwen2.5上,讓基模表現(xiàn)更好。
  • 模型依舊采用RoPE、SwiGLU、RMSNorm和GQA。
  • 依然是多語(yǔ)言模型:支撐29種語(yǔ)言,包括中文、英語(yǔ)、法語(yǔ)、西班牙語(yǔ)、葡萄牙語(yǔ)、德語(yǔ)、意大利語(yǔ)、俄語(yǔ)、日語(yǔ)、韓語(yǔ)、越南語(yǔ)、泰語(yǔ)、阿拉伯語(yǔ)等。
  • Coder模型,開(kāi)源1.5B、7B共2個(gè)版本,基于Qwen2.5模型初始化,持續(xù)訓(xùn)練5.5T Tokens,包括源代碼、文本代碼混合數(shù)據(jù)、合成數(shù)據(jù)等。
  • Math模型,開(kāi)源1.5B、7B、72B共3個(gè)版本,基于Qwen2.5模型初始化,利用Qwen2-Math-72B-Instruct模型合成更多高質(zhì)量的數(shù)學(xué)預(yù)訓(xùn)練數(shù)據(jù),同時(shí)從網(wǎng)絡(luò)資源、書(shū)籍和代碼中獲取更多高質(zhì)量的中文數(shù)學(xué)數(shù)據(jù)。

Qwen2.5系列模型開(kāi)源,你值得擁有!!!-AI.x社區(qū)

                                                  7個(gè)size模型的結(jié)構(gòu)參數(shù)

模型主要采用 Apache 2.0 開(kāi)源許可協(xié)議,而 Qwen2.5-3B 和 Qwen2.5-72B 分別使用 Qwen Research 許可協(xié)議 和 Qwen 許可協(xié)議。

模型效果

先來(lái)看看Qwen2.5-72B模型效果,整體遠(yuǎn)超Llama3.1-70B模型,并且部分指標(biāo)超過(guò)405B模型

Qwen2.5系列模型開(kāi)源,你值得擁有!!!-AI.x社區(qū)

                                                        Instruct

Qwen2.5系列模型開(kāi)源,你值得擁有!!!-AI.x社區(qū)

                                                                Base

還有增加的Qwen2.5-32B模型也是超越了之前的Qwen2-57B-A14B模型,并且部分指標(biāo)上超過(guò)了GPT4o-mini模型。

Qwen2.5系列模型開(kāi)源,你值得擁有!!!-AI.x社區(qū)

Qwen2.5-3B版本模型也是在小型語(yǔ)言模型上嶄露頭角。

Qwen2.5系列模型開(kāi)源,你值得擁有!!!-AI.x社區(qū)

Qwen2.5-Coder全面領(lǐng)先Deepseek模型。

Qwen2.5系列模型開(kāi)源,你值得擁有!!!-AI.x社區(qū)

Qwen2.5-Math-72B模型超過(guò)GPT4o-2024-08-06。

Qwen2.5系列模型開(kāi)源,你值得擁有!!!-AI.x社區(qū)

Qwen2.5-72B Instruct測(cè)試

下面所有測(cè)試結(jié)果都是在lmsys上進(jìn)行測(cè)試,https://lmarena.ai/

Qwen2.5系列模型開(kāi)源,你值得擁有!!!-AI.x社區(qū)

注意:可能是由于解碼的原因,如果不加上step by step,直接問(wèn)的話(huà),會(huì)出現(xiàn)結(jié)果波動(dòng)情況。

  • 年度最佳測(cè)試,表露我真實(shí)的心情

Qwen2.5系列模型開(kāi)源,你值得擁有!!!-AI.x社區(qū)

  • 9.9和9.11誰(shuí)大的問(wèn)題

Qwen2.5系列模型開(kāi)源,你值得擁有!!!-AI.x社區(qū)

Qwen2.5系列模型開(kāi)源,你值得擁有!!!-AI.x社區(qū)

Qwen2.5系列模型開(kāi)源,你值得擁有!!!-AI.x社區(qū)

  • strawberry有幾個(gè)r的問(wèn)題

Qwen2.5系列模型開(kāi)源,你值得擁有!!!-AI.x社區(qū)

Qwen2.5系列模型開(kāi)源,你值得擁有!!!-AI.x社區(qū)

  • 弱智吧的問(wèn)題

Qwen2.5系列模型開(kāi)源,你值得擁有!!!-AI.x社區(qū)

Qwen2.5系列模型開(kāi)源,你值得擁有!!!-AI.x社區(qū)

  • 推理的問(wèn)題

Qwen2.5系列模型開(kāi)源,你值得擁有!!!-AI.x社區(qū)

Qwen2.5系列模型開(kāi)源,你值得擁有!!!-AI.x社區(qū)

PS:加上step by step,模型輸出會(huì)更穩(wěn)定,并且效果會(huì)更好!!!

更多測(cè)試樣例,歡迎留言測(cè)試。

HF快速使用:

模型下載有困難的同學(xué),詳見(jiàn)我之前寫(xiě)的一篇文章??《大模型下載使我痛苦》??

from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = "Qwen/Qwen2.5-7B-Instruct"

model = AutoModelForCausalLM.from_pretrained(
    model_name,
    torch_dtype=torch.bfloat16,
    device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)

prompt = "將“I love Qwen2.5”的內(nèi)容反過(guò)來(lái)寫(xiě),請(qǐng)一步一步思考"
messages = [{"role": "system", "content": "You are a helpful assistant."},
      {"role": "user", "content": prompt}]
text = tokenizer.apply_chat_template(
    messages,
    tokenize=False,
    add_generation_prompt=True
)

model_inputs = tokenizer([text], return_tensors="pt").to(model.device)

generated_ids = model.generate(
    **model_inputs,
    max_new_tokens=512
)
generated_ids = [
    output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]

response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
print(response)

如果想進(jìn)行o1的自動(dòng)cot模型,可以嘗試使用下面的系統(tǒng)提示詞,來(lái)自https://github.com/codelion/optillm/blob/main/cot_reflection.py

You are an AI assistant that uses a Chain of Thought (CoT) approach with reflection to answer queries. Follow these steps:

1. Think through the problem step by step within the <thinking> tags.
2. Reflect on your thinking to check for any errors or improvements within the <reflection> tags.
3. Make any necessary adjustments based on your reflection.
4. Provide your final, concise answer within the <output> tags.

Important: The <thinking> and <reflection> sections are for your internal reasoning process only. 
Do not include any part of the final answer in these sections. 
The actual response to the query must be entirely contained within the <output> tags.

Use the following format for your response:
<thinking>
[Your step-by-step reasoning goes here. This is your internal thought process, not the final answer.]
<reflection>
[Your reflection on your reasoning, checking for errors or improvements]
</reflection>
[Any adjustments to your thinking based on your reflection]
</thinking>
<output>
[Your final, concise answer to the query. This is the only part that will be shown to the user.]
</output>

或來(lái)自https://github.com/bklieger-groq/g1的系統(tǒng)提示詞:

You are an expert AI assistant that explains your reasoning step by step. For each step, provide a title that describes what you're doing in that step, along with the content. Decide if you need another step or if you're ready to give the final answer. Respond in JSON format with 'title', 'content', and 'next_action' (either 'continue' or 'final_answer') keys. USE AS MANY REASONING STEPS AS POSSIBLE. AT LEAST 3. BE AWARE OF YOUR LIMITATIONS AS AN LLM AND WHAT YOU CAN AND CANNOT DO. IN YOUR REASONING, INCLUDE EXPLORATION OF ALTERNATIVE ANSWERS. CONSIDER YOU MAY BE WRONG, AND IF YOU ARE WRONG IN YOUR REASONING, WHERE IT WOULD BE. FULLY TEST ALL OTHER POSSIBILITIES. YOU CAN BE WRONG. WHEN YOU SAY YOU ARE RE-EXAMINING, ACTUALLY RE-EXAMINE, AND USE ANOTHER APPROACH TO DO SO. DO NOT JUST SAY YOU ARE RE-EXAMINING. USE AT LEAST 3 METHODS TO DERIVE THE ANSWER. USE BEST PRACTICES.

Example of a valid JSON response:
json
{
    "title": "Identifying Key Information",
    "content": "To begin solving this problem, we need to carefully examine the given information and identify the crucial elements that will guide our solution process. This involves...",
    "next_action": "continue"
}

本文轉(zhuǎn)載自??NLP工作站??,作者: 劉聰NLP ????


收藏
回復(fù)
舉報(bào)
回復(fù)
相關(guān)推薦
主站蜘蛛池模板: 999久久久久久久 | 成人综合视频在线 | 欧美视频免费在线 | 成人免费淫片aa视频免费 | 亚洲色欧美另类 | 老司机67194精品线观看 | 国产 91 视频| 亚洲一区二区中文字幕在线观看 | 天天操综合网站 | 欧美精品久久久久久久久久 | 国产精品网页 | 精品久久久久久亚洲综合网 | 国产区在线视频 | 日韩www| 久久精品欧美一区二区三区不卡 | 国产亚洲二区 | 永久网站| av在线电影网站 | 99精品欧美一区二区三区 | 国产a区| 日韩a v在线免费观看 | 日韩精品| 97视频免费 | 欧美久久不卡 | 欧美激情在线播放 | 青青久久 | 日本韩国电影免费观看 | 婷婷久久网 | 久久国产精品视频 | 国产一区日韩在线 | 欧美久久一区 | 国产精品亚洲综合 | 久久成人国产精品 | 日韩一区二区三区视频 | 久久91| 色花av| 欧美综合视频 | 欧一区二区 | 久久一| 欧美一区不卡 | 欧美精品一区二区三区在线播放 |