成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

為什么有了大模型還需要用Embedding模型?

發布于 2024-12-27 14:05
瀏覽
0收藏

不知道大家有沒有想過這個問題?

我這兩天對這個問題還深入思考了一下,思考的初衷是來源于現在這么多的開源大模型,而且挺多是多模態場景,而Embedding模型相對單模且英文語料居多,如果能復用大模型的output layer,是不是會加速手頭上的實驗進展。

為什么有了大模型還需要用Embedding模型?-AI.x社區

但思考后覺得效果應該是比不上原生的Embedding模型,有空再專門測試一下看看。

可能主要有以下幾點原因:

  1. 像LLM模型都是預測next token,那么針對next token的預測,模型肯定更加關注在這個token附近的信息,那么對應這個Embedding也更多是這附近的局部信息。而我們需要的Embedding表征,是輸入句子的全局表征,而不是“你好嗎,我吃飯了,你可以出來了嗎?”這句話里,對其中“你可以出來了嗎”做的局部信息特征映射。
  2. 目前比較好的Embedding模型都用到了對比學習,這種學習方式能夠更精確地學習的全局Eembedding特征,如果用LLM也可以在下游接一個自監督訓練器,效果也會很不錯,就是成本有點高。最近有一篇paper也可供參考:《Improving Text Embeddings with Large Language Models》

為什么有了大模型還需要用Embedding模型?-AI.x社區


對比學習目標是,學習一個這樣的特征提取器,在它提取的特征所構建的 embedding 空間中,同類樣本的 embedding 互相靠近,而不同類樣本的embedding相互遠離。通常,同類樣本對互稱為正樣本(positive sample),不同類樣本對互稱為負樣本(negative sample)。

本文轉載自 ??沐白AI筆記??,作者: 楊沐白


收藏
回復
舉報
回復
相關推薦
主站蜘蛛池模板: 国产精品视频久久久久 | 欧美日韩久久久久 | 九九99久久| 黄色网一级片 | 91免费在线视频 | 欧美一二三区 | 欧美国产视频 | 欧美不卡一区二区三区 | 久久婷婷麻豆国产91天堂 | av一级毛片 | 精品一区二区久久久久久久网站 | 在线综合视频 | 日日夜夜天天 | 日韩精彩视频 | 亚洲综合色视频在线观看 | 天天色影视综合 | 91麻豆精品国产91久久久资源速度 | 超碰婷婷 | 国产精品美女一区二区 | 99精品免费久久久久久久久日本 | 中文字幕在线视频观看 | 丁香色婷婷 | 成人午夜在线观看 | 青草福利 | 岛国精品| 精久久 | 国产精品不卡一区二区三区 | 久久午夜精品福利一区二区 | 一区在线观看视频 | 日韩视频福利 | 午夜免费网站 | 日韩精品无码一区二区三区 | 欧美一级片黄色 | 激情视频网站 | 三级视频久久 | 成人午夜激情 | 久久亚洲综合 | 亚洲国产一区二区三区 | 亚洲精品黄色 | 国产精品嫩草影院精东 | 亚洲一区二区三区免费在线 |