成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

熵減AI
LV.1
科技類博客
聲望 97
關注 0
粉絲 0
私信
主帖 11
回帖
排名是真的挺好,開源閉源現在都是第一了,這個事embeddiing的,rerank應該也是第一,甚至4B的基本也除了8B以外就是它第一。它和普通的比如原來的我們常用的BGE之類的有啥區別?傳統的embedding都是基于bert來弄模型,一般也就encoderonly,bert原來也就是干分類器的,給一句話到它,它給你進行embedding了,這里考慮到有些同學可以不理解整套流程,我就稍微說細點一般來講用3層法就很好理解:第一層:詞元嵌入(TokenEmbedding...
2025-06-23 06:46:29 642瀏覽 0點贊 0回復 0收藏
我覺得LLaMA4最值得看的技術就是iRoPE,他們自己沒出說說明,所以我試著解讀了一下:簡單來說,iRoPE技術是對標準RoPE位置編碼方式的升級,主要解決了在處理超長文本時出現的問題。交錯式應用(InterleavedApplication):標準RoPE在模型的每一層Q和K都用旋轉操作來編碼PI頁就是位置編碼。iRoPE的做法是“交替進行”——有些層用帶RoPE的注意力機制,有些層不用(或者用其他方法)。這樣做的目的是為了防止在處理很長的文本時,位...
2025-06-10 06:42:53 559瀏覽 0點贊 0回復 0收藏
最近看了一張畫Agent記憶分類的圖我覺得分類分的還可以,但是太淺了,于是就著它的邏輯,仔細得寫了一下在不同的記憶層,該如何設計和選型先從流程,作用,實力和持續時間的這4個維度來解釋一下這幾種記憶:1.短期記憶(ShortTermMemory,STM)流程:Input(輸入)→Encode(編碼)→Store(存儲)→Erase(清除)作用:在進行活動時保持臨時細節,類似于我們在對話中臨時記住的信息。示例:保存最近的交互信息,比如剛剛發送的...
2025-05-27 07:11:12 747瀏覽 0點贊 0回復 0收藏
那什么是粗暴的控制LLM的幻覺的方法呢?正常你們大家學到的應該是temperature0topk1topp0.1類似這種的但是這種是不是能解決幻覺呢?很顯然在做的各位試過,應該是沒什么效果的。為什么呢正常來講,我們不是把生成nexttoken的概率放到最大的那個token上了嗎?今天先回憶個概念LLM是靠什么來決定nexttoken生成的,就是Logit,就是softmax你的前向計算的最后一層(這么表達不精確,但是你可以認為就算最后一層了)過了output之后呢...
2025-05-14 00:30:26 759瀏覽 0點贊 0回復 0收藏
如果你玩過開源的Text2video,也就是文生視頻,也會感慨AI越來越能整活兒了,但是如果你好奇去各大平臺看一圈,基本上視頻最大就是在810秒左右,甚至有35秒的。(sora能到20秒)當然有兄弟說是算力的問題,這個確實是一個問題,生成視頻diffusion的算力確實要比純text多,但是這個如果有錢也不是問題(后文我們發現其實就算有錢也是問題),但是現在我們談論的是錢解決不了的問題,一致性。這個一致性指的是多幀一致性比如這個...
2025-04-28 00:07:45 1229瀏覽 0點贊 0回復 0收藏
我見過的最省的GPT4o,Claude,Gemini2級別的模型,而且是國內唯一有機會上桌的,其實海外目前和這三家有資格掰手腕的也只有它自己,可以負責任的說其他的模型不配上桌吃菜(Gemini上個月都沒資格)。其實性能好就不說了,DeepseekR1就還不錯,國內講道理是第一家做inferencetimingscalinglaw的模型,阿里是第二家,其他的就不太值得談論了,其實國外也只有GPT和Google有資格,沒想到年底還能出個DeepseekV3,在傳統scalinglaw...
2025-04-16 07:55:06 1817瀏覽 0點贊 0回復 0收藏
論文名稱KBLAM:KNOWLEDGEBASEAUGMENTEDLANGUAGEMODELICLR2025的論文,MS系的這篇論文介紹了一種名為KBLAM(KnowledgeBaseaugmentedLanguageModel,知識庫增強語言模型)的新方法,用于將外部知識庫(KB)高效地集成到預訓練的大型語言模型(LLM)中,以提升其在特定任務中的表現,同時避免傳統方法的局限性。核心問題與背景LLM雖然在知識和推理方面表現優異,但當需要處理超出其參數存儲知識的外部信息時,往往需要額外的增強手...
2025-04-03 07:30:02 1760瀏覽 0點贊 0回復 0收藏
我之前演示過幾個OpenManus的demo,其實也就是demo,包括manus,現在也就是demo階段,復雜的plan和flow,現在的代碼支撐和LLM的能力都有待改善,但是我們這期不是吐槽文章,是來把OpenManus給打開看看它的實現是怎么樣的,其實Manus也都差不多,甚至OWL也都差不多,我們看一個就夠了。其他的幾個目錄也沒啥特別需要看的,就看app。app里面有這么幾個結構:1agent沒啥好解釋的2flow就是來做multiagent的planning和管理任務框架的...
2025-03-25 00:31:21 2206瀏覽 0點贊 0回復 0收藏
總結,模型門戶留給GPT5去做了,4.5還是像Altman之前說的就是最后一代純預訓練。1一個超巨大的模型,grok3級別(10萬卡),AK說每個0.5要提升10倍預訓練算力,那對比GPT4的1.8T,也就說4.5是一個18T(18000B)級別的模型,所以必須跨多campus,異步梯度下降的訓練方式(要求太高,這個目前只有grok,oai,gemini,3家真正嚴格實踐過,anthropic都不行)。2擁有更多的知識(o3和人類比如博士生做題的合成數據),比4o能力提升百分之50(其實...
2025-03-12 00:22:42 1912瀏覽 0點贊 0回復 0收藏
其實我這個問題不算瞎問。在你的項目里,你是真覺得GraphRAG有用,還是就圖個新鮮勁,這個是非常重要的思考。RAG能干啥,其實不用復雜的解釋了。傳統的方式就是基于向量余弦近似度的查找,當然BM25其實也是傳統RAG(別把它當新東西),常見一點的基本都有向量查找,或者向量+BM25關鍵字集成查找,為了方便我就畫向量的了。如下圖:通用LLM里不太存在專用領域的知識,RAG可以作為外掛知識庫的補充,補充新的知識,另外有些問題,...
2025-02-27 13:11:25 2046瀏覽 0點贊 0回復 0收藏
有點意思的論文2410.13639ACOMPARATIVESTUDYONREASONINGPATTERNSOFOPENAI’SO1MODEL簡而言之就是曼徹斯特大學,浙大和中科大還有一些開源的項目組一些一起研究OpenAIO1的人,來發O1為什么牛B的論文。正常,研究紅樓夢畢竟也有紅學(我是一集紅樓夢也沒看過,書和電視都沒看過)。。。文章主要講分析猜測和評估OpenAI的推理模式在不同任務上的效果。同時也利用不同的模型比如GPT4o,Gemma,LLama,Qwen等嘗試利用分析出來的O1的推...
2025-02-19 09:11:43 1874瀏覽 0點贊 0回復 0收藏
獲得成就
已積累 3596 人氣
獲得 0 個點贊
獲得 0 次收藏
主站蜘蛛池模板: 91精品国产91久久综合桃花 | 91精品麻豆日日躁夜夜躁 | 久久中文字幕一区 | 国产精品123区 | 欧美成年人视频在线观看 | 亚洲精品久久久一区二区三区 | 蜜臀网| 欧美日本一区二区 | 日韩成人免费 | 五月婷婷亚洲 | 草久在线视频 | 在线观看黄视频 | 成人a视频在线观看 | 精品成人佐山爱一区二区 | 久草视频在线播放 | a a毛片| 在线观看中文字幕av | 国产精品高清在线 | 二区在线观看 | www.4虎影院 国产999精品久久久影片官网 | 国产精品一级 | 亚洲国产精品va在线看黑人 | 综合久久久| 91极品尤物在线播放国产 | 另类亚洲视频 | 欧美日韩大片 | 国产精品久久久久久久久久久久 | 久久久久免费 | 翔田千里一区二区 | 国产精品夜色一区二区三区 | 美女拍拍拍网站 | 九九久久精品 | 在线黄色网 | 男女视频在线观看免费 | 亚洲国产精品福利 | 91五月天| 国产中文字幕亚洲 | 久草久草久草 | 亚洲视频在线播放 | 日韩欧美精品 | 一级毛片视频 |