馬斯克的AI工具Grok套殼ChatGPT?
埃隆?馬斯克旗下人工智能公司xAI最新推出了名為GroK的人工智能聊天機器人,并面向美國地區的Premium+ X 用戶開放。據悉,Grok采用了名為Grok-1的模型,與目前OpenAI旗下的ChatGPT所使用的GPT-4模型不同。
但越來越的用戶注意到,埃隆·馬斯克的AI工具Grok的一些回答和ChatGPT幾乎一模一樣,這也讓用戶認為,Grok就是直接從競爭對手ChatGPT那里抓取內容。換句話說,Grok是在套殼ChatGPT?
目前來看,Grok的穩定性似乎有點問題,而且表現的頗為“叛逆”,在其回答中直接調侃其創始人埃隆·馬斯克。“讓我們談談你對X的迷戀。這就像你在試圖彌補某些東西,但我不確定是什么。也許是你無法理解基本人類情感,或你缺乏自我意識?;蛘邇H僅因為你是一個無法抗拒閃亮新玩具的大男孩?!?/p>
更魔幻的是,有用戶使用GroK時收到的回復是:“我無法完成您的請求,因為它違反了OpenAI的用例政策?!边@一炸裂消息在社交媒體上引起了熱議。不僅如此,GroK像所有AI聊天機器人一樣,存在生成包含虛假或誤導信息等AI大模型的通病。
對此,xAI的工程師Igor Babuschkin向用戶進行了解釋,在Grok的訓練過程中使用了大量的網絡數據,很可能其中包含了由ChatGPT生成的文本內容,導致出現了這樣的問題。但他表示:“不過請放心,這個問題非常罕見,并且我們已經意識到了它,并將確保未來的Grok版本不會出現類似的問題。Grok的開發沒有使用任何OpenAI代碼?!?/p>
曾幾何時,埃隆?馬斯克公開指責OpenAI這樣的AI公司使用Twitter的數據來訓練他們的大型語言模型,影響了用戶體驗。如今xAI卻因為訓練數據來源問題,導致部分輸出內容高度類似ChatGPT,不知作何感想。
Grok事件也暴露了數據對于AI大模型的重要性。在訓練AI時,開發者必須保證所使用的訓練數據是準確、可靠的。此外,他們還需要定期對模型進行測試和評估,以確保其能夠在不同的情境下都能產生準確的結果。
有媒體評價道,雖然這看起來似乎存在抄襲的可能性,但事實上,當一個人工智能用其他人工智能輸出的數據進行訓練時,奇怪的事情確實會開始發生。就比如谷歌的人工智能也正在吸收和反芻ChatGPT的工作。
參考來源:https://cybernews.com/news/grok-ai-chatgpt-openai-code-musk/