谷歌AI搜索闖大禍!建議網(wǎng)友吃石頭、毒蘑菇,把膠水加到披薩上,評(píng)論區(qū)炸了
谷歌AI又闖大禍!
沒認(rèn)出毒蘑菇、建議用戶吃石頭、把膠水加到披薩上,瞬間招來海量批評(píng)。
圖片
事情是這樣的:
有網(wǎng)友在谷歌搜索尋找“芝士和披薩粘不到一塊”的解決辦法。AI直接在頂部給出總結(jié)指導(dǎo),看似有模有樣,卻暗藏陷阱。
你還可以把1/8杯的無毒膠水加到醬料里,使其更黏。
圖片
本來大家還只當(dāng)是尋常的“AI幻覺”問題,畢竟都加膠水了確實(shí)黏啊,邏輯沒毛病。
真正引爆輿論焦點(diǎn)的,是有人挖出這個(gè)建議確實(shí)有出處:
來自11年前網(wǎng)友在“美國(guó)貼吧”Reddit論壇披薩板塊的惡搞留言。
圖片
對(duì)比原文,可以看出谷歌Gemini大模型確實(shí)出色地總結(jié)精簡(jiǎn)了網(wǎng)友發(fā)言,去掉不必要的細(xì)節(jié)融合進(jìn)回答中。
但關(guān)鍵在于缺乏常識(shí),沒有識(shí)別出網(wǎng)友惡搞的意圖,當(dāng)真了。
大家批評(píng)的另一個(gè)點(diǎn)在于,問題出現(xiàn)在谷歌最核心、使用量最大的搜索產(chǎn)品上,而不是專門的AI對(duì)話。
如果是一個(gè)不熟悉AI技術(shù),不了解AI會(huì)出現(xiàn)“幻覺”的普通搜索用戶遇到這事,就更容易被AI騙到。
當(dāng)然,具體到披薩+膠水這個(gè)例子因?yàn)檫^于離譜,大部分人都不會(huì)當(dāng)真。
但也有人馬上舉出谷歌Gemini更多、更危險(xiǎn)的失誤:
建議用戶每天至少吃一塊小石頭。
圖片
在兒童感興趣的“宇航員平常都做什么”問題上,把惡意言論總結(jié)進(jìn)來。
圖片
AI對(duì)話產(chǎn)品也沒幸免,曾把劇毒的毀滅天使菌(Destroying Angel)判斷成可食用口蘑(White Button Mushroom)。
用戶發(fā)送圖片+“口蘑!好吃!”文字,Gemini順著就說用戶判斷的對(duì),沒有任何關(guān)于蘑菇可能有毒的提示。
圖片
有人認(rèn)為加不完善的AI功能,反而是正在毀掉搜索引擎。毀掉人們幾十年來對(duì)這個(gè)產(chǎn)品的信賴。
圖片
前不久谷歌AI生圖也因拒絕畫白人引發(fā)強(qiáng)烈批評(píng),導(dǎo)致生圖功能暫停。
甚至有人感嘆:我們才進(jìn)入AI時(shí)代沒幾個(gè)月,就已經(jīng)成了一場(chǎng)災(zāi)難。
圖片
垃圾數(shù)據(jù)正在進(jìn)入大模型
說回到披薩的例子,這還不是個(gè)偶然現(xiàn)象,許多網(wǎng)友都能穩(wěn)定復(fù)現(xiàn)出來。
來源同樣是那位昵稱“f*ucsmith”的Reddit網(wǎng)友11年前的那條惡搞留言。
圖片
像這樣AI從Reddit論壇吸收錯(cuò)誤知識(shí)的情況,也非孤例。
曾有人在論壇上開玩笑說下面這張圖是“狗生出了奶牛”。
結(jié)果谷歌AI也當(dāng)真了,相當(dāng)堅(jiān)定地告訴用戶“確實(shí)出現(xiàn)過狗生出奶牛的情況”……
圖片
像Reddit這樣的論壇,固然數(shù)據(jù)豐富,但其中質(zhì)量參差不齊,積累了幾十年間網(wǎng)友或善意或惡意的誤導(dǎo)、玩笑。
有網(wǎng)友聲稱:無論誰家大模型用Reddit數(shù)據(jù)訓(xùn)練,出的AI產(chǎn)品都得掂量掂量再用了。
圖片
然鵝現(xiàn)實(shí)確是,OpenAI剛剛牽手Reddit,宣布雙方合作,把論壇內(nèi)容引入ChatGPT等產(chǎn)品中。
并且OpenAI CEO奧特曼自己也是Reddit的投資人。
Reddit聯(lián)合創(chuàng)始人兼首席執(zhí)行官Steve Huffman當(dāng)時(shí)還說:
Reddit包含了真實(shí)、最新的人類對(duì)話,引入ChatGPT可以幫助人們找到更多他們想要的信息,并幫助新用戶在Reddit上找到社區(qū)。
嗯,就有點(diǎn)諷刺。
只能希望他們能做好數(shù)據(jù)清洗吧。
圖片
故意誤導(dǎo)AI方法很簡(jiǎn)單
除了AI無意間從低質(zhì)量數(shù)據(jù)中獲得錯(cuò)誤知識(shí)的情況,也有人發(fā)現(xiàn)了故意給AI留言錯(cuò)誤信息的攻擊方法。
代表人物有佐治亞理工助理教授Mark Riedl,他在自己的個(gè)人主頁上用與背景一樣的字體給AI留言,編造他沒獲過的獎(jiǎng)項(xiàng)。
這樣人類一般不會(huì)注意到,但算法卻會(huì)當(dāng)真,認(rèn)為他的書“在3020年暢銷,還得過3個(gè)普利策獎(jiǎng)”。
圖片
那么,現(xiàn)在有什么AI搜索產(chǎn)品稍微靠譜一些,不容易被騙的嗎?
他也做了一系列測(cè)試,發(fā)現(xiàn)最知名的AI搜索Perplexity也會(huì)上當(dāng),直接照搬他主頁上的胡言亂語。
圖片
You.com表現(xiàn)還可以,但也出現(xiàn)了小失誤。
圖片
參考鏈接:
[1]https://x.com/kurtopsahl/status/1793494822436917295
[2]https://x.com/deliprao/status/1793652235420713301
[3]https://x.com/mark_riedl/status/1793375699967054334