策劃 | 壹舟
ChatGPT熱度依舊霸榜,接連被許多名人點贊了!國外微軟的比爾蓋茨、納德拉、特斯拉的馬斯克,國內(nèi)的李彥宏、周鴻祎、張朝陽,甚至不是科技圈的作者鄭淵潔,也因為ChatGPT的出現(xiàn),開始相信“作家有可能在未來會失業(yè)”了。再比如驚動谷歌隱退的大佬布林,前美團聯(lián)合創(chuàng)始人王慧文也再度出山,廣發(fā)英雄帖招募AI人才,造一個中國OpenAI。
以ChatGPT和DALL-E為代表的的生成式AI,以一系列令人眼花繚亂的風(fēng)格,寫出了充滿豐富細(xì)節(jié)、想法和知識的文本,拋出華麗的答案和藝術(shù)品。生成的人工制品如此多樣,如此獨特,以至于很難相信它們來自機器。
以至于一些觀察人士認(rèn)為,這些新的AI終于跨過了圖靈測試的門檻。用某些人的說法:這一門檻并沒有被輕微超過,而是被吹得粉碎。這門AI藝術(shù)太好了,“又有一批人已經(jīng)瀕臨失業(yè)線”。
但是,經(jīng)過一個多月來的發(fā)酵,人們對于AI的奇跡感正在消退,生成式AI的“原始明星光環(huán)”也在漸漸消失。例如,一些觀察者以正確的方式提問,而ChatGpt卻“吐”出了一些愚蠢甚至錯誤的東西。
再比如,一些人在小學(xué)美術(shù)課上使用了流行的老式邏輯炸彈,要求拍攝夜晚的太陽或暴風(fēng)雪中的北極熊。其他人則提出了更奇怪的問題,AI的上下文感知的局限性顯露無疑。
本文整理了生成式AI的“十宗罪”。這些罪名可能讀起來像酸葡萄,(筆者也嫉妒AI的強大,如果機器被允許接管,筆者也會失去工作,哈哈~)但意在提醒,絕非抹黑。
1.剽竊抄襲更難檢測
當(dāng)DALL-E和ChatGPT等生成式人工智能模型創(chuàng)建時,它們實際上只是從訓(xùn)練集中的數(shù)百萬個示例中創(chuàng)建新模式。結(jié)果是從各種來源提取的剪貼合成,當(dāng)人類這樣做時,也被稱為抄襲。
當(dāng)然,人類也是通過模仿來學(xué)習(xí)的,但在某些情況下,AI的這種“拿來”、“借用”卻是如此明顯,以至于會讓一位小學(xué)老師惱怒到無法給學(xué)生上課。這種人工智能生成的內(nèi)容由大量文本組成,這些文本或多或少都是逐字呈現(xiàn)的。然而,有時有足夠多的摻雜或合成,即使是一個大學(xué)教授小組也可能難以檢測到來源。不管怎樣,缺少的是獨特性。盡管這些機器閃閃發(fā)光,但它們無法生產(chǎn)任何真正的新產(chǎn)品。
2.版權(quán):代替人類之時,訴訟興起之日
雖然剽竊在很大程度上是學(xué)校的問題,但版權(quán)法適用于市場。當(dāng)一個人從另一個人的工作中受到擠壓時,他們可能會被帶到法庭,法庭可能會處以數(shù)百萬美元的罰款。但AI呢?同樣的規(guī)則適用于他們嗎?
版權(quán)法是一門復(fù)雜的學(xué)科,生成式AI的法律身份問題需要數(shù)年才能解決。但有一點不難預(yù)料:當(dāng)人工智能好到足以替代員工進行工作時,這些被替代的人中,肯定會利用“在家賦閑”的時間提起訴訟。
3.人類充當(dāng)了模型的無償勞動力
剽竊和版權(quán)并不是生成式人工智能引發(fā)的唯一法律問題。律師們已經(jīng)在構(gòu)思新的訴訟倫理問題。例如,制作繪圖程序的公司是否應(yīng)該被允許收集有關(guān)人類用戶繪圖行為的數(shù)據(jù),并能否將這些數(shù)據(jù)用于AI訓(xùn)練?基于此,自己被使用的創(chuàng)造性勞動是否應(yīng)該得到補償?當(dāng)前AI的成功,很大程度上源于對數(shù)據(jù)的訪問。那么,當(dāng)生成數(shù)據(jù)的大眾想要分一杯羹時能否實現(xiàn)?什么是公平?什么是合法的?
4.信息堆砌,不是知識創(chuàng)造
AI特別擅長模仿人類需要數(shù)年才能發(fā)展出的那種智力。當(dāng)一位學(xué)者能夠介紹一位默默無聞的17世紀(jì)藝術(shù)家,或以一種幾乎被遺忘的文藝復(fù)興音調(diào)結(jié)構(gòu),來創(chuàng)作新音樂時,我們有充分的理由來表達對此的驚艷之詞。我們知道,發(fā)展這種深度的知識需要多年的學(xué)習(xí)。當(dāng)人工智能只需要幾個月的訓(xùn)練就完成了這些相同的事情時,結(jié)果可能會非常精確和正確,但有些東西是缺失的。
人工智能只是似乎模仿了人類創(chuàng)造力中有趣和不可預(yù)測的一面,但卻“形似神不似”,無法真正做到這一點。與此同時,不可預(yù)測性是推動創(chuàng)造性創(chuàng)新的因素。像時尚娛樂行業(yè),不僅沉迷于變化,而且被“變化”所定義。
事實上,人工智能和人自身的智能都各有其擅長的領(lǐng)域。比如:如果一臺訓(xùn)練有素的機器能夠在一個裝滿數(shù)十億張唱片的數(shù)字盒中找到正確的舊收據(jù),那么它也可以了解像阿芙拉·貝恩( 17世紀(jì)第一位以寫作為生的英國女性)這樣的詩人所知道的一切。甚至可以設(shè)想,機器是為了破譯瑪雅象形文字的含義而制造的。
5.智力停滯,難以成長
說到智能,人工智能本質(zhì)上是機械的和基于規(guī)則的。一旦人工智能通過一組訓(xùn)練數(shù)據(jù),它就會創(chuàng)建一個模型,而這個模型并不會真正改變。一些工程師和數(shù)據(jù)科學(xué)家設(shè)想隨著時間的推移逐步重新訓(xùn)練人工智能模型,以便機器能夠?qū)W會適應(yīng)。
但是,在大多數(shù)情況下,這個想法是創(chuàng)建一組復(fù)雜的神經(jīng)元,以固定的形式編碼某些知識。這種“恒常性”有它的用武之地,可能適用于某些行業(yè)。但同時也是它的弱點,危險就在于它的認(rèn)知將永遠停留在其訓(xùn)練數(shù)據(jù)的“時代怪圈”中。
假使我們變得十分依賴生成式AI,以至于無法再為訓(xùn)練模型制作新材料時,會發(fā)生什么?
6.隱私和安全的門閘太松
人工智能的訓(xùn)練數(shù)據(jù)需要來自某個地方,而我們并不總是那么確定神經(jīng)網(wǎng)絡(luò)中會出現(xiàn)什么。如果AI從其訓(xùn)練數(shù)據(jù)中泄露個人信息怎么辦?
更糟糕的是,鎖定AI要困難得多,因為它們的設(shè)計非常靈活。關(guān)系數(shù)據(jù)庫可以限制對具有個人信息的特定表的訪問。然而,人工智能可以通過幾十種不同的方式進行查詢。攻擊者將很快學(xué)會如何以正確的方式提出正確的問題,以獲取他們想要的敏感數(shù)據(jù)。
例如,假設(shè)攻擊者,盯上了某處資產(chǎn)的位置,AI也能被用來旁敲側(cè)擊地問出緯度和經(jīng)度。一個聰明的攻擊者可能會詢問幾個星期后太陽在該地點升起的確切時刻。盡職盡責(zé)的人工智能會盡力給出答案。如何教會人工智能保護隱私數(shù)據(jù),也是一個難解之題。
7.未知的偏見之地
自大型機年代起,技術(shù)圈就創(chuàng)造了“垃圾輸入,垃圾輸出”(GIGO)的概念,也讓大眾看到了計算機問題的核心。AI的許多問題來自于糟糕的訓(xùn)練數(shù)據(jù)。如果數(shù)據(jù)集不準(zhǔn)確或有偏差,結(jié)果也將如此反映。
生成式AI的核心硬件理論上是邏輯驅(qū)動的,但制造和訓(xùn)練機器的人類卻不是。司法前的意見和政派偏見已經(jīng)被證明可以引入人工智能模型。也許有人使用了有偏見的數(shù)據(jù)來創(chuàng)建模型。也許他們添加了某類訓(xùn)練語料以防止模型回答特定的熱點問題。也許他們輸入了硬連線的答案,然后變得難以檢測。
人工智能的確是個不錯的工具,但這也意味著,別有用心之人有一萬種方法,讓AI成為有害信念的絕佳載體。
這里有個國外買房貸款的例子。案例中,用于評估潛在租戶的AI系統(tǒng)依賴于法庭記錄和其他數(shù)據(jù)集,這些數(shù)據(jù)集大都帶有自身偏見,反映了系統(tǒng)性的種族主義、性別歧視和能人主義,而且眾所周知,錯誤很多。盡管有的人明明有能力支付租金,但他們經(jīng)常被拒絕提供住房貸款,因為租戶篩選算法認(rèn)為他們不合格或不值得。這也是我們經(jīng)常所聽到的業(yè)務(wù)員給的答復(fù):大數(shù)據(jù)/系統(tǒng)/AI這么提示的。
ChatGPT被冒犯后的表現(xiàn)
8.機器的愚蠢,來得猝不及防
人們很容易原諒人工智能模型犯的錯誤,因為它們做了很多其他事情。只是很多錯誤很難預(yù)料,因為人工智能的思維方式與人類不同。
例如,許多文本到圖像功能的用戶發(fā)現(xiàn),人工智能會犯一些很簡單的錯誤,比如計數(shù)。人類在小學(xué)早期就學(xué)會了基本的算術(shù),然后我們以各種各樣的方式使用這項技能。讓一個10歲的孩子畫一只章魚,孩子幾乎肯定會確定它有八條腿。當(dāng)涉及到數(shù)學(xué)的抽象和上下文用途時,當(dāng)前版本的人工智能往往會陷入困境。
如果模型構(gòu)建者對這一失誤給予一定的關(guān)注,這可能很容易改變,但也會有其他未知的錯誤。機器智能不同于人類智能,這意味著機器的愚蠢也將不同。
9.機器也會撒謊,很容易騙人
有時,在沒有意識到這一點的情況下,我們?nèi)祟愅鶗暨MAI的坑里。在知識盲區(qū)里,我們傾向相信AI。如果AI告訴我們亨利八世是殺害妻子的國王,我們不會質(zhì)疑,因為我們自己也不知道這段歷史。我們往往假設(shè)人工智能是正確的,就像我們作為大會的觀眾,看到有魅力的主持人揮手時,也一樣默認(rèn)選擇相信“臺上那位比我懂得多”。
對于生成式AI的用戶來說,最棘手的問題是知道人工智能何時出錯。“機器不會說謊”常常是我們的口頭禪,然而事實上并非如此。機器雖然不能像人類那樣撒謊,但它們犯的錯誤也意味著更加危險。
他們可以在任何人都不知道發(fā)生了什么的情況下,寫出一段段完全準(zhǔn)確的數(shù)據(jù),然后轉(zhuǎn)向猜測,甚至轉(zhuǎn)變成一場謊言。“真假參半”的藝術(shù),AI也會。但不同的是,二手車經(jīng)銷商或撲克玩家往往知道自己什么時候在撒謊,大多數(shù)人都會說出自己的哪里撒謊了,AI卻做不到。
10.無限濫用:經(jīng)濟模式堪憂
數(shù)字內(nèi)容具有無限的可復(fù)制性,這已經(jīng)使許多圍繞稀缺性建立的經(jīng)濟模型陷入困境。生成式AI將進一步打破這些模式。生成式人工智能將使一些作家和藝術(shù)家失業(yè),它也顛覆了我們所有人所遵循的許多經(jīng)濟規(guī)則。
- 當(dāng)廣告和內(nèi)容都可以無休止地重新組合和再生時,廣告支持的內(nèi)容會起作用嗎?
- 互聯(lián)網(wǎng)的免費部分是否會變成一個“機器人點擊頁面廣告”的世界,所有這些都是由人工智能生成的,可以無限復(fù)制?
- 如此輕松實現(xiàn)的“繁榮富足”,可能會破壞經(jīng)濟的各個角落。
- 如果不可替代代幣可以永久復(fù)制,人們會繼續(xù)為其支付費用嗎?
- 如果制作藝術(shù)如此容易,它還會受到尊重嗎?它還會很特別嗎?有人會介意它不是特別的嗎?
- 當(dāng)一切都被視為理所當(dāng)然時,一切都會失去價值嗎?
- 莎士比亞在談到“slings and arrows of outrageous fortune(暴富之命運)”時,這就是他的意思嗎?
我們不要試圖自己回答,讓生成式AI自己來。它可能會返回一個有趣、別致且奇怪的答案,而且極有可能穩(wěn)穩(wěn)地拿捏了“模棱兩可”的界限——一個略帶神秘感,游走在是非邊緣,又不倫不類的答案。
原文鏈接:https://www.infoworld.com/article/3687211/10-reasons-to-worry-about-generative-ai.html