使用ChatGPT創(chuàng)建內(nèi)容時(shí)應(yīng)該避免的四個(gè)錯(cuò)誤
ChatGPT在短時(shí)間內(nèi)生成內(nèi)容的能力使其越來(lái)越受到內(nèi)容創(chuàng)作者的歡迎。然而,像任何強(qiáng)大的技術(shù)一樣,人工智能語(yǔ)言模型也可能被濫用。
在人們對(duì)這個(gè)問(wèn)題掉以輕心之前,要知道濫用人工智能可能會(huì)導(dǎo)致法律問(wèn)題、聲譽(yù)損害和錯(cuò)誤的輸出。以下探討了內(nèi)容創(chuàng)建者使用ChatGPT的錯(cuò)誤方式,以便可以避免這些問(wèn)題。
1、不要過(guò)度依賴ChatGPT
假設(shè)用戶是第一次使用ChatGPT,就會(huì)發(fā)現(xiàn)它的響應(yīng)速度非常快。以前花費(fèi)幾個(gè)小時(shí)創(chuàng)造的東西現(xiàn)在只需要幾秒鐘。隨著時(shí)間的推移,用戶可能會(huì)開(kāi)始嚴(yán)重依賴,通常只是進(jìn)行一些修改,并沒(méi)有費(fèi)心去研究。
這種現(xiàn)象就是人們所說(shuō)的對(duì)人工智能的過(guò)度依賴,對(duì)于那些被迫快速生產(chǎn)內(nèi)容的創(chuàng)作者來(lái)說(shuō),這是一條誘人的途徑。然而,微軟公司發(fā)表的有關(guān)人工智能過(guò)度依賴的文獻(xiàn)綜述警告說(shuō),過(guò)度依賴人工智能會(huì)導(dǎo)致用戶接受錯(cuò)誤的結(jié)果。
以網(wǎng)絡(luò)媒體CNET的爭(zhēng)議為例。CNET發(fā)表了人工智能撰寫(xiě)的財(cái)務(wù)分析文章,署名為“CNET Money Staff”。不幸的是,一些專業(yè)人士在人工智能生成的文章中發(fā)現(xiàn)了明顯的錯(cuò)誤。它指責(zé)這家媒體機(jī)構(gòu)發(fā)布可怕的財(cái)務(wù)建議,并大量生產(chǎn)廉價(jià)內(nèi)容來(lái)操縱谷歌搜索結(jié)果牟利。
不知道CNET是過(guò)度依賴人工智能還是過(guò)度自信,或者沒(méi)有人會(huì)注意到。無(wú)論如何,這一事件應(yīng)該成為一個(gè)警告,不要過(guò)度依賴人工智能的輸出。
需要記住的是,ChatGPT可能會(huì)大量輸出過(guò)時(shí)的信息。正如ChatGPT公司自己所說(shuō),訓(xùn)練ChatGPT所采用的知識(shí)的截止日期為2021年9月,所以用戶反復(fù)檢查信息的真實(shí)是很好的措施。
OpenAI公司的CEO Sam Altman也在美國(guó)廣播公司新聞的視頻采訪中提到,用戶應(yīng)該對(duì)ChatGPT的“幻覺(jué)問(wèn)題”更加謹(jǐn)慎。它可以自信地陳述虛構(gòu)的想法,就好像它們是事實(shí)一樣。像CNET網(wǎng)絡(luò)這一事件可能會(huì)損害用戶將其作為權(quán)威消息來(lái)源的可信度。
當(dāng)用戶沒(méi)有足夠的知識(shí)來(lái)評(píng)估結(jié)果時(shí),很容易盲目地接受ChatGPT輸出的內(nèi)容。此外,當(dāng)ChatGPT的答案與用戶的理念一致時(shí),可能不會(huì)費(fèi)心去檢查不同的觀點(diǎn)。為了避免這些尷尬的情況,需要核實(shí)事實(shí),尋求不同的觀點(diǎn),并獲得專家的建議。
用戶正在學(xué)習(xí)使用ChatGPT進(jìn)行內(nèi)容創(chuàng)作,包括什么是人工智能幻覺(jué),以及如何在要掌握的主題列表中發(fā)現(xiàn)它。更重要的是,不要忽視人類的判斷力和創(chuàng)造力。需要記住的是,人工智能應(yīng)該增強(qiáng)其思維,而不是取代它。
2、不要向ChatGPT索取研究鏈接
如果用戶要求ChatGPT提供研究資源的互聯(lián)網(wǎng)鏈接,那么可能會(huì)感到失望。ChatGPT也許提供鏈接,但它們可能是錯(cuò)誤的,或者不一定是網(wǎng)絡(luò)上最好的內(nèi)容。
為了進(jìn)行測(cè)試,研究人員讓ChatGPT提供JSTOR的研究論文鏈接,這些論文是關(guān)于英國(guó)年輕奇幻作家撰寫(xiě)的成長(zhǎng)故事。ChatGPT提供了5種資源,包括標(biāo)題、卷號(hào)、頁(yè)碼和作者。
乍一看,這份名單似乎可信。JSTOR上的文章有一些聽(tīng)起來(lái)令人印象深刻的標(biāo)題,例如《構(gòu)建混合身份:薩莉·格林三部曲中的種族與民族》。但是谷歌搜索很快就會(huì)顯示大多數(shù)鏈接指向錯(cuò)誤的JSTOR文章,其中一個(gè)鏈接指向404頁(yè)面。
在另一個(gè)例子中,提供給ChatGPT一個(gè)更具體的主題來(lái)研究,看看它是否會(huì)產(chǎn)生更好的結(jié)果。這是使用的提示:“我正在寫(xiě)一篇關(guān)于‘英國(guó)青年和成年當(dāng)代小說(shuō)中的女主角’的文學(xué)研究論文,你能給我一篇關(guān)于這個(gè)話題的文獻(xiàn)綜述嗎?”
ChatGPT給出了一個(gè)包含五部作品的列表,并附有作者的姓名和摘要。然而,人們?cè)诰W(wǎng)上找不到它列出的任何作品。
為了更好地理解這些信息,研究人員要求提供鏈接。ChatGPT這一次卻拒絕了,聲稱這只是一個(gè)沒(méi)有網(wǎng)頁(yè)瀏覽功能的人工智能語(yǔ)言模型。然而,它提供了書(shū)目信息,盡管這些作品據(jù)稱是在2004~2018年期間創(chuàng)作的,但無(wú)法在網(wǎng)上核實(shí)。
當(dāng)被提示提供鏈接以驗(yàn)證其提供的信息時(shí),ChatGPT這次斷然拒絕了。OpenAI公司表示,它沒(méi)有網(wǎng)絡(luò)瀏覽功能,而是提供了一份書(shū)目信息列表。然而,其數(shù)據(jù)仍然是錯(cuò)誤的。
OpenAI公司上最新的ChatGPT發(fā)布說(shuō)明顯示它現(xiàn)在具有網(wǎng)頁(yè)瀏覽功能。但是這些功能還沒(méi)有普及到每一個(gè)用戶。此外,正如研究人員所指出的那樣,ChatGPT的搜索結(jié)果不一定是互聯(lián)網(wǎng)上最好的,因?yàn)閷I(yè)人士可以操縱搜索引擎的結(jié)果。
為了避免這個(gè)問(wèn)題:
- 用戶可以為其研究使用更合適的在線資源。
- 如果需要學(xué)術(shù)研究的資源,可以查看Google Scholar或人工智能研究助手Elicit。
- 在選擇引用哪篇文章時(shí),記住要批判性地評(píng)估結(jié)果并做出判斷。
3、不要用ChatGP代替職場(chǎng)關(guān)系
用戶可以使用ChatGPT做的一些事情可能會(huì)誘使用戶將其擬人化或賦予其人類屬性。例如,可以向ChatGPT尋求建議,如果需要找人聊天,可以和它聊天。
在下面的例子中,可以讓ChatGP作為十年來(lái)最好的朋友,提供關(guān)于職場(chǎng)倦怠的建議,它似乎傾聽(tīng)并感同身受。
但無(wú)論它聽(tīng)起來(lái)多么富有同情心,ChatGPT都不是人類。聽(tīng)起來(lái)像人類生成的句子只是ChatGPT根據(jù)其訓(xùn)練數(shù)據(jù)預(yù)測(cè)序列中的下一個(gè)單詞或“標(biāo)記”的結(jié)果。它不像人類那樣有知覺(jué),有自己的意志和思想。
也就是說(shuō),ChatGPT并不能代替工作場(chǎng)所中的人際關(guān)系和協(xié)作。正如哈佛大學(xué)“工作與幸福倡議”所言,這些人際關(guān)系讓人受益,有助于提高幸福感,免受工作壓力的影響。
學(xué)習(xí)使用最新的技術(shù)工具很重要,但與團(tuán)隊(duì)其他成員的互動(dòng)也是必不可少的,而不是依靠ChatGPT復(fù)制社會(huì)關(guān)系,建立人際關(guān)系技能,與同事互動(dòng),并找到能夠一起更好地完成工作的人。
4、不要向ChatGPT發(fā)送無(wú)效提示
在創(chuàng)建內(nèi)容時(shí),是否發(fā)現(xiàn)很難從ChatGPT中獲得最佳響應(yīng)?提供場(chǎng)景和給出精確的指示應(yīng)該能解決這個(gè)問(wèn)題。
在下面的例子中,可以讓ChatGPT總結(jié)一下美國(guó)鄉(xiāng)村音樂(lè)歌手Eric Allen在Hackernoon上寫(xiě)的一篇有趣的博客。這篇冗長(zhǎng)的文章描述了Allen在ChatGPT中改進(jìn)人工智能提示的過(guò)程,以創(chuàng)建一個(gè)名為BeatBrain的音樂(lè)推薦系統(tǒng)。
然而,ChatGPT并不熟悉Allen的文章。當(dāng)要求ChatGPT分享鏈接并做出總結(jié)時(shí),ChatGPT卻錯(cuò)誤地聲稱Eric Allen創(chuàng)立了BeatBrain公司,該公司利用GPT-3技術(shù)創(chuàng)作人工智能生成的音樂(lè)。
為了幫助ChatGPT,將文章分幾部分進(jìn)行復(fù)制粘貼,并要求在每次上傳后提供摘要。ChatGPT這一次能夠準(zhǔn)確地完成任務(wù)。還有一次,ChatGPT提供了評(píng)論而不是摘要,但是研究人員用另一個(gè)提示對(duì)它進(jìn)行了重定向。
這個(gè)例子是一個(gè)關(guān)于如何使用ChatGPT有效地總結(jié)長(zhǎng)篇技術(shù)文章的實(shí)驗(yàn)。然而,人們現(xiàn)在可以訪問(wèn)許多互聯(lián)網(wǎng)資源,并學(xué)習(xí)提示技術(shù)來(lái)改進(jìn)其ChatGPT響應(yīng)。
使用推薦的提示并不是防止ChatGPT產(chǎn)生幻覺(jué)的萬(wàn)無(wú)一失的方法,但它可以幫助服務(wù)商提供準(zhǔn)確的結(jié)果,還可以查看GitHub上最好的ChatGPT提示,以獲取有關(guān)提示技術(shù)的更多信息。
最大化ChatGPT的功能,但要注意它的局限性
ChatGPT提供了前所未有的速度和便利,但使用它也需要謹(jǐn)慎和負(fù)責(zé)。避免過(guò)度依賴ChatGPT,需要使用更合適的工具進(jìn)行研究,更好地與團(tuán)隊(duì)合作,并學(xué)會(huì)有效地使用提示以最大限度地獲得其好處。
接受ChatGPT的力量,但要始終注意其局限性。通過(guò)最大化ChatGPT的潛力,同時(shí)最小化它的缺陷,可以產(chǎn)生有影響力的、有創(chuàng)意的內(nèi)容,從而提高工作質(zhì)量。