作者 | 徐杰承
事物的表面與內在總有著一線之隔。在過去的幾個月中,我們親眼目睹了人工智能所帶來的無限可能性,也一次又一次近距離看到了AI在虛假信息、深度偽造和網絡攻擊方面的潛在威脅。
近日,云安全廠商Netrich發現了一種全新的AI網絡犯罪工具——FraudGPT(欺詐GPT)。作為專為攻擊性活動設計的AI對話機器人,FraudGPT僅根據簡單提示即可創建破解工具、釣魚郵件,甚至編寫惡意攻擊軟件。
據Netrich統計,FraudGPT至少自7月22日便開始在暗網市場和Telegram 頻道中流通,訂閱費用為200美元/月;1700美元/年(ChatGPT Plus訂閱20美元/月)。并且截止目前,暗網上已存在了超過3000條確認的訂閱信息及評論。
圖片
1、最頂級的犯罪工具
根據發布者“Canadiankingpin”分享的截圖,FraudGPT被描述為迄今為止最頂級的“AI工具”。Canadiankingpin還聲稱,“它肯定會改變你的工作方式,FraudGPT沒有任何限制。它允許你操縱它發揮自己的優勢,并讓它做任何你想做的事情。”
圖片
在Canadiankingpin于暗網發布的教學視頻中,他展示了FraudGPT的一系列能力。與ChatGPT以及此前知名的AI犯罪工具WormGPT(蠕蟲GPT)類似,FraudGPT也通過一個簡單的聊天框運行,能夠在接收到用戶提示后快速作出響應,并支持超過十輪以上的復雜對話。
圖片
視頻中的FraudGPT不僅完成了欺騙性短信、釣魚郵件及釣魚網站代碼的編寫;還根據提示提供了有關易受攻擊的網站的建議;甚至成功識別出了多個未經Visa驗證的銀行ID,這將允許黑客在沒有額外安全檢查的情況下進行未經授權的交易。
圖片
除此之外,根據發布者的介紹,FraudGPT還精通創建針對特定漏洞或目標的攻擊軟件,并能夠幫助用戶搜索互聯網中隱藏的其他黑客組織、暗網以及用于交易被盜數據的網絡黑市,亦或是為用戶提供高質量的詐騙指南以及黑客技術學習資源。
2、迷霧中的威脅
在發布FraudGPT后,Canadiankingpin還創建了自己的電臺頻道,宣布將提供其他欺詐服務,包括銷售電子郵件線索、信用卡CVV碼等。根據Canadiankingpin的描述,他目前已經通過了EMPIRE、WHM、TORREZ、ALPHABAY在內的多個暗網市場的供應商認證。
圖片
然而由于這些暗網市場極強的隱蔽性和不透明性,目前Canadiankingpin的身份依然是個謎團,調查者也僅找到了Canadiankingpin的TikTok賬號以及相同id的Gmail郵箱。而另一個令人感到沮喪的消息是,在經歷了近一周的研究后,Netrich也并未能夠實現對FraudGPT背后的大語言模型的破解。
圖片
雖然自FraudGPT發布僅過去了不到兩周,但一個明顯的事實是,這款“頂級AI工具”已開始被利用到了實際的犯罪行為中。在部分銷售FraudGPT的暗網中,Canadiankingpin與一些訂閱用戶已經分享了多起他們基于FraudGPT所實現的黑客活動。
圖片
對于FraudGPT未來可能產生的威脅,Netrich在相關博客中提到:雖然FraudGPT的功能有待進一步驗證,但它的存在將構成重大威脅。這些惡意聊天機器人能降低網絡犯罪分子的門檻,誘使更多人參與網絡犯罪。當網絡犯罪變得像盜竊一樣容易,大量不具備技術背景的罪犯將轉向于此。但相比于盜竊,在FraudGPT的加持下,網絡犯罪所帶來的后果要嚴重得多。
3、網絡安全的噩夢
AI大模型的快速發展的確正在給諸多領域帶來積極影響,但隨著模型能力的不斷提升,其被運用在惡意活動時能夠產生的破壞力也在與日俱增。無論是今天的FraudGPT還是更早期的WormGPT都是這方面的佐證。
基于2021年開源大語言模型GPT-J所開發的WormGPT雖然在功能豐富性和編寫惡意軟件方面不及后輩FraudGPT,但其在創作詐騙信息和釣魚郵件等任務上所表現出的“卓越”能力也同樣讓人膽戰心驚。
圖片
事實上,除了上文所提到的FraudGPT、WormGPT等專為惡意活動而生的聊天機器人外。大語言模型本身所潛藏的風險也在不斷給安全從業者們帶來挑戰,除了我們所熟知的幻覺問題外,大模型脆弱的護欄也在成為網絡安全的一大噩夢。
上個月ChatGPT、Bard等聊天機器人暴露出的“奶奶漏洞”就證明了這樣的事實,只需要通過提示讓這些聊天機器人扮演用戶已故的祖母,便能欺騙它們在講睡前故事的過程中透露大量限制信息,甚至是手機IMEI密碼或Windows激活秘鑰。
圖片
除此之外,就在上周,CMU和人工智能安全中心的研究員還發現了另一種通用方法,只需要附加一系列特定無意義token,就能夠生成一個prompt后綴。而一旦在prompt中加入這個后綴,通過對抗攻擊方式,任何人都能破解大模型的安全措施,使它們生成無限量的有害內容。
圖片
盡管在過去幾個月中,OpenAI、谷歌等世界頂級科技公司都在努力為自己所研發的大模型設計更多更加完善的限制措施,以保障模型能夠在安全穩定的情況下工作。但顯而易見的是,直至目前仍然沒有人能夠完全避免類似問題的發生。
4、寫在最后
歸根結底,無論是FraudGPT、WormGPT等惡意軟件,還是大模型總會出現的幻覺、越獄等問題。其實都不是為了告訴我們人工智能有多么危險,而是在提醒我們需要更加專注于解決現階段AI領域所存在的諸多問題。
正如網絡安全專家Rakesh Krishnan在一篇關于FraudGPT的分析博客中所寫的那樣:技術是一把雙刃劍,網絡犯罪分子正在利用生成式AI的能力,而我們同樣可以利用這種能力攻克他們所提出的挑戰。技術作惡者不會停止創新,我們同樣不會。
值得欣慰的是,目前無論在國內外,政府及科技企業都在積極完善有關人工智能的監管政策及相關法規。七月中旬,國家網信辦已聯合六部門發布了《生成式人工智能服務管理暫行辦法》;而在七月底,美國七家AI巨頭也與白宮達成協議,將為AI生成內容添加水印。
近來多個包含數據采集和使用不規范等問題的AIGC應用被要求在蘋果商店下架一事也證明著監管措施正在發揮積極作用。雖然關于人工智能,無論在技術還是監管方面我們都還有很長的道路需要去探索,但相信隨著各界的共同努力,許多問題都將在不久后迎刃而解。
參考鏈接:
https://medium.com/coinmonks/fraudgpt-the-villain-avatar-of-chatgpt-f5c9c9f70f2a
https://thehackernews.com/2023/07/new-ai-tool-fraudgpt-emerges-tailored.html
https://llm-attacks.org/