人工智能取代的不僅僅是你的工作,這些威脅更可怕……
大數據時代的到來,迎來的不僅僅是大數據的浪潮,還有就是人工智能的興起。繼谷歌人工智能程序"阿爾法狗"碾壓中韓頂級棋手后,全球第一個被授予"公民身份"的機器人索菲亞又揚言"要毀滅人類",接著出現了會后空翻的機器人"阿特拉斯",以及可執行"斬首"任務的微型無人機紛紛登臺亮相……
在大數據人工智能高速發展的今天,就像人們說的,數據時代下的人們時刻都在"裸奔",人人記錄在冊,而這才只是剛剛開始,大數據只是負責搜集和分析數據,真正的利器其實是人工智能。
正如許多專家所預言的那樣,戰爭機器人可能是繼核武器之后,又一把懸在人類頭上的"達摩克利斯之劍"。這引發人們深思:人工智能究竟會被"馴服",成為人類的朋友?還是會"叛逆",給人類帶來無盡的災難?
人工智能作為物聯網、大數據、先進算法和強大計算能力支持下的一種"群技術",通過賦予"物"以人的智力,模擬和擴展人的智慧,輔助甚至代替人實現多種功能,進行認識、分析、決策、行動等活動。其核心優勢是高度自主性,能夠較少或完全不需要人工干預就可完成復雜、繁重和精確性高的任務。
人工智能帶給人類帶來的巨大威脅
實現高度自主并可能"失控"。未來超人工智能開始具備自主思維意識,能夠像人類一樣獨立思考,并自我決定如何行動。
這種高度智能化的系統還能夠通過學習進行機器再造,可以快速復制或再生其他新的人工智能體。據專家推算,一個失去控制的正在自我復制的納米機器人,完成130個復制周期只需要3個半小時,考慮到納米機器人向外移動擴張等因素,最多只需數周就可以"摧毀"地球上的一切生物。
遭遇非法入侵可能被"黑化"。人工智能作為一種新興的技術領域,一般來說,沒有安全漏洞是不可能的。而如果有人利用這種漏洞控制智能系統或機器人去實施破壞活動,這樣的后果是極其可怕的。
爆發機器戰爭造成武力"濫用"。未來大量智能化無人系統將運用于戰場,"死傷"的主要是沒有生命并可以大量再造的"智能機器",使戰爭成本大大降低,并能夠實現作戰人員的"零傷亡"。
未雨綢繆的防范,怎樣才能給人工智能戴上"緊箍咒"?
從技術安全角度建立共同遵守的發展準則。
根據人工智能可預見的風險,建立世界范圍內的人工智能發展準則,對研究范圍、內容、目的、用途等各個方面進行規范,確保安全、可控地發展人工智能。
從道德倫理角度建立科學嚴格的評估機制。
人工智能主要是基于算法,而算法在本質上是"以數學方式或計算機代碼表達的意見",是設計者、開發者的主觀創造,有可能將自己的偏見、價值觀嵌入算法系統,制造出不符合社會道德規范的智能機器,這就需要對其進行嚴格評估以確保安全。
從規范運用角度建立具有法律約束力的普遍性制度條約。
任何一種先進技術能否產生威脅,主要看使用者出于何種目的、如何運用。