《超級智能》(英) 尼克·波斯特洛姆著 張體偉 張玉青譯 中信出版社出版2009年,在某個競技場中,瑞士研究人員放置了數百臺機器人,機器人身上的程序讓它們在競技場中尋找一個淺色的圓環(實驗中的食物)。這些機器人相互可以溝通,機器人會向同伴發送藍光告訴其它機器人食物的位置。但是隨著實驗進行,研究人員發現某些找到食物的機器人停止閃光、獨占資源——而源程序根本沒有指示它們這么做。這到底是機械故障,還是機器人學會了撒謊?
今天的計算機可以完成越來越復雜的任務,已經具備了接近人類的智能。一旦出現“超級智能”,即計算機能夠自己思考而非僅僅對命令進行反應,并且計算機不僅僅在數學和科學能力上超過人類,而且在藝術創造性甚至是社會技能領域也大大超過人腦,人類享受空前便利的同時又會遭遇什么風險呢?《超級智能》對此進行思索與探討。該書認為,人類大腦擁有一些其他動物大腦沒有的功能,正是這些獨特的功能使我們的種族得以擁有主導地位。如果機器大腦在一般智能方面超越了人類,那么這種新興的超級智能可能會極其強大,并且有可能無法控制。超級智能對我們人類將是一個巨大的威脅。
作者根據海量信息資料分析認為,與人類智能水平并駕齊驅的機器智能有相當大的可能在21世紀中葉實現,可能會更早,也可能會更晚;但是只要這種機器智能出現,就會很快出現超越人類智能水平的高級智能;這會對人類生存產生極其重大的影響,或是產生極好的影響,或是造成人類滅絕。不管怎樣,這都說明我們很有必要去認真研究人工智能這個議題。
對于如何控制超級智能,作者提出了兩大路徑。一為能力控制,分為四類:盒子方法(系統受到限制,只能夠通過有限制的、提前批準的渠道對外界產生影響,包括物理遏制和信息遏制兩種方法);激勵方法(系統被放置在提供適當激勵的環境中);阻礙發展(對系統的認知能力或影響關鍵內部過程的能力進行限制);絆網(對系統進行診斷測試,如果探測到系統有危險行為,就將其關閉)。二為動機選擇,也分為四類:直接規定(系統裝載直接規定的動機系統);馴化(設計一套動機系統,嚴格限制超級智能的目標和行為范圍);間接規范(依靠間接手段來確定需要被遵守的規則和需要被追求的價值);擴增(選擇一個已經具有類似人類的、友好的動機系統,對其認知能力進行提升,使其成為超級智能)。作者論說控制超級智能的方法聽起來或許因為太過專業而不夠通俗易懂,然而我們只要明白一點就可以了,那就是在超級智能出現之前,人類需要做好應對準備,而當超級智能出現,人類應該可以找到控制辦法。
擔憂超級智能出現會給人類帶來毀滅性災難,作者并非杞人憂天。很多專家以及IT界人士表達出與作者同樣的憂慮。英國物理學家史蒂文·霍金稱,人工智能的完美就意味著人類的滅亡;特斯拉埃隆·馬斯克也聲稱,人工智能的出現是在“召喚魔鬼”;比爾·蓋茨也憂心忡忡:“我站在警惕人工智能的陣營一方……我很不理解,為什么會有人完全不擔憂人工智能”……
既然這么多權威人士表示出擔憂,我們有必要未雨綢繆提前應對,要想到超級智能一旦出現,人類該如何控制,既充分享受其帶來的便利,又能免除它給人類帶來的潛在威脅,這或許也是該書警世意義所在。
筆者對超級智能持樂觀態度。首先,很多計算機科學家認為我們不會迎來注定的毀滅,相反他們質疑人類是否能夠真正實現人工智能。他們認為光是理解人腦,人類已經走過了漫長的研究道路——包括意識本身是什么這個問題——更別提將這些知識用來打造一臺有感情和自我意識的機器。雖然今天最強大的計算機可以用算法贏得國際象棋大賽,可以贏得競猜電視節目,可我們還無法創作出能夠寫出感人的詩作,能夠判斷是非的機器人——要制造出完全掌握人類技能的機器人還很遙遠。其次,超級智能終歸屬于程序系統,而不是像人一樣的自由思維系統,超級智能能量始終受人控制,它并不具備自我主動開拓能力。再次,超級智能的生命取決于人的控制,假如把超級智能比作翱翔藍天的風箏,那么人的控制就是系在風箏身上的那根線繩。風箏一旦脫離線繩,結果可想而知。








