簡單解釋一下“NBIC”最后一個(gè)縮寫字母“C”,即認(rèn)知科學(xué)。在這里,我們必須區(qū)分清楚什么是已經(jīng)成為現(xiàn)實(shí)的所謂低級人工智能(AI),什么是依舊存在于幻想之中的高級人工智能(在我看來永遠(yuǎn)都無法實(shí)現(xiàn),而大部分人工智能專家和我有著不一樣的觀點(diǎn))。粗略地說,高級人工智能是一個(gè)高級智能機(jī)器所具有的智能,這個(gè)機(jī)器不僅能夠模仿人類智慧的外在形式,而且確確實(shí)實(shí)具備兩種到目前為止有且僅有人類具備的東西(或者說至少只存在于智商較高的生物體中,比如猿和高等動物可能也具備這兩樣,只不過其水平較人類低一些):自我意識和情感——愛恨、恐懼、痛苦和快樂等。
低級人工智能僅停留在解決問題的層次上。它可以模仿人類的智慧,但僅僅是機(jī)械模仿,是純粹對其外在形式的模仿。到目前為止,仍然沒有電腦能通過著名的“圖靈測試”,這就是證明。圖靈測試是英國數(shù)學(xué)家設(shè)計(jì)的,在實(shí)驗(yàn)中,一個(gè)人與另一個(gè)他不知道是計(jì)算機(jī)還是人類的“隱藏”實(shí)體進(jìn)行對話。計(jì)算機(jī)可以模仿人類的對話,但充其量就是一個(gè)糟糕的精神分析學(xué)家,聽到“媽媽”這個(gè)詞,就對您說“您的媽媽,哦,當(dāng)然,您可以隨意聯(lián)想任何東西”諸如此類的話。對話進(jìn)行一段時(shí)間之后,電腦顯得越來越古怪,越來越愚蠢(必須承認(rèn)),即使是最天真的參與者也會意識到他是在和一臺機(jī)器進(jìn)行對話,從而結(jié)束這個(gè)測試。
盡管如此,大多數(shù)認(rèn)知科學(xué)家相信,終有一天我們會成功制造出類似于人腦的機(jī)器,電腦自己可能會有意識,還可以產(chǎn)生情感,然而很多生物學(xué)家認(rèn)為必須擁有活的身體才能擁有這兩個(gè)屬性。我們先驗(yàn)地傾向于支持生物學(xué)家的觀點(diǎn),除了少數(shù)高級人工智能的擁護(hù)者。他們以唯物主義一元論為根據(jù),稱大腦本身只是一臺機(jī)器,和其他機(jī)器沒有區(qū)別,只是更復(fù)雜而已,不過是由有機(jī)材料構(gòu)成,總有一天我們可以完完全全地復(fù)制出來,甚至將人與機(jī)器結(jié)合。這種結(jié)合技術(shù)正在成為現(xiàn)實(shí),比如人工心臟,它確實(shí)是一個(gè)機(jī)器,但其表面包裹著生物組織。
因此他們產(chǎn)生了以下想法(在我看來是幻想):某一天智力和記憶也許能夠存儲在一種U盤里(或者幾十年之后出現(xiàn)的類似產(chǎn)品),從而制造出真正的智能機(jī)器,也就是說,有自我意識和情感的機(jī)器。我們可以看到,一個(gè)從低級人工智能悄悄走向高級人工智能的烏托邦式幻想就這樣出現(xiàn)在數(shù)學(xué)家、計(jì)算機(jī)專家、唯物主義論者的世界里。因?yàn)?,機(jī)器現(xiàn)在可以做到,至少他們這么認(rèn)為,人類可以做的幾乎一切事情:它們是自主的,其自主程度差不多和人類一樣,它們可以做出決定、學(xué)習(xí)、改正自己的錯(cuò)誤、復(fù)制,很快就(變成烏托邦式幻想)會成功通過圖靈測試。因此,庫茲韋爾提出,人類可以與這些新的實(shí)體結(jié)合,從而實(shí)現(xiàn)長生不老。
我敢斷言,他們突然對唯物主義哲學(xué)重新感興趣,會遭到很多嚴(yán)肅的反對。
當(dāng)然,如果我們只是簡單地從“行為主義”的觀點(diǎn)來看,僅僅從“外部”來判斷這些機(jī)器,他們與真實(shí)的人類之間的區(qū)別可能有一天會難以分辨,甚至根本無從分辨。雖然目前還不是這樣的情況,也不是沒有可能有一臺機(jī)器會在某一天成功通過圖靈測試。但是,什么能夠向我們證明這些機(jī)器具有“真正”的自我意識,有“真正的”情感——愛恨、歡樂與痛苦?機(jī)器模仿人類模仿到完美無缺也不能證明它不只是一個(gè)復(fù)制品。除非陷入被害妄想,否則聲稱這些機(jī)器有情感,但是它們卻無法證明這一點(diǎn)實(shí)在很荒謬。盡管這些機(jī)器可以完美地模仿生命,它們也并沒有生命,還比不過一只不知道自己在說什么的鸚鵡。有人說,大腦本身只是一臺機(jī)器,剩下的是存在于大腦外部的思維。有一點(diǎn)需要弄清楚:必須要有一個(gè)大腦,還得是一個(gè)聰明的大腦,才能像牛頓一樣發(fā)現(xiàn)萬有引力。這個(gè)定律并不存在于我們的頭腦中,它是被我們發(fā)現(xiàn)的,不是由我們發(fā)明或者創(chuàng)造出的,而是確確實(shí)實(shí)存在的。再比如,我們在童年學(xué)習(xí)的著名的三角形平等定律:數(shù)學(xué)定律需要大腦去理解發(fā)現(xiàn),但沒有大腦它們還是存在,因此在我看來二元論似乎無法否認(rèn)。
不過,我希望有人可以從嚴(yán)格的一元論和唯物論的角度向我解釋左派的大腦和右派的大腦之間有什么不同,或者,做加法時(shí)犯錯(cuò)的大腦和片刻之后反應(yīng)過來糾正自己錯(cuò)誤的同一個(gè)大腦之間有什么不同。我犯了一個(gè)錯(cuò)誤,我去糾正它,難道這一前一后我的大腦不是同一個(gè)“生物性”存在嗎?我認(rèn)為,人類與機(jī)器的不同存在于人的精神生活里,因此,行為主義方法論顧名思義還停留在外在行為上,所以看不到兩者的不同。
讓我們丟棄這個(gè)沒有盡頭的形而上的爭論,重新回到低級人工智能上來,它的好處跟唯物主義烏托邦(對這個(gè)我一點(diǎn)都不相信)無關(guān),只跟存在的現(xiàn)實(shí)有關(guān)。
其實(shí),在20世紀(jì)初,沒有誰會打賭,哪怕只賭一分錢,說一臺機(jī)器能夠在國際象棋比賽中擊敗世界上最好的選手。這本來似乎是一個(gè)不太好笑的玩笑,幼稚的夢想,甚至可以被寫進(jìn)儒勒·凡爾納的科幻小說??墒?hellip;…自從這臺名為“深藍(lán)”的電腦在國際象棋比賽中奪得了世界冠軍,我們知道了這是可能的。現(xiàn)在,除此之外,您電腦上的任何應(yīng)用程序或者低配置智能手機(jī)的程序都能夠做同樣的事情!還有更多的例子表明低級人工智能領(lǐng)域在過去幾年取得了非常大的進(jìn)步。IBM設(shè)計(jì)的計(jì)算機(jī)取了一個(gè)叫沃森的名字,在2011年高調(diào)地參加了著名電視競技節(jié)目《危險(xiǎn)邊緣》——在美國風(fēng)靡一時(shí)的節(jié)目,并打敗了兩個(gè)冠軍。對一臺機(jī)器來說,這是一個(gè)令人難以置信的挑戰(zhàn):找到對應(yīng)于自然語言編寫的答案的問題(問題是用英語描述的)。通過使用Hadoop的軟件(大數(shù)據(jù)處理軟件),沃森已經(jīng)能夠全速處理兩億頁的文字,這讓它得以戰(zhàn)勝其競爭對手——人類。有必要說明,它不僅能正確地“理解”問題,而且可以在幾秒鐘內(nèi)讀完所有的文章,這對人類來說要花費(fèi)幾輩子的時(shí)間,對一個(gè)提出的問題,它可以提煉出更多合適的答案(想象一下這個(gè)挑戰(zhàn)有多艱巨:找到主持人給的答案背后的問題)。它的表現(xiàn)簡直令人嘆為觀止。盡管我們?nèi)匀幌嘈?,高級人工智能只是一個(gè)烏托邦,但低級人工智能目前也已經(jīng)遠(yuǎn)遠(yuǎn)超過人類的智能,帶來許多現(xiàn)實(shí)問題。就像我提到的一封公開信中所講的一樣,這封信是由埃隆·馬斯克、史蒂芬·霍金和比爾·蓋茨簽署的請?jiān)笗?,旨在反對制造和使用著名?ldquo;殺手機(jī)器人”軍隊(duì)。這份請?jiān)笗婕笆澜缟蠀⑴c這項(xiàng)研究的上千位研究人員。
這三位對科學(xué)和新技術(shù)滿懷無限激情的人提醒我們關(guān)注無人駕駛飛機(jī)和遠(yuǎn)程操控導(dǎo)彈的危險(xiǎn)。它們,通過遙控,用人來操控一些所謂的“高智商”的殺手機(jī)器人,能夠自行決定是否“按下按鈕”來結(jié)束一個(gè)人的生命。在信中,三位科學(xué)家或者說企業(yè)家提出了贊成和反對這些機(jī)器人的論據(jù)。他們承認(rèn),機(jī)器人可以在戰(zhàn)爭中投入使用從而代替人類,避免不必要的損失。但他們也說,危險(xiǎn)是巨大的,大于它給人類帶來的益處:
機(jī)器人的制作成本低廉,不需要稀有材料,這和原子彈不同,這種武器將很快被普及。不久,我們就可以在黑市上發(fā)現(xiàn)它,恐怖分子可以輕而易舉獲得它,獨(dú)裁者可以通過它來奴役本國人民,軍閥統(tǒng)治者可以通過它來進(jìn)行種族滅絕,等等。
這就是我們的三個(gè)同類發(fā)出的警告,值得一聽。
首先,讓我們來聽一下比爾·蓋茨先生的原話:“我是對超級智能的發(fā)展保持擔(dān)憂的人之一。目前,那些在我們的位置替代我們勞動、并完成許多任務(wù)的機(jī)器并不是超級智能。如果我們能夠很好地進(jìn)行管理,像這樣的發(fā)展會變得越來越好。然而幾十年之后,智能會帶來新的問題。我十分同意埃隆·馬斯克的觀點(diǎn),但不明白為什么目前人們對這個(gè)問題并不擔(dān)心。”
史蒂芬·霍金強(qiáng)調(diào)道:“成功地創(chuàng)造出人工智能是人類歷史上偉大的進(jìn)步。但,這極有可能是人類文明最后的進(jìn)步。”
為什么是最后的呢?因?yàn)樗械囊磺卸际歉鶕?jù)達(dá)爾文的進(jìn)化論選擇而來的,智力也是,但在霍金的假設(shè)里,機(jī)器存在想要繼續(xù)活下去的欲望,所以要消滅一切對它生命構(gòu)成威脅的事物。既然存在這些智商超群的機(jī)器人,就像科幻電影里描繪的那樣,能夠在幾秒鐘之內(nèi)讀取百萬頁,知道我們所有的信息,知道只有我們?nèi)祟愑心芰⑺麄兊碾娫辞袛?,因此自然而然,我們將會成為他們的頭號敵人。一旦機(jī)器人控制了所有的信息服務(wù)器,也就是武器,它們將會變得有能力摧毀我們。
最后,我們來看看特斯拉公司CEO、絕頂聰明的埃隆·馬斯克說了什么:“我認(rèn)為我們應(yīng)該非常小心謹(jǐn)慎。如果讓我猜測什么最有可能對我們的生存造成威脅,我會說可能是人工智能。我越來越傾向于人工智能應(yīng)該被監(jiān)管這個(gè)觀點(diǎn),包括國家層面和國際層面上的,以確保我們沒有在干蠢事。開發(fā)人工智能,相當(dāng)于在召喚惡魔。”
馬斯克言行合一,出資1000萬美元給一個(gè)致力于人工智能領(lǐng)域安全性研究的基金,這告訴我們,制定人工智能的監(jiān)管規(guī)范對人類自身的安全來說至關(guān)重要。