您的位置:首頁(yè) >文化 >

觀點(diǎn):人類(lèi)需要制造會(huì)“違抗命令”的人工智能

最近,禁止殺傷性機(jī)器人運(yùn)動(dòng)呼吁聯(lián)合國(guó)禁止研發(fā)和使用自動(dòng)武器,也就是有自主意識(shí)、有殺傷能力的人工智能。不過(guò),有觀點(diǎn)認(rèn)為,人類(lèi)騎其實(shí)需要制造會(huì)“違抗命令”的人工智能。本文原題為“Why we should build AI that sometimes disobeys our commands”,最初發(fā)表在NewScientist上。

人類(lèi)與人工智能互動(dòng)的未來(lái)將會(huì)引發(fā)焦慮。隨著人們開(kāi)始推動(dòng)將倫理觀念輸入到人工智能體系中,我們必須承認(rèn)這樣一個(gè)想法:我們需要制造出可以對(duì)命令說(shuō)“不”的機(jī)器。

這么做的目的不僅僅是讓機(jī)器人不對(duì)未識(shí)別的命令的做出回應(yīng),同時(shí)也是希望給機(jī)器人賦予這么一樣能力——即在特定情況下,拒絕不合適、有用的人類(lèi)命令。這一設(shè)想并不容易實(shí)現(xiàn),對(duì)于某些人來(lái)說(shuō)也很難接受。

盡管人工智能發(fā)展迅速,我們?nèi)匀惶幱谶@一大變革的開(kāi)始階段。許多復(fù)雜的人工智能系統(tǒng)還遠(yuǎn)遠(yuǎn)未達(dá)到能夠獨(dú)立做決定的階段,在相當(dāng)長(zhǎng)的一段時(shí)間內(nèi),這些人工智能系統(tǒng)仍然只能一起工作或是在人類(lèi)的指示下工作。

創(chuàng)造出能夠彌補(bǔ)人類(lèi)缺點(diǎn)、而非能毀滅人類(lèi)的人工智能越來(lái)越被認(rèn)為是這項(xiàng)技術(shù)完美的發(fā)展方向。但是,關(guān)鍵在于,這也意味著如果人工智能具備了倫理觀念,它不僅會(huì)拒絕人類(lèi)非法或不道德的命令,也能執(zhí)行這些命令。

隨著人工智能系統(tǒng)變得更加強(qiáng)大和普遍,他們是否會(huì)具備倫理觀念這一問(wèn)題變得突出起來(lái)。幸運(yùn)地是,關(guān)于這一問(wèn)題的研究在人工智能領(lǐng)域和學(xué)術(shù)界都很豐富。DeepMind這一由谷歌在2014年收購(gòu)的倫敦人工智能研究組是最近想要發(fā)行具備倫理觀念的機(jī)器人的研究組,他們邀請(qǐng)了來(lái)自不同領(lǐng)域的顧問(wèn),以幫助了解清楚由人工智能在社會(huì)上究竟扮演何種角色所引起的兩難之境。但是隨著我們不斷探尋無(wú)人駕駛汽車(chē)深層次的決策制定過(guò)程,深思軍用機(jī)器人是否能夠得到允許以做出殺戮的決定,嘗試發(fā)現(xiàn)植根于機(jī)器學(xué)習(xí)算法中的種族主義和性別歧視,我們需要退后一步,認(rèn)識(shí)到我們努力做的東西具體情境和它的復(fù)雜性。

抵抗是有效的

在幾乎所有情境下,由機(jī)器所做的決定可以追溯到由人提出的要求。如果機(jī)器想要具備倫理觀念,它必須有能力識(shí)別一項(xiàng)請(qǐng)求是否是合乎道德,在某些情況下,它必須克制自己,不做決定。

人類(lèi)并不完美。我們已經(jīng)可以看到有一些觀點(diǎn)認(rèn)為軍用機(jī)器人相比于人類(lèi),可以更好的決定是否摧毀一個(gè)目標(biāo)。這樣的想法認(rèn)識(shí)到了人類(lèi)可能會(huì)在做決定時(shí)犯認(rèn)知性的錯(cuò)誤。

與此類(lèi)似,軍用機(jī)器人不會(huì)參與到由憤怒或是厭惡驅(qū)使的暴行當(dāng)中。但是,如果由人工智能控制的機(jī)器人被命令去攻擊一個(gè)村莊呢?美國(guó)士兵受到的訓(xùn)練中就有識(shí)別和拒絕非法命令。軍用人工智能也應(yīng)當(dāng)根據(jù)同樣的規(guī)則來(lái)工作。

同樣的規(guī)則適用于軍事之外的領(lǐng)域。無(wú)論我們是在討論一個(gè)批準(zhǔn)或者拒絕貸款的金融機(jī)器人,努力避免危險(xiǎn)路況的無(wú)人車(chē),還是分發(fā)止痛藥的醫(yī)藥機(jī)器人。一個(gè)得到購(gòu)買(mǎi)機(jī)器人授權(quán)的人類(lèi)用戶,可能會(huì)引導(dǎo)人工智能做一些如果人類(lèi)做會(huì)被認(rèn)為是有問(wèn)題、甚至是非法的事情,比如讓少數(shù)群體更難獲取貸款,走一條已經(jīng)關(guān)閉或者是很危險(xiǎn)的路,開(kāi)過(guò)量的鴉片類(lèi)藥物。

除非人工智能可以識(shí)別并拒絕這類(lèi)決定,否則的話,我們不過(guò)也就是打造另一個(gè)也會(huì)存在人類(lèi)固有的缺點(diǎn)的智能機(jī)器世界,只不過(guò)在計(jì)算機(jī)客觀性的掩飾下這個(gè)世界的陰暗面并不那么明顯。

拒絕在某些時(shí)候可能具有侵犯性,但是具備倫理觀念的人工智能的未來(lái)更加合理,這意味著我們會(huì)習(xí)慣知道什么時(shí)候說(shuō)“不”的機(jī)器。

最新動(dòng)態(tài)
相關(guān)文章
逾百位港澳和臺(tái)灣青年精英赴北京研修中...
弘揚(yáng)孝善文化 金堂縣舉行第二屆孝善文化節(jié)
萬(wàn)子和家族肖像權(quán)法律授權(quán)委托書(shū)
中式名言四天王,除了魯迅莫言白巖松還...
唐代小姐姐們,你們待在墻上挺美,可我...
周總理為我們保護(hù)了多少文物古跡?
?