在經(jīng)典科幻電影《2001太空漫游》中,飛船的主控電腦HAL面臨了一個兩難的困境:它所收到命令要求它必須前往木星執(zhí)行一項調(diào)查任務(wù),但同時,關(guān)于這次任務(wù)的目的,它必須對飛船上的所有船員保密,最后,HAL企圖以殺死全體船員的方式完成任務(wù)。
當(dāng)今天的機(jī)器變得愈發(fā)智能,機(jī)器面臨道德選擇的情形已經(jīng)不再僅僅是小說中的虛構(gòu)情節(jié),人類亟需尋求一種方式確保現(xiàn)實世界中的機(jī)器人能夠做出比HAL明智的選擇。
目前的武器系統(tǒng)依然由人類掌控最后的決策,但是隨著技術(shù)的演進(jìn),將來這種決策權(quán)可能會被直接賦予給機(jī)器,而當(dāng)這種情況發(fā)生時,機(jī)器就不得不開始面對諸多道德難題。無人駕駛戰(zhàn)機(jī)是否應(yīng)該向一棟藏有敵人目標(biāo)但同時也有無辜平民的建筑開火?無人駕駛汽車是否應(yīng)該為了躲避行人而突然轉(zhuǎn)向?(這樣做意味著撞到旁邊行駛的汽車。)
這些難題引出了一個全新的領(lǐng)域——“機(jī)器道德”,它旨在賦予機(jī)器在遇到道德困境時做出合適決策的能力,換言之,就是告訴機(jī)器人究竟什么是對和錯。
解決機(jī)器人道德難題的方式之一就是完全禁止它們的使用,但是自動化機(jī)器人畢竟是利大于弊,所以,人們現(xiàn)需要找到應(yīng)對之策。在美國,一些州已緊急通過了關(guān)于無人駕駛汽車的法案。而事實上,無人駕駛汽車早已在法案通過前就開始使用了,技術(shù)的發(fā)展已經(jīng)超越了立法完善的速度。
最著名的機(jī)器人道德方面的規(guī)則是科幻小說家Issac Aismov在1942年提出的“機(jī)器人3大法則”。它要求機(jī)器人首先要保護(hù)人類,其次是服從命令,最后要保護(hù)自己。不幸的是,這些法則在現(xiàn)實世界中很少被用到,戰(zhàn)斗機(jī)器人就破壞了第一法則。
Asimov小說的有趣之處在于他準(zhǔn)確描述了機(jī)器人在服從命令時遇到的難以預(yù)料的復(fù)雜狀況。管理不斷發(fā)展的自動化機(jī)器需要應(yīng)用一個更為復(fù)雜的架構(gòu),并且在下面3個領(lǐng)域格外重要。
首先要明確機(jī)器人的制造者是否需要在機(jī)器人犯錯時承擔(dān)責(zé)任?為了確定責(zé)任,自動化系統(tǒng)必須保存細(xì)節(jié)資料以便在必要的時候解釋機(jī)器行為的原因。這關(guān)乎到系統(tǒng)的設(shè)計:比如,需要排除那些依據(jù)已有案例而非遵循預(yù)設(shè)法則做出判斷的決策系統(tǒng);其次,內(nèi)置的道德系統(tǒng)需要幫助機(jī)器人做出符合絕大多人利益的決策;最后也是最重要的一點是,工程師、倫理學(xué)家、律師和政策制定者們必須要通力合作,因為如果各自為戰(zhàn),他們會建立起截然不同的標(biāo)準(zhǔn)。
技術(shù)總是引領(lǐng)著人類的進(jìn)步,但是每一次進(jìn)步也會帶來許多棘手問題,機(jī)器人也不例外,而越早解決這些道德上的問題,人們就能越早享受到他們帶來的便利。
The Economist《經(jīng)濟(jì)學(xué)人》2012年6月2日






快報
根據(jù)《網(wǎng)絡(luò)安全法》實名制要求,請綁定手機(jī)號后發(fā)表評論
道德的標(biāo)準(zhǔn)本身就很模糊和復(fù)雜,解決機(jī)器道德植入問題更難,就目前來看還有很長的路,希望人類能打開宇宙的奧秘!這個世界的魅力就在于你不知道結(jié)果是什么,確癡迷的為之不斷探索!
考慮的早了點吧~
但這個過程出現(xiàn)人類和機(jī)器之間戰(zhàn)爭的可能性不會有,如果有,本質(zhì)上來講,還應(yīng)是人與人之間的戰(zhàn)爭。
機(jī)器的善惡是二元論,人則不同,所以不是那么簡單
把人的道德做好
機(jī)器就是機(jī)器,跟機(jī)器談什么道德?
懶人推動科技進(jìn)步
呵呵。思其始而成其終
有點危言聳聽了,以后也許會達(dá)到你現(xiàn)在所說那種智能化,但現(xiàn)在,你自問現(xiàn)今世界上有哪個國家的科技可以達(dá)到你說的?
機(jī)器最終還是要賦予人性的,這是大趨勢,但要想讓大部分人接受,可能要有一個象征性的儀式來完成這個過程。