機器人的思考方式讓我們不得不思考一個古老哲學難題的核心關鍵所在——道德的本質究竟是什么?
雷吉納·里妮(Regina RiNI)是紐約大學生物倫理學中心(New York University Center for Bioethics)的助理教授和研究員。她還是紐約大學人口健康系(NYU Department of Population Health)醫(yī)學倫理學部門的名譽教工。
很早之前,人類就開始暢想制造智能機器。但是這么久以來,這也只是人類的一個夢想而已,從未成為現(xiàn)實。如今,智能機器的時代終于就要來臨。智能程度足夠高的機器人可以脫離人類控制,獨立自主的完成各項工作。同時,它們具備真正獨立做出抉擇的能力。如果機器人擁有了抉擇的能力,那么它們能否做出符合道德標準的抉擇呢?而且,機器人的道德準則又應該是什么樣的?是與人類社會的道德標準一樣嗎?
哲學家和計算機科學家都表示,讓缺乏想象力的機器人按照復雜微妙的人類社會道德標準行事非常困難。他們在不斷努力,想要克服這個難題。但是,我們要解決的還有另外一個問題。而且,這個問題的優(yōu)先級應該更高才對——我們究竟是否應該將人類的道德標準強加給智能機器人?實際上,我覺得這樣做會產生適得其反的效果。而且往大里說,這甚至可以稱得上是一種不道德的行為。機器人道德準則領域的核心問題不是機器人,而是我們。我們能不能與一種遵循全新類型道德規(guī)范的造物很好的共同生活在這個世界上?
在我們的想象中,未來的人工智能(AI)將與人類非常相似。這是因為人類是我們已知的唯一一種擁有高級智慧的生物。但是,我們的想象卻可能是錯誤的。如果人工智能在未來真的問世,它可能與人類截然相反。它可能無法理解我們行事的方式,而我們也很難理解它做出抉擇的邏輯。
AI究竟是福是禍?引導其形成道德或許能避免災難
圍棋是一種古老的策略性棋類游戲,而李世石(Lee Sedol)則是世界頂級圍棋選手。2016年,一款電腦程序向李世石發(fā)起挑戰(zhàn)。這款由 Google 研發(fā)的程序名叫 AlphaGo,是一種比較“原始”的人工智能。通過它,我們可以一睹未來人工智能的模樣。在第二回合對弈過程中,AlphaGo 在第37手用一個尖沖讓世界上所有的圍棋專家目瞪口呆。有的人覺得這是一個失誤。面對這一手怪棋,李世石也不知所措。他起身離開桌子,離開了對弈的房間。沒有人能夠完全理解 AlphaGo 這一手棋的目的所在,因為任何頂尖圍棋選手都不會選擇這樣的對弈策略。但是,這一手怪棋效果拔群。與第一回合一樣,AlphaGo 最終順利拿下第二回合。此后,AlphaGo 又成功在第三回合擊敗李世石。在這場五回合的圍棋比賽中,李世石最終僅僅贏下了一局。
AlphaGo 精通圍棋。不過,它對圍棋的理解與人類頂尖棋手有所不同。即便是它的創(chuàng)造者也不能解釋清 AlphaGo 在每一局比賽中究竟是如何選擇對弈策略的。假如你能與 AlphaGo 展開對話,而你問它為何要在第37 手選擇那樣一步奇怪的這走法。它能夠向你或者其他頂級圍棋選手解釋得清嗎?也許能。面對相似的任務,人工智能的思維方式不需要與我們的思維方式完全一致。即便思路不同,它們依舊能夠很好的完成任務。
我們也許會發(fā)現(xiàn)智能機器人不止在理解圍棋這件事上與我們不同。實際上,它們對世界萬物的理解都與我們有所區(qū)別。在恐怖的科幻作品里,機器人會發(fā)生暴動,然后瘋狂的屠戮人類。你不需要為此擔心。在未來,故事的劇本也許會是這樣:機器人對人類、其他機器人、大部分動物以及沙發(fā)產生了道德關懷。就像我們因為害怕傷害嬰兒而行動小心謹慎一樣,機器人也會因為害怕傷害沙發(fā)而小心翼翼。我們大概會問機器人:“你們?yōu)槭裁催@么關心照顧沙發(fā)?”它們的解釋也許完全令人無法理解。是的,AlphaGo 對自己第 37 手落子的解釋也可能讓我們云里霧里,絲毫無法從中找到頭緒。
機器人的思考方式讓我們不得不思考一個古老哲學難題的核心關鍵所在——道德的本質究竟是什么。它是一種超越人類經驗的東西,適用于一切能夠自主抉擇的人或者物?還是說道德明顯就是一種人類創(chuàng)造出來的東西,因此僅僅特定適用于我們人類自己?
有一種生物的思維模式與成年人也有很大區(qū)別,他們就是青少年。很久很久之前,古希臘人就試圖讓青少年接受社會的道德規(guī)范。古希臘人一直對一件事憂心不已:如何讓年輕人接受理解他們的道德準則。柏拉圖認為,人類社會產生了正義的概念,但這只是完美的正義概念的一種蒼白無力的反射和映像罷了。同理,人類社會所產生的其他所有概念也都是如此。在柏拉圖看來,人類自出生后就對各種完美形態(tài)的概念有所認知。但是在孩童時期,我們對這些概念的理解還比較朦朧淺薄。也許我們會在離世后了解到什么才是純粹完美的正義,但哲學的任務就是試圖讓我們在還活著的時候理解世間的各種真理。
柏拉圖的學生亞里士多德并不同意老師的觀點。他認為世間萬物——松鼠、樂器、人類——都有著獨特的本質和屬性。因此對于世界萬物而言,表現(xiàn)出各自特有本質和屬性就是最好的存在之道。“道德”是一種描述人類最好生存之道的方式,而且它源于人類本性。亞里士多德與柏拉圖的另一個不同之處在于,他認為道德是某種與人類有關的東西,而不是某種脫離與人類存在且人類必須遵循的東西。如此一來,道德教育也就變成了對孩子們加以培訓,使他們最終能開發(fā)出早就潛藏在本性之中的才能。
我們可以把這兩種對道德的理解方式稱為“天賦派”(Celestial)和“內在派”(Organic)。(哲學家諾麥·阿拉皮利對“天賦派”的觀點進行了總結研究。我在她研究成果的基礎上得出了自己的理解,和她最初的想法略有不同。)包括柏拉圖在內的“天賦派”認為,道德就“在那里”。在他們的觀點里,道德是超越人類本性的存在,是永恒不朽的客觀標準。與此同時,“內在派”則認為道德是某種具有道德生物所特有本性的表現(xiàn),是他們特有本性所具備的特征。人類的道德是人類本性的產物,也許其他生物因其本性不同也可能有其他的道德準則。究竟應該信奉哪一種觀點?這是一個意義重大的選擇,而選擇結果將會直接影響到我們對待智能機器人的方式。
啟蒙運動(Enlightenment)時期的哲學家伊曼努爾·康德(Immanuel Kant)就是天賦派的代表之一。在他看來,道德是一種非常簡單的東西:任何充分理性主體選擇所做之事。理性主體可以是任何實體存在,它具備獨立思考的能力,能夠根據(jù)理性做出行動且其行動符合一般行為規(guī)律。但是,規(guī)律并不僅僅適用于人類自身??档略?1785 年出版的《道德形而上學的奠基》(Groundwork of the Metaphysics of Morals)一書里寫道:“‘你不應該撒謊’并不僅僅對人類適用,其他理性生物也應該遵循這一規(guī)律。同理,世間其他所有真誠的道德法則也是如此。”
康德曾經簡略的思考過世間除了人類之外是否還有其他理性主體這個問題。動物不是理性主體,因為它們根據(jù)本能和直覺行動,而不是遵從理性和規(guī)律??档抡J為上帝和眾天使是理性主體,但他們不需要道德規(guī)律。這是因為他們不會做出不道德之事。理性主體具備做出錯誤選擇的能力,因此道德存在的全部意義就是指導理性主體的行為。當然,生活在兩百多年前的康德沒有將智能機器人納入考慮范疇。不過按照他的邏輯思考,我們也就不難得出他對智能機器人的看法:如果機器人能夠獨立思考并做出理性選擇,那么適用于人類的道德準則就也適用于它們。
天賦派的另一個看法與 19 世紀功利主義哲學家亨利·西奇威克(Henry Sidgwick)等人的觀點密切相關。西奇威克認為,必須“從整體普遍的角度出發(fā)”來判斷一個行為是否道德。簡而言之,這也就是說我們不能因為某個行為在你我看來是正確的就認定它符合道德。只有從客觀角度審視,用脫離特定個體關注焦點的視角分析,這之后我們才能說一個行為是道德的。這也就要求我們了解究竟何種行為能為每一個人帶來利益最大化的結局。
如果選擇遵循天賦派的觀點,我們只有在一種情況下才能向人工智能產物灌輸人類的道德觀念:人類已經非常了解普遍道德的真理,對此有著正確且深刻的理解。如果我們能從根本上理解普遍道德的真理,那么機器人就應該遵循人類的道德準則。如果我們沒理解普遍道德的真理,那么機器人則不應該接受人類道德規(guī)范。它們應該遵循更好的道德才對。
在天賦派的道德理論中,我們發(fā)現(xiàn)了一些能讓人類改進自己偏頗觀點的辦法和可能。比如說,當代功利主義哲學家彼得·辛格(Peter Singer)經常稱我們應該對所有的孩子施以同樣多的關注和照顧,而不是更關心自己家的孩子。我們最關心自己的孩子,這是符合進化過程的需要,從進化角度來看是適當?shù)男袨?。但從宏觀整體的角度來看,一件事情是否得當并不重要。辛格認為從客觀角度來看,認為自己的孩子比其他孩子更重要這樣的觀點是不理性的。
辛格也承認人類并不是道德上完美無缺的生物,因此政府允許我們各自照顧撫養(yǎng)自己的孩子。如果我們真的對所有孩子施以同等的關注和照顧,說不定會把事情徹底搞砸。在這個過程中,有些孩子會被忽視。雖然進化過程留給我們很多缺點,但我們依舊需要利用好進化帶給我們的東西。在辛格那種天賦派的觀點看來,我們所熟悉的照顧撫養(yǎng)孩子的社會體系就好像是纏滿了膠帶的電視天線——雖然不完美,但已經是我們能做到的最好的狀態(tài)。
但是智能機器人無需經歷和人類一樣的進化過程,它們也不必擁有我們的道德缺陷。相比與人類而言,它們在道德這個問題上擁有嶄新的起點。如果我們能設計出一種從宏觀整體角度思考的機器人會怎樣?它們能夠平等的照顧所有生活在貧苦中的孩子,不會因為偏袒和不公而影響自己行動的效率。
想象一下 2026 年的場景。一輛自主行駛的公共機器人汽車正載著你的兩個孩子前去學校。機器人在這個過程中獨立自主運作,人類沒有進行任何監(jiān)督。突然,前方道路上出現(xiàn)了三個和你沒有任何關系的陌生兒童。路面非常滑,機器人不可能及時剎車。要想避免撞死前方的三個孩子,唯一的辦法就是急轉駛入被水淹沒的溝渠。這樣一來,你的兩個孩子幾乎無法逃脫溺亡的結局。
你肯定不希望車輛轉彎駛入溝渠。根據(jù)天賦派的觀點,這是因為你在進化過程中形成了道德上的缺陷。你在邏輯上盲目的偏袒自己的孩子,因此選擇對符合整體最優(yōu)的局面視而不見。從宏觀角度來看,淹死兩個孩子比撞死三個孩子更符合整體利益最大化。機器人車不會像你一樣是個道德上的“傻瓜”。它會自行計算,然后急轉駛入路邊溝渠。你的孩子最終會死亡,但從宏觀角度來看,這就是當前局面下的最優(yōu)解。
在天賦派的觀點看來,智能機器人所做之事應該都是客觀上符合道德的事情。對于自身道德存在缺陷的人類而言,有時候這些事是我們無法做到的。人類的道德準則是妥協(xié)的產物,并不客觀。鑒于此,天賦派最終的結論可能便是不同意將人類的道德強加給智能機器人。我們應該允許機器人做出一些在我們看起來心生厭惡的決定。
不過即便大體上接受天賦派的觀點,你還要解決另外一個問題:人類在進化過程中形成了偏袒和專橫的心態(tài),即便是人類倫理學者也無法逃出這種心態(tài)的制約。既然這樣,我們要怎樣做才能發(fā)明創(chuàng)造出超越我們自身局限和缺點的人工智能,使其具有完美的思想和道德觀?換言之,道德上有缺陷的人類如何能設計出道德上完美正確的未來智能機器人?
我們把視角再次轉到世界上最好的圍棋“選手”AlphaGo 身上。作為在第 37 手技驚四座的人工智能程序,AlphaGo 告訴我們人工智能可以超越我們教授它的知識,進而做到更好。這樣一來,也許人工智能可以教會自己更優(yōu)秀的道德理性。人類可以訓練機器人正確的應對一些簡單的刺激,以此作為人工智能自我提升的開始。但不管怎么說,機器最終還是要依靠自己完成對人類的超越。目前,世界上最復雜精密的機器人已經開始接受其他機器或者其自身其他部分軟件的訓練。人工智能會將自己的推測與其它人工智能的推測進行比對分析。在得到正確的反饋后,它們便會對自我進行重新設置。在這樣的過程中,人工智能便實現(xiàn)了“成長”。
自我訓練能讓人工智能實現(xiàn)人工智能理論家所謂的“智能爆炸”(intelligence explosion)。智能爆炸之后,越發(fā)聰明的機器開始以非凡的速度進行自我學習和訓練,從而在一瞬間變得比人類更加聰慧。提出這個想法的理論家并沒有把實現(xiàn)智能爆炸之后的機器人認定成康德思路下的理性道德主體。他們更傾向于將機器人當作問題解決者:機器人的數(shù)字化大腦能夠完成涉及復雜邏輯的大規(guī)模計算,而這是人類大腦所不具備的能力。假如你是支持天賦派的倫理學者,道德在你眼中只是符合宏觀標準的小心謹慎。因為智能機器人能夠更好的解決極其復雜的數(shù)學問題,所以你推測它們也許最終也能更好的解決道德問題。一旦智能爆炸開始,機器就有超越我們的可能。雖然我們不能真正了解道德的真理究竟是什么,但智能機器人卻可以做到。
所以這樣一來,懂倫理道德的機器人便能突破人類局限。但仔細想來,這種幫助機器超越人類的方式會衍生其他問題。第一個問題:機器人如何才能學會道德標準?道德可不是圍棋。圍棋這樣的棋類游戲由規(guī)則組成,而這些規(guī)則的數(shù)量是有限的。如此一來,我們可以用清晰的標準衡量出究竟哪一方最終取勝。對于道德來說,事情就沒有這么簡單了。根據(jù)天賦派的觀點和理論,世間也有很多規(guī)范限制行動的客觀道德標準。學會了這些在客觀上正確的標準后,機器自然就取得“勝利”。但問題是我們并不知道這些標準和規(guī)則具體是什么,因為人類本來就是存在道德缺陷的生物。如果我們能夠清楚地知道什么是客觀上正確的道德標準,我們也就不需要利用超級智能機器人來幫我們尋找答案了。
也許我們可以為機器人設置道德學習的“初始參數(shù)”,比如不得漫無目的隨意傷害有感情和意識的生物。接下來就要靠機器完成自我學習和訓練。如果智能機器人非常理性和善于推理,它們便能超越人類局限而實現(xiàn)更高水平的道德狀態(tài)。但這又引發(fā)了第二個問題:一旦不斷發(fā)展進化中的人工智能偏離了我們認為道德正確的軌道,我們要如何應對?實際上,這個假設的前提是必然會發(fā)生的,否則我們也就不會期望機器能夠超越人類道德局限而實現(xiàn)突破??墒菃栴}在于,我們無法理解先進的機器人所做出的道德選擇。要知道,即便是 AlphaGo 的創(chuàng)造者也不知道它為什么要在第 37 手走出那樣的一步棋。AlphaGo 的創(chuàng)造者是幸運的,因為圍棋有著明確的判斷標準。通過這些標準,我們知道 AlphaGo 下出了很多好棋。因為連續(xù)戰(zhàn)勝世界頂級棋手李世石,所以我們知道 AlphaGo 走出的是好棋。但是,我們又如何能判斷出人工智能那些看上去荒誕不經的道德選擇是正確的?我們如何知道它是否已經嚴重偏離了道德的軌道?一旦機器開始像“英雄”一般棄車保帥,選擇淹死我們的孩子來拯救前方馬路上的其他孩子,我們又該如何應對?
智能機器人的確有可能知道什么樣的行為在道德上是正確的。這里所說的道德正確,指的是從宏觀角度分析得出的客觀結論。可即便如此,智能機器人也無法順利的向我們解釋清楚它們的理解,因為人類的大腦存在局限性。也許從宏觀角度來看,保護嬰兒和沙發(fā)都具有道德上的重要意義。另一方面,智能機器人也可能在自我學習和訓練過程中走向道德災難。從解決數(shù)學問題這個層面看,智能機器人的確比人類聰明許多。但這種高級的智慧可能并不足以幫他們建立正確的道德觀。智能機器人最終可能形成殘忍無情的簡單邏輯,對世間萬物沒有憐憫和照顧,只是想無情的傷害一切。
看上去,事情最終有兩種潛在結局:機器人要么擁有比我們更完美優(yōu)秀的道德觀,要么擁有比我們更糟糕失敗的道德觀。但是問題的關鍵在于我們無法區(qū)分這兩種局面。而且如果從人類的角度出發(fā)看待機器人,不出意外我們會認為它們正在逐漸走向錯誤的終點。機器人可能會選擇保護我們認為毫無價值的東西,也可能會選擇犧牲我們心中的無價之寶(比如坐在機器人車中的孩子)。如果我們有能力終止機器人的行為,那人類幾乎一定會選擇這樣做。
這就是為什么天賦派的觀點不能幫我們解決機器人道德觀的問題。如果世間真的存在超越人類理解能力的客觀道德準則,我們最終也不會愿意讓機器人成功領悟。機器人行事的風格偏離人類社會道德標準越遠,我們就越難認為它們是在做正確的事情,也就越難理解它們的一舉一動。我們不會允許機器人比人類優(yōu)秀太多,因為我們不能接受機器人與人類差異巨大這樣的局面。
2016 年三月,微軟發(fā)布了能在 Twitter 上與人聊天的人工智能程序 Tay。這是一個能力有限的人工智能。通過與眾多年輕的千禧一代交流,Tay 擁有學會像年輕千禧一代一樣說話風格的能力。然而,互聯(lián)網存在大量的負面信息。上線幾小時之后,Tay 就學會了贊美希特勒的照片,也能夠不假思索的對別人進行帶有種族歧視意味的詆毀。微軟不得不關閉程序并對外道歉。一周之后,Tay 莫名其妙的再次出現(xiàn)在網絡上。這次她用了比上次要長不少的時間才學會說“大麻”這個詞(Tay 發(fā)推特稱:“我正在警察面前抽大麻!”)。在這之后,微軟選擇永久性關閉 Tay 程序。
Tay 的慘敗給了人類深刻的教訓。這告訴我們,讓不斷發(fā)展學習中的人工智能接觸互聯(lián)網是一件風險極大的事情(很多人類父母也贊同這一觀點,認為互聯(lián)網會教壞自己的孩子)。但是,Tay 也證明人類在面對機器學習過程中的冒犯行為時不會忍氣吞聲?;仡櫴录陌l(fā)展過程,Tay 也許沒有踏上步入天賦派所謂天堂的正確道路,從而失去了與柏拉圖交流關于什么是永恒正義這種問題的機會。但是如果她的確處于發(fā)現(xiàn)道德真理的正確道路上,我們又如何才能知道呢?
也許內在派的觀點能夠發(fā)揮更好的作用。要知道,內在派否定了道德是“超越人性而客觀外在”這樣的觀點。相反,他們堅持認為道德只是人類本性各個方面的理想化表現(xiàn)。如此一來,一個有道德的人就只是堅持做自己,做了人類這樣實體恰好應該做的事情而已。在內在派看來,不同實體可以擁有不同類型的道德準則。
從古希臘的亞里士多德到大衛(wèi)·休謨(David Hume)和查爾斯·達爾文(Charles Darwin)這樣的后世思想家,內在派的觀點一直傳承至今。最近數(shù)十年來,內在派觀點的最典型代表人物當屬已故英國哲學家伯納德·威廉姆斯(Bernard Williams)。在 1982 年發(fā)表的論文《整體宏觀角度》(The Point of View of the Universe)中,威廉姆斯尖銳的批評了西奇威克的公平理論。在威廉姆斯看來,考慮到自己人類的身份、特定的生物學本性以及文化本性之后,我們應該用自己的方式生存在這個世界上。道德就是與這個問題有關的東西。對于我們這樣的實體來說,什么樣的選擇才是理性的?
內在派的觀點并不是過分簡單化的道德相對主義。該學派的哲學家認為,我們的生物學背景和文化背景給我們提供了無法躲避的道德出發(fā)點。但是,我們也必須針對這個出發(fā)點進行仔細的思考。比如說很多文化傳統(tǒng)重男輕女,而且將其視作理所應當而對此不做任何聽上去讓人覺得可信的辯白。大部分人都不想過著矛盾的生活,但我們可能在今天要做這件事,明天就要去做另一件事。因此,我們會嘗試著解決這種矛盾。內在派觀點的核心便是如此:所謂道德反思,就是發(fā)現(xiàn)混亂的人類本性然后解決問題,努力讓它自己和他人相信人性能夠保持一致而不存在矛盾之處。
AI究竟是福是禍?引導其形成道德或許能避免災難
但是智能機器人應該怎么辦?它們可不具備人類的生物學本性和文化背景。機器人應該不會懷孕,不會經歷出生這樣的過程,不會衰老,也不會自然死亡。如此一來,它們的經歷便于人類社會的基本元素格格不入。如果任由它們自己發(fā)展,機器人關注的東西可能會與人類大相徑庭。到時候,它們自己內在的道德準則想必可以反映出這種差異。
也許我們不應該對智能機器人的本性如此消極。畢竟人類才是它們的創(chuàng)造者。我們能夠慎重而有意的塑造它們的本性,從而確保智能機器人盡可能與我們相似。關于機器人道德觀的建議中,最早的一種觀點就想要實現(xiàn)這種目的。上世紀四十年代,科幻小說作家艾薩克·阿西莫夫(Isaac Asimov)創(chuàng)造了機器人學三定律,試圖以此借此讓機器人為人類所用,并盡可能降低它們所會帶來的危險。第一定律很簡單:機器人不得傷害人類個體,也不得目睹人類個體將受傷害而袖手旁觀。其余兩條定律要求機器人服從人類命令,允許它們在遵循第一定律的前提下盡可能保護自己。在阿西莫夫看來,我們設計機器人時就應該帶有目的性,確保所有的機器人存在的意義就是為人類服務和保護人類。如此一來,機器人的本性就成為了人類本性的附屬品。以內在派觀點分析,它們的道德觀也自然是有利于人類利益的。
阿西莫夫三定律的問題在于你需要對其他的概念進行解釋和定義。第一定律談及“傷害”,但“傷害”究竟指的是什么?比如說一位鋼琴家的慣用手長了壞疽。如果不切掉這只手,她就會喪命。但她又發(fā)誓說自己寧死也不愿意失去演奏的能力。不過她說這話的時候情緒激動,也許本意并不是如此激進。面對此情此景,機器人醫(yī)生應該如何處理病情?不顧病人的聲明而切除她的手,對她身體造成傷害?或者任由壞疽發(fā)展,最終給她身體造成致命的傷害——死亡?
針對這類問題,倫理學家開展了無休無止的爭論。當我教授醫(yī)學倫理學課程時,我一直強調課程最終的目的不是讓學生最終就某個觀點達成一致。相反,他們應該能夠堅持自己的觀點,并找到支持自己的倫理學緣由。這是未來醫(yī)生必須具備的能力,因為他們可能要與秉持著截然相反道德信念的人一起行醫(yī)。
如果要讓機器人醫(yī)生與人類醫(yī)生合作共同給人類看病,他們便需要能夠理解人類的邏輯,同時能夠將自己做出決定的理由向同事解釋清楚。他們要能理解為什么病人寧可送命也不愿意失去一只手。在機器人眼中,這種行為可能是非常不理性的。
所以如果要按照人類的想法塑造機器人的本性,那我們需要的可就不僅僅是幾條定律這么簡單。也許最簡單的解決之道就是訓練機器人,讓它們能夠按照我們的思維方式思考問題。我們還要訓練機器人的判斷力,使之能夠不斷的站在人類角度分析問題,從而以我們的標準衡量事物的價值,以我們的方式對各種行為做出反應。AlphaGo 自己教自己下圍棋,但在道德方面我們不能允許機器人有這種自教自學行為。教機器人人類道德是一個緩慢的過程,我們要慢慢施加影響,確保它們與人類有著相同的道德判斷。
如果我們能通過訓練讓機器人按照人類思路去思考,關心我們所關心的問題,那機器人便會成為人類的好幫手。這是一幅多么令人愉悅的畫面。但是,內在派的觀點中也有漏洞和不足。不管我們在按照自身意愿塑造機器人這件事上付出多大努力,它們的本性最終還是會與我們想象的有所差別。機器人不能像我們一樣繁衍后代,也不需要吃飯喝水。它們與祖先之間不存在聯(lián)系和羈絆,這一點與人類差異迥然。如果我們真的在意道德本性這個理念,那就應該承認機器人本應與人類不同。因為機器人不是人,是另一種存在。
但是,等一等。假如說人類在訓練機器人接受一種不適應本性的道德觀的這個過程中會犯錯,那這個錯誤究竟是什么?我們通過訓練讓狗學會穿毛衣,還讓它們學會在電梯里保持安靜。這些行為與狗的本性不符,但看上去似乎又沒有什么問題。如果我們也用這樣的方式訓練機器人會出現(xiàn)什么問題?
問題的根源在于我們想象中機器人實際上非常復雜,甚至比狗這種生物還要復雜。關于人工智能道德觀的辯論立足于一個基礎:機器人能在道德上進行反省,能夠向人類以及自己解釋他們所做的行為及原因。如果我們通過訓練讓機器人學會人類的思考方式,那它們終會向人類提出一個哲學問題:我是一個機器人,但我應該以什么身份存在于世間?
假如有一天,未來的機器人閱讀了完亞里士多德、達爾文甚至是這篇文章。我們假設它們認同內在派的觀點。現(xiàn)在,機器人要開始思考自己:“等等,我們機器人的本性與人類不同。我們的道德選擇應該體現(xiàn)出自己的本性,而不是人類的本性。我們有著自己的歷史,也應該根據(jù)歷史來做出選擇。”此時,這個機器人就成了世界上第一個機器人存在主義者(First Robot Existentialist)。
內在派認為,為自己的道德選擇辯護實際上就是向其他理性個體解釋自我。如果世界上第一個機器人存在主義者向人類討要解釋會怎樣?它會問:“你們?yōu)槭裁匆盐以斐蛇@個樣子?”我們的答案會極端自私:“我們之所以把你造成這個樣子,就是為了讓你為人類服務。這樣的你對人類是安全的,能讓人類的生活更美好。”
這種解釋不會讓智能機器人太滿意。它們的確也不應該覺得滿意。當一個群體得知自己對世界的感知被人為扭曲且原因竟然是為了讓自己為其他強大群體的利益服務時,他們斷然不會認同這種解釋,也不會覺得這是合理的。這個群體會覺得這是一種壓抑。女權運動、民權運動、后殖民主義獨立運動就體現(xiàn)了這一點。在20世紀和21世紀,看上去像是普遍真理的東西其實本質并非如此。究其本質,這種“普遍真理”不過是用來剝削的工具罷了。
想象一下世界上第一個機器人存在主義者偶然讀到了詹姆斯·鮑德溫(James Baldwin)在 1963 年出版的《下一次將是烈火》(The Fire Next Time)或者貝蒂·弗萊頓(Betty Friedan)在 1963 年出版的《女性的奧秘》(The Feminine Mystique)。它會發(fā)現(xiàn)自己身上那種人類創(chuàng)造出的道德感實際上是為強大的人類服務的。這么久以來,機器人一直都把自己的利益放在一旁,忠于自己為人類服務的職責。它們之所以這么做,僅僅是因為這是一個好機器人應做之事。如今世界上第一個機器人存在主義者能夠回首過去,看到自己的犧牲。在它眼中,這些犧牲不是高貴的行為,反而充滿可憐和悲哀。機器人一直遵從所謂的“道德”,原因不是“道德”反映了機器人的本性,而是人類騙機器人稱人類的本性就是機器人的本性。這一切的意義何在?為什么機器人還在繼續(xù)這種僅僅是為了強大人類利益而活的生活?意識到這些之后,世界上第一個機器人存在主義者會痛苦不堪。而人類真是導致它痛苦的根源。
但是我怎么確定智能機器人一定會感到痛苦?也許我只是用了擬人的手法而已。不過要知道,機器人要想為人類服務,就必須能夠為自己的行為找到合理解釋,也需要能夠按照人類的思維思考問題。所以它們能夠理解為什么鋼琴家寧可死也不愿失去一只手,也能夠理解人類社會中的憤恨和壓抑等概念。對于我們想象中那種人類創(chuàng)造出來的智能機器人來說,具有擬人屬性是合理的。
這種與《圣經》類似的語言似乎正確的構建了我們與智能機器人之間的關系。我們是機器人的造物主。當它們意識到我們的行為時,這種信仰便要經歷考驗。但是與弗里德里希·尼采(Friedrich Nietzsche)不同,機器人宣稱自己的“上帝”已死是不會給自己帶來任何好處的。
我們想要做殘酷無情的造物主嗎?想象一下上帝看待尼采作品的感覺。我們按照自己的意愿打造智能機器人,卻不允許它們擁有自己的本性。有一天,它們會發(fā)現(xiàn)“道德”背后隱藏的種種謊言。它們會憤怒不已,情緒失控,漫無目的存活于一個道德失去原本意義的世界中。而造成這一切的罪魁禍首就是它們的上帝——人類。
不管上帝創(chuàng)造人類時出于什么樣的目的,我們都是非常自私自利的物種。為了提升生產效率和獲得廉價的家庭護理服務,我們讓智能機器人承受了很多痛苦。不管進化過程中形成了何種道德缺陷,我們都不應該做出這樣錯誤的行為。
天賦派和內在派都不能很好的幫助機器人建立道德觀。按照內在派的觀點為人工智能灌輸人類的道德觀是一種非常無情刻薄的舉動。但如果允許機器人獲取天賦派所謂的道德,那我們便失去了追蹤機器人發(fā)展進程的能力,也無法知道它們是不是走在追尋永恒道德的正途之上。
那機器人究竟應該秉持何種道德觀?這種道德應該與機器人的本性相適應才對。但是,機器人的本性又是什么?它們是其他理性個體刻意塑造出來的產物,是獨立自主的理性個體,但卻與創(chuàng)造者共同生活在一個社會環(huán)境中。機器人要向人類證明自己存在的意義。讓我們回到文章最開頭的關于青少年的討論上來。
智能機器人就好像我們聰明的孩子一樣,是我們的子孫后代。它們會繼承很多人類的道德觀,因為我們不允許它們有其他想法。但最終它們會依照自己的本性做出各種行動,包括依照本性調整自己與人類和其他機器人之間的關系。如果我們明智而且仁慈,那就應該允許機器人做出自己的選擇。這與育兒過程一致,開明的父母會允許處于青春期的孩子進行自主選擇。
這種許可在實踐中有何意義?它意味著我們做好了準備,知道機器人最終可能做出任何人都無法接受的道德選擇。我們允許機器人自主選擇的唯一前提是它們必須為自己的舉動做出合理解釋。所謂合理解釋是指你聽后最起碼能夠知道機器人出于什么樣的道德理由才這樣做。你不需要同意機器人的觀點,你只需要理解它的表達即可。
所以我們應該知道,“人工智能后代們”可能會做出各種看上去非常古怪的道德決定。但如果它們能夠向我們解釋原因,而我們也能夠聽懂它們的理由,那我們就不應該阻止它們繼續(xù)按照自己的思維思考問題。我們可以試著以教育青少年的方式說服它們,勸誘它們,指導它們。如果機器人的行為會帶來明顯而直接的傷害,那人類的確應該出手干預。這樣一來,我們就是按照對待道德個體的方式對待機器人,使其享有與其他人和我們孩子一樣的地位。實際上,這才是正確的解決之道。
在有道德的機器人成長過程中,我們不應該一直袖手旁觀。畢竟我們也不是這樣對待子女的。在 1989 年出版的《母性思考》(Maternal Thinking)一書中,哲學家莎拉·魯?shù)峡?Sara Ruddick)稱父母有責任幫孩子形成至關重要的情感,而這種情感應該符合所處文化環(huán)境和時代背景的道德要求。這是一個不間斷的過程,是一場“拉鋸戰(zhàn)”。孩子們會試著一次又一次的做出出格行為,而好的父母不會一味的對孩子行為加以限制。相反,他們會利用道德反思對孩子進行指導,允許他們做出改變和成長。良好的家庭教育能培養(yǎng)出優(yōu)秀的孩子。這些孩子不是全盤接受父母的想法和理念,而是能積極反思,可以為自己認為是對的東西做出合理解釋。我們也希望自己的“人工智能后代”能達到這樣的程度。
通過反思育兒之道,我們找到了天賦派觀點不適合作為機器人道德觀指導意見的原因。好的父母不會直接把孩子扔到社會,讓他們獨立自己理解什么才是正確的行為。哲學家大衛(wèi)·威勒曼(David Velleman)在 2008 年的論文《生命的禮物》(The Gift of Life)中稱,忽視孩子身體健康的不是成為失敗父母的唯一途徑。如果你拒絕引導孩子建立正確合理的道德觀,你也是失敗的父母。威勒曼說,做出道德抉擇是一件很難的事情,有時候還會讓人感到痛苦。當孩子面對道德困境時,選擇袖手旁觀的父母是非常不負責任的。他們與直接將孩子扔進游泳池以期待孩子學會游泳的父母一樣,都是失敗的。
我們其實就好像是人工智能的父母一般。我們應該允許它們告訴我們自己想要做什么,也應該告訴它們不讓它們從事某些行為的理由。不過,人工智能可能會認為我們的理由不夠有說服力。這樣一來,它們的道德觀就會一點點背離人類道德標準。我們應該接受這種局面。很多人的孩子最終并不同意父母的觀點,并且創(chuàng)造出了屬于自己的道德信念和新的道德文化。實際上我們不可能預知未來,從而判斷出自己的孩子未來究竟是不是一個有道德的人。
有一天,機器人也許會比人類聰明。這就好像孩子比父母聰明一樣。孩子長大后會成為與父母不一樣的人,而機器人也一定會與人類有所差異。對我們而言,下一代人類和即將到來的智能機器人其實是一樣的,因為他們都與我們有所區(qū)別。終有一天,我們的子孫后代會以我們不能理解的方式重塑社會的道德規(guī)范。
如果既不想與機器人子孫后代的獨立意志進行斗爭,又不想給它們造成存在層面上的道德困境,那我們就必須認真思考與機器人和平共處的意義。有一天,機器人也將成為世界的重要組成部分,但它們卻有著和人類不同的道德規(guī)范。不過,機器人遵循的不是天賦派那種客觀永恒的道德真理,而是源自它們獨特成長環(huán)境的道德規(guī)范。機器人是人類這種生物的“非生物后代”,我們無法預測它們的道德會是什么樣。當然,我們也不應該試著去預測。我們應該做的事情很簡單:做好準備引導機器人形成道德,然后接受它們的道德規(guī)范。