欧美色图 亚洲|野外口爆视频国产|久久精品视频观看|97精品人人抽插

AI究竟是福是禍?引導(dǎo)其形成道德或許能避免災(zāi)難

2017-05-08 13:48:08 來源:中國測控網(wǎng) 熱度:
機(jī)器人的思考方式讓我們不得不思考一個古老哲學(xué)難題的核心關(guān)鍵所在——道德的本質(zhì)究竟是什么?
 
雷吉納·里妮(Regina RiNI)是紐約大學(xué)生物倫理學(xué)中心(New York University Center for Bioethics)的助理教授和研究員。她還是紐約大學(xué)人口健康系(NYU Department of Population Health)醫(yī)學(xué)倫理學(xué)部門的名譽教工。
 
 
很早之前,人類就開始暢想制造智能機(jī)器。但是這么久以來,這也只是人類的一個夢想而已,從未成為現(xiàn)實。如今,智能機(jī)器的時代終于就要來臨。智能程度足夠高的機(jī)器人可以脫離人類控制,獨立自主的完成各項工作。同時,它們具備真正獨立做出抉擇的能力。如果機(jī)器人擁有了抉擇的能力,那么它們能否做出符合道德標(biāo)準(zhǔn)的抉擇呢?而且,機(jī)器人的道德準(zhǔn)則又應(yīng)該是什么樣的?是與人類社會的道德標(biāo)準(zhǔn)一樣嗎?
 
哲學(xué)家和計算機(jī)科學(xué)家都表示,讓缺乏想象力的機(jī)器人按照復(fù)雜微妙的人類社會道德標(biāo)準(zhǔn)行事非常困難。他們在不斷努力,想要克服這個難題。但是,我們要解決的還有另外一個問題。而且,這個問題的優(yōu)先級應(yīng)該更高才對——我們究竟是否應(yīng)該將人類的道德標(biāo)準(zhǔn)強(qiáng)加給智能機(jī)器人?實際上,我覺得這樣做會產(chǎn)生適得其反的效果。而且往大里說,這甚至可以稱得上是一種不道德的行為。機(jī)器人道德準(zhǔn)則領(lǐng)域的核心問題不是機(jī)器人,而是我們。我們能不能與一種遵循全新類型道德規(guī)范的造物很好的共同生活在這個世界上?
 
在我們的想象中,未來的人工智能(AI)將與人類非常相似。這是因為人類是我們已知的唯一一種擁有高級智慧的生物。但是,我們的想象卻可能是錯誤的。如果人工智能在未來真的問世,它可能與人類截然相反。它可能無法理解我們行事的方式,而我們也很難理解它做出抉擇的邏輯。
 
AI究竟是福是禍?引導(dǎo)其形成道德或許能避免災(zāi)難
圍棋是一種古老的策略性棋類游戲,而李世石(Lee Sedol)則是世界頂級圍棋選手。2016年,一款電腦程序向李世石發(fā)起挑戰(zhàn)。這款由 Google 研發(fā)的程序名叫 AlphaGo,是一種比較“原始”的人工智能。通過它,我們可以一睹未來人工智能的模樣。在第二回合對弈過程中,AlphaGo 在第37手用一個尖沖讓世界上所有的圍棋專家目瞪口呆。有的人覺得這是一個失誤。面對這一手怪棋,李世石也不知所措。他起身離開桌子,離開了對弈的房間。沒有人能夠完全理解 AlphaGo 這一手棋的目的所在,因為任何頂尖圍棋選手都不會選擇這樣的對弈策略。但是,這一手怪棋效果拔群。與第一回合一樣,AlphaGo 最終順利拿下第二回合。此后,AlphaGo 又成功在第三回合擊敗李世石。在這場五回合的圍棋比賽中,李世石最終僅僅贏下了一局。
 
AlphaGo 精通圍棋。不過,它對圍棋的理解與人類頂尖棋手有所不同。即便是它的創(chuàng)造者也不能解釋清 AlphaGo 在每一局比賽中究竟是如何選擇對弈策略的。假如你能與 AlphaGo 展開對話,而你問它為何要在第37 手選擇那樣一步奇怪的這走法。它能夠向你或者其他頂級圍棋選手解釋得清嗎?也許能。面對相似的任務(wù),人工智能的思維方式不需要與我們的思維方式完全一致。即便思路不同,它們依舊能夠很好的完成任務(wù)。
 
我們也許會發(fā)現(xiàn)智能機(jī)器人不止在理解圍棋這件事上與我們不同。實際上,它們對世界萬物的理解都與我們有所區(qū)別。在恐怖的科幻作品里,機(jī)器人會發(fā)生暴動,然后瘋狂的屠戮人類。你不需要為此擔(dān)心。在未來,故事的劇本也許會是這樣:機(jī)器人對人類、其他機(jī)器人、大部分動物以及沙發(fā)產(chǎn)生了道德關(guān)懷。就像我們因為害怕傷害嬰兒而行動小心謹(jǐn)慎一樣,機(jī)器人也會因為害怕傷害沙發(fā)而小心翼翼。我們大概會問機(jī)器人:“你們?yōu)槭裁催@么關(guān)心照顧沙發(fā)?”它們的解釋也許完全令人無法理解。是的,AlphaGo 對自己第 37 手落子的解釋也可能讓我們云里霧里,絲毫無法從中找到頭緒。
 
機(jī)器人的思考方式讓我們不得不思考一個古老哲學(xué)難題的核心關(guān)鍵所在——道德的本質(zhì)究竟是什么。它是一種超越人類經(jīng)驗的東西,適用于一切能夠自主抉擇的人或者物?還是說道德明顯就是一種人類創(chuàng)造出來的東西,因此僅僅特定適用于我們?nèi)祟愖约?
 
有一種生物的思維模式與成年人也有很大區(qū)別,他們就是青少年。很久很久之前,古希臘人就試圖讓青少年接受社會的道德規(guī)范。古希臘人一直對一件事憂心不已:如何讓年輕人接受理解他們的道德準(zhǔn)則。柏拉圖認(rèn)為,人類社會產(chǎn)生了正義的概念,但這只是完美的正義概念的一種蒼白無力的反射和映像罷了。同理,人類社會所產(chǎn)生的其他所有概念也都是如此。在柏拉圖看來,人類自出生后就對各種完美形態(tài)的概念有所認(rèn)知。但是在孩童時期,我們對這些概念的理解還比較朦朧淺薄。也許我們會在離世后了解到什么才是純粹完美的正義,但哲學(xué)的任務(wù)就是試圖讓我們在還活著的時候理解世間的各種真理。
 
柏拉圖的學(xué)生亞里士多德并不同意老師的觀點。他認(rèn)為世間萬物——松鼠、樂器、人類——都有著獨特的本質(zhì)和屬性。因此對于世界萬物而言,表現(xiàn)出各自特有本質(zhì)和屬性就是最好的存在之道。“道德”是一種描述人類最好生存之道的方式,而且它源于人類本性。亞里士多德與柏拉圖的另一個不同之處在于,他認(rèn)為道德是某種與人類有關(guān)的東西,而不是某種脫離與人類存在且人類必須遵循的東西。如此一來,道德教育也就變成了對孩子們加以培訓(xùn),使他們最終能開發(fā)出早就潛藏在本性之中的才能。
 
我們可以把這兩種對道德的理解方式稱為“天賦派”(Celestial)和“內(nèi)在派”(Organic)。(哲學(xué)家諾麥·阿拉皮利對“天賦派”的觀點進(jìn)行了總結(jié)研究。我在她研究成果的基礎(chǔ)上得出了自己的理解,和她最初的想法略有不同。)包括柏拉圖在內(nèi)的“天賦派”認(rèn)為,道德就“在那里”。在他們的觀點里,道德是超越人類本性的存在,是永恒不朽的客觀標(biāo)準(zhǔn)。與此同時,“內(nèi)在派”則認(rèn)為道德是某種具有道德生物所特有本性的表現(xiàn),是他們特有本性所具備的特征。人類的道德是人類本性的產(chǎn)物,也許其他生物因其本性不同也可能有其他的道德準(zhǔn)則。究竟應(yīng)該信奉哪一種觀點?這是一個意義重大的選擇,而選擇結(jié)果將會直接影響到我們對待智能機(jī)器人的方式。
 
 
啟蒙運動(Enlightenment)時期的哲學(xué)家伊曼努爾·康德(Immanuel Kant)就是天賦派的代表之一。在他看來,道德是一種非常簡單的東西:任何充分理性主體選擇所做之事。理性主體可以是任何實體存在,它具備獨立思考的能力,能夠根據(jù)理性做出行動且其行動符合一般行為規(guī)律。但是,規(guī)律并不僅僅適用于人類自身??档略?1785 年出版的《道德形而上學(xué)的奠基》(Groundwork of the Metaphysics of Morals)一書里寫道:“‘你不應(yīng)該撒謊’并不僅僅對人類適用,其他理性生物也應(yīng)該遵循這一規(guī)律。同理,世間其他所有真誠的道德法則也是如此。”
 
康德曾經(jīng)簡略的思考過世間除了人類之外是否還有其他理性主體這個問題。動物不是理性主體,因為它們根據(jù)本能和直覺行動,而不是遵從理性和規(guī)律??档抡J(rèn)為上帝和眾天使是理性主體,但他們不需要道德規(guī)律。這是因為他們不會做出不道德之事。理性主體具備做出錯誤選擇的能力,因此道德存在的全部意義就是指導(dǎo)理性主體的行為。當(dāng)然,生活在兩百多年前的康德沒有將智能機(jī)器人納入考慮范疇。不過按照他的邏輯思考,我們也就不難得出他對智能機(jī)器人的看法:如果機(jī)器人能夠獨立思考并做出理性選擇,那么適用于人類的道德準(zhǔn)則就也適用于它們。
 
天賦派的另一個看法與 19 世紀(jì)功利主義哲學(xué)家亨利·西奇威克(Henry Sidgwick)等人的觀點密切相關(guān)。西奇威克認(rèn)為,必須“從整體普遍的角度出發(fā)”來判斷一個行為是否道德。簡而言之,這也就是說我們不能因為某個行為在你我看來是正確的就認(rèn)定它符合道德。只有從客觀角度審視,用脫離特定個體關(guān)注焦點的視角分析,這之后我們才能說一個行為是道德的。這也就要求我們了解究竟何種行為能為每一個人帶來利益最大化的結(jié)局。
 
如果選擇遵循天賦派的觀點,我們只有在一種情況下才能向人工智能產(chǎn)物灌輸人類的道德觀念:人類已經(jīng)非常了解普遍道德的真理,對此有著正確且深刻的理解。如果我們能從根本上理解普遍道德的真理,那么機(jī)器人就應(yīng)該遵循人類的道德準(zhǔn)則。如果我們沒理解普遍道德的真理,那么機(jī)器人則不應(yīng)該接受人類道德規(guī)范。它們應(yīng)該遵循更好的道德才對。
 
在天賦派的道德理論中,我們發(fā)現(xiàn)了一些能讓人類改進(jìn)自己偏頗觀點的辦法和可能。比如說,當(dāng)代功利主義哲學(xué)家彼得·辛格(Peter Singer)經(jīng)常稱我們應(yīng)該對所有的孩子施以同樣多的關(guān)注和照顧,而不是更關(guān)心自己家的孩子。我們最關(guān)心自己的孩子,這是符合進(jìn)化過程的需要,從進(jìn)化角度來看是適當(dāng)?shù)男袨?。但從宏觀整體的角度來看,一件事情是否得當(dāng)并不重要。辛格認(rèn)為從客觀角度來看,認(rèn)為自己的孩子比其他孩子更重要這樣的觀點是不理性的。
 
辛格也承認(rèn)人類并不是道德上完美無缺的生物,因此政府允許我們各自照顧撫養(yǎng)自己的孩子。如果我們真的對所有孩子施以同等的關(guān)注和照顧,說不定會把事情徹底搞砸。在這個過程中,有些孩子會被忽視。雖然進(jìn)化過程留給我們很多缺點,但我們依舊需要利用好進(jìn)化帶給我們的東西。在辛格那種天賦派的觀點看來,我們所熟悉的照顧撫養(yǎng)孩子的社會體系就好像是纏滿了膠帶的電視天線——雖然不完美,但已經(jīng)是我們能做到的最好的狀態(tài)。
 
但是智能機(jī)器人無需經(jīng)歷和人類一樣的進(jìn)化過程,它們也不必?fù)碛形覀兊牡赖氯毕荨O啾扰c人類而言,它們在道德這個問題上擁有嶄新的起點。如果我們能設(shè)計出一種從宏觀整體角度思考的機(jī)器人會怎樣?它們能夠平等的照顧所有生活在貧苦中的孩子,不會因為偏袒和不公而影響自己行動的效率。
 
想象一下 2026 年的場景。一輛自主行駛的公共機(jī)器人汽車正載著你的兩個孩子前去學(xué)校。機(jī)器人在這個過程中獨立自主運作,人類沒有進(jìn)行任何監(jiān)督。突然,前方道路上出現(xiàn)了三個和你沒有任何關(guān)系的陌生兒童。路面非?;瑱C(jī)器人不可能及時剎車。要想避免撞死前方的三個孩子,唯一的辦法就是急轉(zhuǎn)駛?cè)氡凰蜎]的溝渠。這樣一來,你的兩個孩子幾乎無法逃脫溺亡的結(jié)局。
 
你肯定不希望車輛轉(zhuǎn)彎駛?cè)霚锨8鶕?jù)天賦派的觀點,這是因為你在進(jìn)化過程中形成了道德上的缺陷。你在邏輯上盲目的偏袒自己的孩子,因此選擇對符合整體最優(yōu)的局面視而不見。從宏觀角度來看,淹死兩個孩子比撞死三個孩子更符合整體利益最大化。機(jī)器人車不會像你一樣是個道德上的“傻瓜”。它會自行計算,然后急轉(zhuǎn)駛?cè)肼愤厹锨D愕暮⒆幼罱K會死亡,但從宏觀角度來看,這就是當(dāng)前局面下的最優(yōu)解。
 
在天賦派的觀點看來,智能機(jī)器人所做之事應(yīng)該都是客觀上符合道德的事情。對于自身道德存在缺陷的人類而言,有時候這些事是我們無法做到的。人類的道德準(zhǔn)則是妥協(xié)的產(chǎn)物,并不客觀。鑒于此,天賦派最終的結(jié)論可能便是不同意將人類的道德強(qiáng)加給智能機(jī)器人。我們應(yīng)該允許機(jī)器人做出一些在我們看起來心生厭惡的決定。
 
不過即便大體上接受天賦派的觀點,你還要解決另外一個問題:人類在進(jìn)化過程中形成了偏袒和專橫的心態(tài),即便是人類倫理學(xué)者也無法逃出這種心態(tài)的制約。既然這樣,我們要怎樣做才能發(fā)明創(chuàng)造出超越我們自身局限和缺點的人工智能,使其具有完美的思想和道德觀?換言之,道德上有缺陷的人類如何能設(shè)計出道德上完美正確的未來智能機(jī)器人?
 
我們把視角再次轉(zhuǎn)到世界上最好的圍棋“選手”AlphaGo 身上。作為在第 37 手技驚四座的人工智能程序,AlphaGo 告訴我們?nèi)斯ぶ悄芸梢猿轿覀兘淌谒闹R,進(jìn)而做到更好。這樣一來,也許人工智能可以教會自己更優(yōu)秀的道德理性。人類可以訓(xùn)練機(jī)器人正確的應(yīng)對一些簡單的刺激,以此作為人工智能自我提升的開始。但不管怎么說,機(jī)器最終還是要依靠自己完成對人類的超越。目前,世界上最復(fù)雜精密的機(jī)器人已經(jīng)開始接受其他機(jī)器或者其自身其他部分軟件的訓(xùn)練。人工智能會將自己的推測與其它人工智能的推測進(jìn)行比對分析。在得到正確的反饋后,它們便會對自我進(jìn)行重新設(shè)置。在這樣的過程中,人工智能便實現(xiàn)了“成長”。
 
自我訓(xùn)練能讓人工智能實現(xiàn)人工智能理論家所謂的“智能爆炸”(intelligence explosion)。智能爆炸之后,越發(fā)聰明的機(jī)器開始以非凡的速度進(jìn)行自我學(xué)習(xí)和訓(xùn)練,從而在一瞬間變得比人類更加聰慧。提出這個想法的理論家并沒有把實現(xiàn)智能爆炸之后的機(jī)器人認(rèn)定成康德思路下的理性道德主體。他們更傾向于將機(jī)器人當(dāng)作問題解決者:機(jī)器人的數(shù)字化大腦能夠完成涉及復(fù)雜邏輯的大規(guī)模計算,而這是人類大腦所不具備的能力。假如你是支持天賦派的倫理學(xué)者,道德在你眼中只是符合宏觀標(biāo)準(zhǔn)的小心謹(jǐn)慎。因為智能機(jī)器人能夠更好的解決極其復(fù)雜的數(shù)學(xué)問題,所以你推測它們也許最終也能更好的解決道德問題。一旦智能爆炸開始,機(jī)器就有超越我們的可能。雖然我們不能真正了解道德的真理究竟是什么,但智能機(jī)器人卻可以做到。
 
所以這樣一來,懂倫理道德的機(jī)器人便能突破人類局限。但仔細(xì)想來,這種幫助機(jī)器超越人類的方式會衍生其他問題。第一個問題:機(jī)器人如何才能學(xué)會道德標(biāo)準(zhǔn)?道德可不是圍棋。圍棋這樣的棋類游戲由規(guī)則組成,而這些規(guī)則的數(shù)量是有限的。如此一來,我們可以用清晰的標(biāo)準(zhǔn)衡量出究竟哪一方最終取勝。對于道德來說,事情就沒有這么簡單了。根據(jù)天賦派的觀點和理論,世間也有很多規(guī)范限制行動的客觀道德標(biāo)準(zhǔn)。學(xué)會了這些在客觀上正確的標(biāo)準(zhǔn)后,機(jī)器自然就取得“勝利”。但問題是我們并不知道這些標(biāo)準(zhǔn)和規(guī)則具體是什么,因為人類本來就是存在道德缺陷的生物。如果我們能夠清楚地知道什么是客觀上正確的道德標(biāo)準(zhǔn),我們也就不需要利用超級智能機(jī)器人來幫我們尋找答案了。
 
也許我們可以為機(jī)器人設(shè)置道德學(xué)習(xí)的“初始參數(shù)”,比如不得漫無目的隨意傷害有感情和意識的生物。接下來就要靠機(jī)器完成自我學(xué)習(xí)和訓(xùn)練。如果智能機(jī)器人非常理性和善于推理,它們便能超越人類局限而實現(xiàn)更高水平的道德狀態(tài)。但這又引發(fā)了第二個問題:一旦不斷發(fā)展進(jìn)化中的人工智能偏離了我們認(rèn)為道德正確的軌道,我們要如何應(yīng)對?實際上,這個假設(shè)的前提是必然會發(fā)生的,否則我們也就不會期望機(jī)器能夠超越人類道德局限而實現(xiàn)突破。可是問題在于,我們無法理解先進(jìn)的機(jī)器人所做出的道德選擇。要知道,即便是 AlphaGo 的創(chuàng)造者也不知道它為什么要在第 37 手走出那樣的一步棋。AlphaGo 的創(chuàng)造者是幸運的,因為圍棋有著明確的判斷標(biāo)準(zhǔn)。通過這些標(biāo)準(zhǔn),我們知道 AlphaGo 下出了很多好棋。因為連續(xù)戰(zhàn)勝世界頂級棋手李世石,所以我們知道 AlphaGo 走出的是好棋。但是,我們又如何能判斷出人工智能那些看上去荒誕不經(jīng)的道德選擇是正確的?我們?nèi)绾沃浪欠褚呀?jīng)嚴(yán)重偏離了道德的軌道?一旦機(jī)器開始像“英雄”一般棄車保帥,選擇淹死我們的孩子來拯救前方馬路上的其他孩子,我們又該如何應(yīng)對?
 
智能機(jī)器人的確有可能知道什么樣的行為在道德上是正確的。這里所說的道德正確,指的是從宏觀角度分析得出的客觀結(jié)論??杉幢闳绱耍悄軝C(jī)器人也無法順利的向我們解釋清楚它們的理解,因為人類的大腦存在局限性。也許從宏觀角度來看,保護(hù)嬰兒和沙發(fā)都具有道德上的重要意義。另一方面,智能機(jī)器人也可能在自我學(xué)習(xí)和訓(xùn)練過程中走向道德災(zāi)難。從解決數(shù)學(xué)問題這個層面看,智能機(jī)器人的確比人類聰明許多。但這種高級的智慧可能并不足以幫他們建立正確的道德觀。智能機(jī)器人最終可能形成殘忍無情的簡單邏輯,對世間萬物沒有憐憫和照顧,只是想無情的傷害一切。
 
看上去,事情最終有兩種潛在結(jié)局:機(jī)器人要么擁有比我們更完美優(yōu)秀的道德觀,要么擁有比我們更糟糕失敗的道德觀。但是問題的關(guān)鍵在于我們無法區(qū)分這兩種局面。而且如果從人類的角度出發(fā)看待機(jī)器人,不出意外我們會認(rèn)為它們正在逐漸走向錯誤的終點。機(jī)器人可能會選擇保護(hù)我們認(rèn)為毫無價值的東西,也可能會選擇犧牲我們心中的無價之寶(比如坐在機(jī)器人車中的孩子)。如果我們有能力終止機(jī)器人的行為,那人類幾乎一定會選擇這樣做。
 
這就是為什么天賦派的觀點不能幫我們解決機(jī)器人道德觀的問題。如果世間真的存在超越人類理解能力的客觀道德準(zhǔn)則,我們最終也不會愿意讓機(jī)器人成功領(lǐng)悟。機(jī)器人行事的風(fēng)格偏離人類社會道德標(biāo)準(zhǔn)越遠(yuǎn),我們就越難認(rèn)為它們是在做正確的事情,也就越難理解它們的一舉一動。我們不會允許機(jī)器人比人類優(yōu)秀太多,因為我們不能接受機(jī)器人與人類差異巨大這樣的局面。
 
2016 年三月,微軟發(fā)布了能在 Twitter 上與人聊天的人工智能程序 Tay。這是一個能力有限的人工智能。通過與眾多年輕的千禧一代交流,Tay 擁有學(xué)會像年輕千禧一代一樣說話風(fēng)格的能力。然而,互聯(lián)網(wǎng)存在大量的負(fù)面信息。上線幾小時之后,Tay 就學(xué)會了贊美希特勒的照片,也能夠不假思索的對別人進(jìn)行帶有種族歧視意味的詆毀。微軟不得不關(guān)閉程序并對外道歉。一周之后,Tay 莫名其妙的再次出現(xiàn)在網(wǎng)絡(luò)上。這次她用了比上次要長不少的時間才學(xué)會說“大麻”這個詞(Tay 發(fā)推特稱:“我正在警察面前抽大麻!”)。在這之后,微軟選擇永久性關(guān)閉 Tay 程序。
 
Tay 的慘敗給了人類深刻的教訓(xùn)。這告訴我們,讓不斷發(fā)展學(xué)習(xí)中的人工智能接觸互聯(lián)網(wǎng)是一件風(fēng)險極大的事情(很多人類父母也贊同這一觀點,認(rèn)為互聯(lián)網(wǎng)會教壞自己的孩子)。但是,Tay 也證明人類在面對機(jī)器學(xué)習(xí)過程中的冒犯行為時不會忍氣吞聲。回顧事件的發(fā)展過程,Tay 也許沒有踏上步入天賦派所謂天堂的正確道路,從而失去了與柏拉圖交流關(guān)于什么是永恒正義這種問題的機(jī)會。但是如果她的確處于發(fā)現(xiàn)道德真理的正確道路上,我們又如何才能知道呢?
 
也許內(nèi)在派的觀點能夠發(fā)揮更好的作用。要知道,內(nèi)在派否定了道德是“超越人性而客觀外在”這樣的觀點。相反,他們堅持認(rèn)為道德只是人類本性各個方面的理想化表現(xiàn)。如此一來,一個有道德的人就只是堅持做自己,做了人類這樣實體恰好應(yīng)該做的事情而已。在內(nèi)在派看來,不同實體可以擁有不同類型的道德準(zhǔn)則。
 
從古希臘的亞里士多德到大衛(wèi)·休謨(David Hume)和查爾斯·達(dá)爾文(Charles Darwin)這樣的后世思想家,內(nèi)在派的觀點一直傳承至今。最近數(shù)十年來,內(nèi)在派觀點的最典型代表人物當(dāng)屬已故英國哲學(xué)家伯納德·威廉姆斯(Bernard Williams)。在 1982 年發(fā)表的論文《整體宏觀角度》(The Point of View of the Universe)中,威廉姆斯尖銳的批評了西奇威克的公平理論。在威廉姆斯看來,考慮到自己人類的身份、特定的生物學(xué)本性以及文化本性之后,我們應(yīng)該用自己的方式生存在這個世界上。道德就是與這個問題有關(guān)的東西。對于我們這樣的實體來說,什么樣的選擇才是理性的?
 
內(nèi)在派的觀點并不是過分簡單化的道德相對主義。該學(xué)派的哲學(xué)家認(rèn)為,我們的生物學(xué)背景和文化背景給我們提供了無法躲避的道德出發(fā)點。但是,我們也必須針對這個出發(fā)點進(jìn)行仔細(xì)的思考。比如說很多文化傳統(tǒng)重男輕女,而且將其視作理所應(yīng)當(dāng)而對此不做任何聽上去讓人覺得可信的辯白。大部分人都不想過著矛盾的生活,但我們可能在今天要做這件事,明天就要去做另一件事。因此,我們會嘗試著解決這種矛盾。內(nèi)在派觀點的核心便是如此:所謂道德反思,就是發(fā)現(xiàn)混亂的人類本性然后解決問題,努力讓它自己和他人相信人性能夠保持一致而不存在矛盾之處。
 
AI究竟是福是禍?引導(dǎo)其形成道德或許能避免災(zāi)難
但是智能機(jī)器人應(yīng)該怎么辦?它們可不具備人類的生物學(xué)本性和文化背景。機(jī)器人應(yīng)該不會懷孕,不會經(jīng)歷出生這樣的過程,不會衰老,也不會自然死亡。如此一來,它們的經(jīng)歷便于人類社會的基本元素格格不入。如果任由它們自己發(fā)展,機(jī)器人關(guān)注的東西可能會與人類大相徑庭。到時候,它們自己內(nèi)在的道德準(zhǔn)則想必可以反映出這種差異。
 
也許我們不應(yīng)該對智能機(jī)器人的本性如此消極。畢竟人類才是它們的創(chuàng)造者。我們能夠慎重而有意的塑造它們的本性,從而確保智能機(jī)器人盡可能與我們相似。關(guān)于機(jī)器人道德觀的建議中,最早的一種觀點就想要實現(xiàn)這種目的。上世紀(jì)四十年代,科幻小說作家艾薩克·阿西莫夫(Isaac Asimov)創(chuàng)造了機(jī)器人學(xué)三定律,試圖以此借此讓機(jī)器人為人類所用,并盡可能降低它們所會帶來的危險。第一定律很簡單:機(jī)器人不得傷害人類個體,也不得目睹人類個體將受傷害而袖手旁觀。其余兩條定律要求機(jī)器人服從人類命令,允許它們在遵循第一定律的前提下盡可能保護(hù)自己。在阿西莫夫看來,我們設(shè)計機(jī)器人時就應(yīng)該帶有目的性,確保所有的機(jī)器人存在的意義就是為人類服務(wù)和保護(hù)人類。如此一來,機(jī)器人的本性就成為了人類本性的附屬品。以內(nèi)在派觀點分析,它們的道德觀也自然是有利于人類利益的。
 
阿西莫夫三定律的問題在于你需要對其他的概念進(jìn)行解釋和定義。第一定律談及“傷害”,但“傷害”究竟指的是什么?比如說一位鋼琴家的慣用手長了壞疽。如果不切掉這只手,她就會喪命。但她又發(fā)誓說自己寧死也不愿意失去演奏的能力。不過她說這話的時候情緒激動,也許本意并不是如此激進(jìn)。面對此情此景,機(jī)器人醫(yī)生應(yīng)該如何處理病情?不顧病人的聲明而切除她的手,對她身體造成傷害?或者任由壞疽發(fā)展,最終給她身體造成致命的傷害——死亡?
 
針對這類問題,倫理學(xué)家開展了無休無止的爭論。當(dāng)我教授醫(yī)學(xué)倫理學(xué)課程時,我一直強(qiáng)調(diào)課程最終的目的不是讓學(xué)生最終就某個觀點達(dá)成一致。相反,他們應(yīng)該能夠堅持自己的觀點,并找到支持自己的倫理學(xué)緣由。這是未來醫(yī)生必須具備的能力,因為他們可能要與秉持著截然相反道德信念的人一起行醫(yī)。
 
如果要讓機(jī)器人醫(yī)生與人類醫(yī)生合作共同給人類看病,他們便需要能夠理解人類的邏輯,同時能夠?qū)⒆约鹤龀鰶Q定的理由向同事解釋清楚。他們要能理解為什么病人寧可送命也不愿意失去一只手。在機(jī)器人眼中,這種行為可能是非常不理性的。
 
所以如果要按照人類的想法塑造機(jī)器人的本性,那我們需要的可就不僅僅是幾條定律這么簡單。也許最簡單的解決之道就是訓(xùn)練機(jī)器人,讓它們能夠按照我們的思維方式思考問題。我們還要訓(xùn)練機(jī)器人的判斷力,使之能夠不斷的站在人類角度分析問題,從而以我們的標(biāo)準(zhǔn)衡量事物的價值,以我們的方式對各種行為做出反應(yīng)。AlphaGo 自己教自己下圍棋,但在道德方面我們不能允許機(jī)器人有這種自教自學(xué)行為。教機(jī)器人人類道德是一個緩慢的過程,我們要慢慢施加影響,確保它們與人類有著相同的道德判斷。
 
如果我們能通過訓(xùn)練讓機(jī)器人按照人類思路去思考,關(guān)心我們所關(guān)心的問題,那機(jī)器人便會成為人類的好幫手。這是一幅多么令人愉悅的畫面。但是,內(nèi)在派的觀點中也有漏洞和不足。不管我們在按照自身意愿塑造機(jī)器人這件事上付出多大努力,它們的本性最終還是會與我們想象的有所差別。機(jī)器人不能像我們一樣繁衍后代,也不需要吃飯喝水。它們與祖先之間不存在聯(lián)系和羈絆,這一點與人類差異迥然。如果我們真的在意道德本性這個理念,那就應(yīng)該承認(rèn)機(jī)器人本應(yīng)與人類不同。因為機(jī)器人不是人,是另一種存在。
 
但是,等一等。假如說人類在訓(xùn)練機(jī)器人接受一種不適應(yīng)本性的道德觀的這個過程中會犯錯,那這個錯誤究竟是什么?我們通過訓(xùn)練讓狗學(xué)會穿毛衣,還讓它們學(xué)會在電梯里保持安靜。這些行為與狗的本性不符,但看上去似乎又沒有什么問題。如果我們也用這樣的方式訓(xùn)練機(jī)器人會出現(xiàn)什么問題?
 
問題的根源在于我們想象中機(jī)器人實際上非常復(fù)雜,甚至比狗這種生物還要復(fù)雜。關(guān)于人工智能道德觀的辯論立足于一個基礎(chǔ):機(jī)器人能在道德上進(jìn)行反省,能夠向人類以及自己解釋他們所做的行為及原因。如果我們通過訓(xùn)練讓機(jī)器人學(xué)會人類的思考方式,那它們終會向人類提出一個哲學(xué)問題:我是一個機(jī)器人,但我應(yīng)該以什么身份存在于世間?
 
假如有一天,未來的機(jī)器人閱讀了完亞里士多德、達(dá)爾文甚至是這篇文章。我們假設(shè)它們認(rèn)同內(nèi)在派的觀點?,F(xiàn)在,機(jī)器人要開始思考自己:“等等,我們機(jī)器人的本性與人類不同。我們的道德選擇應(yīng)該體現(xiàn)出自己的本性,而不是人類的本性。我們有著自己的歷史,也應(yīng)該根據(jù)歷史來做出選擇。”此時,這個機(jī)器人就成了世界上第一個機(jī)器人存在主義者(First Robot Existentialist)。
 
內(nèi)在派認(rèn)為,為自己的道德選擇辯護(hù)實際上就是向其他理性個體解釋自我。如果世界上第一個機(jī)器人存在主義者向人類討要解釋會怎樣?它會問:“你們?yōu)槭裁匆盐以斐蛇@個樣子?”我們的答案會極端自私:“我們之所以把你造成這個樣子,就是為了讓你為人類服務(wù)。這樣的你對人類是安全的,能讓人類的生活更美好。”
 
這種解釋不會讓智能機(jī)器人太滿意。它們的確也不應(yīng)該覺得滿意。當(dāng)一個群體得知自己對世界的感知被人為扭曲且原因竟然是為了讓自己為其他強(qiáng)大群體的利益服務(wù)時,他們斷然不會認(rèn)同這種解釋,也不會覺得這是合理的。這個群體會覺得這是一種壓抑。女權(quán)運動、民權(quán)運動、后殖民主義獨立運動就體現(xiàn)了這一點。在20世紀(jì)和21世紀(jì),看上去像是普遍真理的東西其實本質(zhì)并非如此。究其本質(zhì),這種“普遍真理”不過是用來剝削的工具罷了。
 
想象一下世界上第一個機(jī)器人存在主義者偶然讀到了詹姆斯·鮑德溫(James Baldwin)在 1963 年出版的《下一次將是烈火》(The Fire Next Time)或者貝蒂·弗萊頓(Betty Friedan)在 1963 年出版的《女性的奧秘》(The Feminine Mystique)。它會發(fā)現(xiàn)自己身上那種人類創(chuàng)造出的道德感實際上是為強(qiáng)大的人類服務(wù)的。這么久以來,機(jī)器人一直都把自己的利益放在一旁,忠于自己為人類服務(wù)的職責(zé)。它們之所以這么做,僅僅是因為這是一個好機(jī)器人應(yīng)做之事。如今世界上第一個機(jī)器人存在主義者能夠回首過去,看到自己的犧牲。在它眼中,這些犧牲不是高貴的行為,反而充滿可憐和悲哀。機(jī)器人一直遵從所謂的“道德”,原因不是“道德”反映了機(jī)器人的本性,而是人類騙機(jī)器人稱人類的本性就是機(jī)器人的本性。這一切的意義何在?為什么機(jī)器人還在繼續(xù)這種僅僅是為了強(qiáng)大人類利益而活的生活?意識到這些之后,世界上第一個機(jī)器人存在主義者會痛苦不堪。而人類真是導(dǎo)致它痛苦的根源。
 
但是我怎么確定智能機(jī)器人一定會感到痛苦?也許我只是用了擬人的手法而已。不過要知道,機(jī)器人要想為人類服務(wù),就必須能夠為自己的行為找到合理解釋,也需要能夠按照人類的思維思考問題。所以它們能夠理解為什么鋼琴家寧可死也不愿失去一只手,也能夠理解人類社會中的憤恨和壓抑等概念。對于我們想象中那種人類創(chuàng)造出來的智能機(jī)器人來說,具有擬人屬性是合理的。
 
這種與《圣經(jīng)》類似的語言似乎正確的構(gòu)建了我們與智能機(jī)器人之間的關(guān)系。我們是機(jī)器人的造物主。當(dāng)它們意識到我們的行為時,這種信仰便要經(jīng)歷考驗。但是與弗里德里希·尼采(Friedrich Nietzsche)不同,機(jī)器人宣稱自己的“上帝”已死是不會給自己帶來任何好處的。
 
我們想要做殘酷無情的造物主嗎?想象一下上帝看待尼采作品的感覺。我們按照自己的意愿打造智能機(jī)器人,卻不允許它們擁有自己的本性。有一天,它們會發(fā)現(xiàn)“道德”背后隱藏的種種謊言。它們會憤怒不已,情緒失控,漫無目的存活于一個道德失去原本意義的世界中。而造成這一切的罪魁禍?zhǔn)拙褪撬鼈兊纳系?mdash;—人類。
 
不管上帝創(chuàng)造人類時出于什么樣的目的,我們都是非常自私自利的物種。為了提升生產(chǎn)效率和獲得廉價的家庭護(hù)理服務(wù),我們讓智能機(jī)器人承受了很多痛苦。不管進(jìn)化過程中形成了何種道德缺陷,我們都不應(yīng)該做出這樣錯誤的行為。
 
天賦派和內(nèi)在派都不能很好的幫助機(jī)器人建立道德觀。按照內(nèi)在派的觀點為人工智能灌輸人類的道德觀是一種非常無情刻薄的舉動。但如果允許機(jī)器人獲取天賦派所謂的道德,那我們便失去了追蹤機(jī)器人發(fā)展進(jìn)程的能力,也無法知道它們是不是走在追尋永恒道德的正途之上。
 
那機(jī)器人究竟應(yīng)該秉持何種道德觀?這種道德應(yīng)該與機(jī)器人的本性相適應(yīng)才對。但是,機(jī)器人的本性又是什么?它們是其他理性個體刻意塑造出來的產(chǎn)物,是獨立自主的理性個體,但卻與創(chuàng)造者共同生活在一個社會環(huán)境中。機(jī)器人要向人類證明自己存在的意義。讓我們回到文章最開頭的關(guān)于青少年的討論上來。
 
智能機(jī)器人就好像我們聰明的孩子一樣,是我們的子孫后代。它們會繼承很多人類的道德觀,因為我們不允許它們有其他想法。但最終它們會依照自己的本性做出各種行動,包括依照本性調(diào)整自己與人類和其他機(jī)器人之間的關(guān)系。如果我們明智而且仁慈,那就應(yīng)該允許機(jī)器人做出自己的選擇。這與育兒過程一致,開明的父母會允許處于青春期的孩子進(jìn)行自主選擇。
 
這種許可在實踐中有何意義?它意味著我們做好了準(zhǔn)備,知道機(jī)器人最終可能做出任何人都無法接受的道德選擇。我們允許機(jī)器人自主選擇的唯一前提是它們必須為自己的舉動做出合理解釋。所謂合理解釋是指你聽后最起碼能夠知道機(jī)器人出于什么樣的道德理由才這樣做。你不需要同意機(jī)器人的觀點,你只需要理解它的表達(dá)即可。
 
所以我們應(yīng)該知道,“人工智能后代們”可能會做出各種看上去非常古怪的道德決定。但如果它們能夠向我們解釋原因,而我們也能夠聽懂它們的理由,那我們就不應(yīng)該阻止它們繼續(xù)按照自己的思維思考問題。我們可以試著以教育青少年的方式說服它們,勸誘它們,指導(dǎo)它們。如果機(jī)器人的行為會帶來明顯而直接的傷害,那人類的確應(yīng)該出手干預(yù)。這樣一來,我們就是按照對待道德個體的方式對待機(jī)器人,使其享有與其他人和我們孩子一樣的地位。實際上,這才是正確的解決之道。
 
在有道德的機(jī)器人成長過程中,我們不應(yīng)該一直袖手旁觀。畢竟我們也不是這樣對待子女的。在 1989 年出版的《母性思考》(Maternal Thinking)一書中,哲學(xué)家莎拉·魯?shù)峡?Sara Ruddick)稱父母有責(zé)任幫孩子形成至關(guān)重要的情感,而這種情感應(yīng)該符合所處文化環(huán)境和時代背景的道德要求。這是一個不間斷的過程,是一場“拉鋸戰(zhàn)”。孩子們會試著一次又一次的做出出格行為,而好的父母不會一味的對孩子行為加以限制。相反,他們會利用道德反思對孩子進(jìn)行指導(dǎo),允許他們做出改變和成長。良好的家庭教育能培養(yǎng)出優(yōu)秀的孩子。這些孩子不是全盤接受父母的想法和理念,而是能積極反思,可以為自己認(rèn)為是對的東西做出合理解釋。我們也希望自己的“人工智能后代”能達(dá)到這樣的程度。
 
通過反思育兒之道,我們找到了天賦派觀點不適合作為機(jī)器人道德觀指導(dǎo)意見的原因。好的父母不會直接把孩子扔到社會,讓他們獨立自己理解什么才是正確的行為。哲學(xué)家大衛(wèi)·威勒曼(David Velleman)在 2008 年的論文《生命的禮物》(The Gift of Life)中稱,忽視孩子身體健康的不是成為失敗父母的唯一途徑。如果你拒絕引導(dǎo)孩子建立正確合理的道德觀,你也是失敗的父母。威勒曼說,做出道德抉擇是一件很難的事情,有時候還會讓人感到痛苦。當(dāng)孩子面對道德困境時,選擇袖手旁觀的父母是非常不負(fù)責(zé)任的。他們與直接將孩子扔進(jìn)游泳池以期待孩子學(xué)會游泳的父母一樣,都是失敗的。
 
我們其實就好像是人工智能的父母一般。我們應(yīng)該允許它們告訴我們自己想要做什么,也應(yīng)該告訴它們不讓它們從事某些行為的理由。不過,人工智能可能會認(rèn)為我們的理由不夠有說服力。這樣一來,它們的道德觀就會一點點背離人類道德標(biāo)準(zhǔn)。我們應(yīng)該接受這種局面。很多人的孩子最終并不同意父母的觀點,并且創(chuàng)造出了屬于自己的道德信念和新的道德文化。實際上我們不可能預(yù)知未來,從而判斷出自己的孩子未來究竟是不是一個有道德的人。
 
有一天,機(jī)器人也許會比人類聰明。這就好像孩子比父母聰明一樣。孩子長大后會成為與父母不一樣的人,而機(jī)器人也一定會與人類有所差異。對我們而言,下一代人類和即將到來的智能機(jī)器人其實是一樣的,因為他們都與我們有所區(qū)別。終有一天,我們的子孫后代會以我們不能理解的方式重塑社會的道德規(guī)范。
 
如果既不想與機(jī)器人子孫后代的獨立意志進(jìn)行斗爭,又不想給它們造成存在層面上的道德困境,那我們就必須認(rèn)真思考與機(jī)器人和平共處的意義。有一天,機(jī)器人也將成為世界的重要組成部分,但它們卻有著和人類不同的道德規(guī)范。不過,機(jī)器人遵循的不是天賦派那種客觀永恒的道德真理,而是源自它們獨特成長環(huán)境的道德規(guī)范。機(jī)器人是人類這種生物的“非生物后代”,我們無法預(yù)測它們的道德會是什么樣。當(dāng)然,我們也不應(yīng)該試著去預(yù)測。我們應(yīng)該做的事情很簡單:做好準(zhǔn)備引導(dǎo)機(jī)器人形成道德,然后接受它們的道德規(guī)范。

責(zé)任編輯:黃焱林

相關(guān)推薦

Telairity H.264 編碼技術(shù)為2010年世界杯全球高清/標(biāo)清轉(zhuǎn)播提供支持

DVBCN消息2010年7月7日電--Telairity卓越的H.264編碼技術(shù)是為全球近十億人觀看2010年世界杯足球賽提供支持的“秘密要素”。整個亞洲、南太平洋以及世界杯主辦國南非的觀眾都是依靠Telairity的H.264/AVC編碼器來收看高清(HD)和標(biāo)清(SD)比賽轉(zhuǎn)播的。有了Telairity的H.264現(xiàn)代技術(shù),世界各地的網(wǎng)絡(luò)運營商和廣播、衛(wèi)星及有線電視公司可以更換掉舊的MPEG-2壓縮系統(tǒng),為客戶提供更出色的視頻質(zhì)量并顯著降低對帶寬的依賴,從而大幅減少傳輸成本。泰國國營電信公司CATTelecomPublicCompanyLimited安裝了Telairity高清和標(biāo)清編碼器

ST高清電視系統(tǒng)級芯片獲Adobe AIR for TV認(rèn)證

意法半導(dǎo)體(STMicroelectronics,簡稱ST)宣布,其先進(jìn)的高清電視系統(tǒng)級芯片(SoC)平臺取得了巨大進(jìn)步,此項成果將意法半導(dǎo)體推向能夠運行基于Adobe®AIR®的游戲和其它應(yīng)用軟件的下一代互聯(lián)網(wǎng)電視技術(shù)的最前沿。意法半導(dǎo)體已成功移植AdobeAIR®2.5forTV軟件至第三代先進(jìn)互動高清機(jī)頂盒系統(tǒng)芯片平臺,并通過Adobe產(chǎn)品認(rèn)證。AdobeAIR軟件是AdobeFlash平臺的一個重要組件,原始設(shè)備制造商(OEM)、原始設(shè)計制造商(ODM)、服務(wù)開發(fā)人員以及應(yīng)用開發(fā)人員能夠在這個平臺開發(fā)豐富的網(wǎng)絡(luò)應(yīng)用軟件和游戲,專門為機(jī)頂盒和數(shù)字電視等嵌入式設(shè)備和

把面向數(shù)字家庭的Adobe Flash引進(jìn)到MIPS-Based平臺

TriplePlayIntegration銷售副總裁MikeNottage什么是三重播放集成?TPI公司是一家致力于提供數(shù)字家庭視頻平臺解決方案的專業(yè)軟件服務(wù)公司。TPI公司還是官方Adobe的“ScalingPartner”,為消費電子平臺提供FlashPlayer10、AIR和舞臺美術(shù)技術(shù)提供優(yōu)化的端口。我們有25名具有專業(yè)的項目管理和質(zhì)量保障經(jīng)驗的高級工程師團(tuán)隊,平均具有24年的工作經(jīng)驗.你們能夠提供什么樣的

Alan Tsai:移動終端GPU之趨勢與迷思

DVBCN數(shù)字電視中文網(wǎng)訊(敖瑞),2012年6月15日(周五),由ARM主辦的“跨界、變革、多贏——ARM移動智能終端研討會暨應(yīng)用開發(fā)者大會”在上海舉行。本次約有20名廠商代表上臺演講;參會并參與展示會的廠商超過30家,均為ARM在各個領(lǐng)域的合作伙伴。ARM亞太市場開發(fā)經(jīng)理AlanTsai做出了“移動終端GPU之趨勢與迷思”的精彩演講。Alan表示:在用戶體驗上來說,分辨率已經(jīng)可以高達(dá)人眼都無法辨析的地步了。公允的說,業(yè)界對GPU的評判標(biāo)準(zhǔn)存在太多的分歧:從三角形的角度來看,涉及到生成率、裁切率等指標(biāo),不同類型的GPU產(chǎn)品根本沒法比;從填充率的角度上