人工智能會(huì)不會(huì)走上“邪路”?上海學(xué)者激辯,有人淡定有人擔(dān)憂
2017-09-11 18:17:50 來(lái)源:上觀網(wǎng) 熱度:
人工智能早已不是新鮮詞。但是,未來(lái)會(huì)不會(huì)像霍金說(shuō)的那樣,智能機(jī)器人可能會(huì)成為人類歷史上最大的災(zāi)難,或是人類文明的終結(jié)者嗎?


由上海市社聯(lián)《探索與爭(zhēng)鳴》雜志社和華東政法大學(xué)政治學(xué)研究院共同主辦的“人工智能與未來(lái)社會(huì):趨勢(shì)、風(fēng)險(xiǎn)與挑戰(zhàn)”學(xué)術(shù)研討會(huì)上,各領(lǐng)域?qū)W者展開(kāi)了一場(chǎng)跨學(xué)科的精彩交流。
機(jī)器不靠譜?不,是人性
人工智能的深度學(xué)習(xí),推動(dòng)力究竟在于算法,還是數(shù)據(jù)?
上海交通大學(xué)電子信息學(xué)院的熊紅凱教授認(rèn)為,數(shù)據(jù)才是最后關(guān)鍵的因素?,F(xiàn)在一些大公司開(kāi)源算法架構(gòu),其實(shí)只是為了占領(lǐng)人工智能的市場(chǎng)生態(tài),這是商業(yè)策略。
人工智能發(fā)展中的不確定性和不可解釋性,是最大的威脅。
一個(gè)最后的結(jié)果,它的不確定性和不可操作性來(lái)源于數(shù)據(jù),即使同一個(gè)數(shù)據(jù)不同的人操作也不一樣,這就帶來(lái)很大的問(wèn)題:公共安全性。這也是美國(guó)大數(shù)據(jù)醫(yī)療一直進(jìn)展緩慢的原因。
人工智能是把雙刃劍。如果所有的機(jī)器都聯(lián)網(wǎng),這個(gè)力量會(huì)決策我們每個(gè)人的命運(yùn)。從倫理講,人類不知道將來(lái)會(huì)有怎樣的方式來(lái)決定個(gè)人命運(yùn),因?yàn)槲覀冊(cè)瓉?lái)所形成的知識(shí),是個(gè)人可認(rèn)知、可掌握的。
若一切技術(shù)都是以超越人自身為推動(dòng)力,“人工智能是洪水猛獸”這個(gè)說(shuō)法顯然是成立的。因?yàn)閷?duì)數(shù)據(jù)的操控性和選擇性,所有的人類能力都必須在機(jī)器的載體上發(fā)展,這種能力的控制性,完全不可靠,而且它會(huì)不斷演化和發(fā)展。這會(huì)給人類世界帶來(lái)極大的不確定性。人們還應(yīng)真實(shí)認(rèn)識(shí)人工智能背后的基理所在,如果這個(gè)方式不解決,一旦壟斷在一些大公司手里,實(shí)際上對(duì)每個(gè)人的命運(yùn)來(lái)說(shuō)可能都不可控。真實(shí)原因不在于機(jī)器,而在于人性其實(shí)是不可靠的。
人和機(jī)器會(huì)在未來(lái)和諧相處
從“開(kāi)放”這個(gè)角度出發(fā),華東政法大學(xué)政治學(xué)研究院院長(zhǎng)高奇琦教授的看法,和熊紅凱教授恰恰相反。
為什么中國(guó)人工智能爆發(fā)最重要的場(chǎng)景,是基于人臉識(shí)別的安防,而西方是基于語(yǔ)音識(shí)別的智能音箱?因?yàn)樵谥袊?guó)人看來(lái),“君子坦蕩蕩,小人長(zhǎng)戚戚”,相比于個(gè)人隱私,安全穩(wěn)定更重要。為了提高社會(huì)治理的狀況,讓渡一部分個(gè)人權(quán)利和隱私,在中國(guó)人看來(lái)并非不能接受。在研究智能醫(yī)療的專家眼中,目前中國(guó)是研究智能醫(yī)療最好的國(guó)家。只要政府和病人之間有很好的合作,那么醫(yī)療數(shù)據(jù)就能開(kāi)放給醫(yī)療大公司和研究人員,而智能醫(yī)療的發(fā)展反過(guò)來(lái)又能解決醫(yī)療資源不足的問(wèn)題,造福更多的人,從而形成國(guó)家、企業(yè)與個(gè)人的良好互動(dòng)。
中國(guó)人的傳統(tǒng),會(huì)將兩種完全不同的力量放在一起綜合考慮,這就是“多元統(tǒng)一”。未來(lái),將會(huì)出現(xiàn)人工智能與人類智能長(zhǎng)期共存的情形。很多中國(guó)的專家學(xué)者、投資人認(rèn)為,人和機(jī)器在未來(lái)會(huì)和諧相處?!吨芤住分械年庩?yáng)觀、《道德經(jīng)》中的辯證思想,深刻影響著中國(guó)人的思維,我們認(rèn)為物、人都是世界的一部分,人類可以與世間萬(wàn)物和諧共存。在西方基督教文化看來(lái),科技一直在挑戰(zhàn)神的領(lǐng)域,而中國(guó)沒(méi)有這方面束縛,在技術(shù)發(fā)展上,可能會(huì)少一些倫理負(fù)擔(dān)。
不是自然科學(xué),更不是社會(huì)科學(xué)
上海社會(huì)科學(xué)院哲學(xué)所副所長(zhǎng)成素梅研究員,帶來(lái)了女性專家的獨(dú)特視角。
她談到,人工智能是計(jì)算機(jī)分支學(xué)科研究出來(lái)的,但是從學(xué)科性質(zhì)上來(lái)講,人工智能不是自然科學(xué),更不是一門(mén)社會(huì)科學(xué),盡管人工智能研究者必須關(guān)注其成果對(duì)社會(huì)所產(chǎn)生的影響,但這并不是人工智能研究的主要內(nèi)容。人工智能是科學(xué)與技術(shù)相互交叉的一個(gè)領(lǐng)域,一開(kāi)始就具有跨學(xué)科性。
目前,人工智能不僅在日常生活中大顯神手,在工業(yè)領(lǐng)域和商業(yè)領(lǐng)域內(nèi)捷報(bào)頻傳,《科學(xué)》雜志刊文表明,機(jī)器人或自動(dòng)程序已經(jīng)能夠直接參與人類的認(rèn)知過(guò)程。比如,賓夕法尼亞大學(xué)積極心理學(xué)中心的心理學(xué)家可以運(yùn)用算法,根據(jù)推特、臉譜等社交媒體上的話語(yǔ),來(lái)分析大眾的情緒、預(yù)測(cè)人性、收入和意識(shí)形態(tài),從而有可能在語(yǔ)言分析及其與心理學(xué)聯(lián)系方面帶來(lái)一場(chǎng)革命;普林斯頓大學(xué)的計(jì)算生物學(xué)家可以運(yùn)用人工智能工具來(lái)梳理自閉癥根源的基因組,等等。這些機(jī)器人或自動(dòng)程度被尊稱為“網(wǎng)絡(luò)科學(xué)家”。
人工智能的威脅論雖然表達(dá)了人類的憂患意識(shí),但確實(shí)為時(shí)過(guò)早。退一步講,即使未來(lái)有這么一天到來(lái),人類也已經(jīng)在這個(gè)進(jìn)程中,充分享用了人工智能帶來(lái)的恩惠,并深刻反思了有關(guān)人性、社會(huì)、文明等問(wèn)題。政府在推動(dòng)技性科學(xué)的同時(shí),更應(yīng)該加強(qiáng)哲學(xué)社會(huì)科學(xué)的研究,切實(shí)把哲學(xué)社會(huì)科學(xué)的思考,特別是倫理考量,貫穿到技性科學(xué)發(fā)展的始終,讓人文關(guān)懷成為人工智能研究者的自覺(jué)意識(shí),使科學(xué)家們?cè)谘邪l(fā)人工智能的過(guò)程中,做出有利于發(fā)展人類文明的抉擇。
“落后就要挨打”=“先進(jìn)可以打人”咯
人工智能在軍事領(lǐng)域的應(yīng)用怎樣呢?
在這個(gè)問(wèn)題上,各大國(guó)都處在被“劫持”的狀態(tài)。人們常說(shuō)“落后就要挨打”,其暗含的邏輯就是“先進(jìn)可以打人”,先進(jìn)的國(guó)家可以欺壓落后的國(guó)家,即使各國(guó)不希望制造殺人武器,但又不得不制造殺人武器,因?yàn)檎l(shuí)也不想落后,誰(shuí)也不愿挨打。
上海交通大學(xué)科學(xué)史與科學(xué)文化研究院院長(zhǎng)江曉原教授指出,實(shí)際上人工智能軍事化的危害性,并不在于其導(dǎo)致傷亡人數(shù)的多少,戰(zhàn)爭(zhēng)也不會(huì)因?yàn)閷?dǎo)致傷亡較少而變得就可取。在美國(guó)紀(jì)錄片《零日》中,美國(guó)和以色列為了破壞伊朗的核計(jì)劃,聯(lián)合研發(fā)了一種超級(jí)病毒。事實(shí)上,這種超級(jí)病毒就是一種幽靈般的人工智能,它感染了伊朗的網(wǎng)絡(luò)之后,會(huì)自動(dòng)尋找和識(shí)別特定的目標(biāo)——離心機(jī)的控制器。由于病毒設(shè)計(jì)巧妙,它在當(dāng)時(shí)幾乎無(wú)法被偵測(cè)出來(lái)。然而,美國(guó)人偷笑的時(shí)間并沒(méi)多久,這種超級(jí)病毒還真被發(fā)現(xiàn)了。不僅被發(fā)現(xiàn)了,而且被破解了。這就意味著伊朗及其盟友,也獲得了這種超級(jí)病毒。人工智能的軍事化應(yīng)用,當(dāng)然比原子彈能造成的傷亡要小,但其破壞性一樣不容小覷。
在人工智能的發(fā)展上,資本的推動(dòng)是很明顯的。但是資本的增值是盲目的,而且不計(jì)后果的,關(guān)于這一點(diǎn),重溫馬克思的教導(dǎo)很有意義。江曉原教授認(rèn)為,現(xiàn)在對(duì)資本的恐懼要比對(duì)權(quán)力的恐懼大得多,資本比權(quán)力更可怕,是因?yàn)橘Y本其實(shí)非常盲目。
他認(rèn)為,現(xiàn)在不能盲目贊美人工智能,歌頌人工智能的美好,應(yīng)該在媒體上多進(jìn)行關(guān)于人工智能倫理方面的探討,至少能引起各界的注意。在某些領(lǐng)域中,可以考慮保留低級(jí)的人工智能,保留人工智能的某些初級(jí)應(yīng)用。要認(rèn)識(shí)到,這個(gè)東西就像魔鬼一樣。我們盡量設(shè)法對(duì)某些指標(biāo)性的東西加以明確,如各國(guó)約定在全球范圍普遍內(nèi)不允許做某些事,這樣才有可能延長(zhǎng)人類文明。
人將不再是工作的機(jī)器,挺好
上海師范大學(xué)知識(shí)與價(jià)值科學(xué)研究所所長(zhǎng)何云峰教授擔(dān)心的是,人工智能大量使用,會(huì)不會(huì)帶來(lái)進(jìn)化方面的負(fù)面后果?例如,每個(gè)人都使用手機(jī),大家變成低頭一族了,會(huì)不會(huì)導(dǎo)致若干萬(wàn)年以后我們的腳變成越來(lái)越短,手越來(lái)越長(zhǎng)?當(dāng)然還有其他可能的進(jìn)化性負(fù)面后果,都值得我們?nèi)リP(guān)注,這種后果可能比擺脫束縛我們的那種東西,還要可怕。
除此之外,他以為人類應(yīng)該要樂(lè)觀地面對(duì)人工智能。人類進(jìn)化到現(xiàn)在,通過(guò)人工智能,會(huì)有更多的信息獲取渠道和處理渠道,這樣人類能使自己更加強(qiáng)大。隨著人工智能的發(fā)展,人類勞動(dòng)的簡(jiǎn)化程度會(huì)大大提高,人會(huì)有更多的時(shí)間進(jìn)行學(xué)習(xí),變成一種學(xué)習(xí)動(dòng)物,而不再是工作的機(jī)器。學(xué)習(xí)的觀念會(huì)完全改變,人會(huì)有更多的發(fā)展機(jī)會(huì),會(huì)更多地減輕、擺脫繁重的東西,可能完全不是今天的狀態(tài)。
歷史學(xué)家不怕失業(yè)
80高齡的華東師范大學(xué)歷史系王家范教授,將自己的微信名取為“鄉(xiāng)下人”,他絲毫不擔(dān)心歷史學(xué)家會(huì)在未來(lái)失業(yè)。“世界上有一種職業(yè),是任何再先進(jìn)的機(jī)器人也無(wú)法替代的,那就是歷史學(xué)家。”到今天為止,所謂用“大數(shù)據(jù)史學(xué)”做出來(lái)的成果,行業(yè)中人心知肚明,它并沒(méi)有如想象的那樣奇妙和高明。再大型的史料數(shù)據(jù)庫(kù),也只是史學(xué)家的輔助工具,是史學(xué)的助手,不可能成為史學(xué)的主人。
純粹靠擺史料,靠史料“料理”歷史的史學(xué)工匠,“機(jī)器人”一定能取代,效率勝過(guò)千百倍。如果把史學(xué)看做一門(mén)人類理解自己的“思維工藝”,從人類已有的千萬(wàn)年的無(wú)窮經(jīng)歷里,時(shí)時(shí)咀嚼反芻,提煉出人類智慧,用以改善人類現(xiàn)在和未來(lái)的處境,這一類的史學(xué)工藝創(chuàng)造,“人工智能”就捉襟見(jiàn)肘,窘態(tài)畢露。
他認(rèn)為,在歡呼科技進(jìn)步的同時(shí),有必要對(duì)科技忽視人文的嚴(yán)重后果進(jìn)行認(rèn)真檢討,人文主義在科學(xué)家隊(duì)伍里應(yīng)該占有主導(dǎo)地位。價(jià)值理性是第一位的,工具理性是第二位的??茖W(xué)家的自身修養(yǎng)是如此,科學(xué)創(chuàng)造也應(yīng)該如此。老子說(shuō)“知人者智,自知者明。勝人有力,自勝者強(qiáng)”??茖W(xué)家必須有戰(zhàn)勝自我欲望無(wú)邊的“自勝者強(qiáng)”的意識(shí),及早消弭企圖操控人類的各類野心,人工智能的開(kāi)發(fā)才不會(huì)走邪路。
按照人類所希望的“善智”方向發(fā)展
上海社會(huì)科學(xué)院互聯(lián)網(wǎng)研究中心執(zhí)行主任惠志斌,探究了人工智能應(yīng)用場(chǎng)景中的法律問(wèn)題。他認(rèn)為,人工智能能夠聯(lián)系大量的人、物,在聯(lián)網(wǎng)的基礎(chǔ)上產(chǎn)生大量的數(shù)據(jù),再通過(guò)一系列智能化的算法。這個(gè)算法,至少目前來(lái)看還是由人來(lái)設(shè)計(jì)、去驗(yàn)證、去實(shí)施的算法。在各種各樣的智能網(wǎng)絡(luò)應(yīng)用場(chǎng)景里,在鼓勵(lì)它發(fā)展的同時(shí),如何去規(guī)避危險(xiǎn),如何按照人類所希望見(jiàn)到的“善智”方向發(fā)展?這是我們需要考慮的問(wèn)題。
還要考慮如何通過(guò)一些公共政策、如何通過(guò)法律,把那些可能帶來(lái)危害的風(fēng)險(xiǎn)點(diǎn)找到,進(jìn)行規(guī)避。他認(rèn)為,人工智能碰到的法律和經(jīng)濟(jì)問(wèn)題,要在基本安全的框架內(nèi),探討人類和機(jī)器共同協(xié)作的方式,讓人工智能產(chǎn)品在公眾的監(jiān)督之下透明、開(kāi)放,而不是隨意設(shè)置。
責(zé)任編輯:吳昊