人工智能會不會走上“邪路”?上海學(xué)者激辯,有人淡定有人擔(dān)憂
2017-09-11 18:17:50 來源:上觀網(wǎng) 熱度:
人工智能早已不是新鮮詞。但是,未來會不會像霍金說的那樣,智能機器人可能會成為人類歷史上最大的災(zāi)難,或是人類文明的終結(jié)者嗎?


由上海市社聯(lián)《探索與爭鳴》雜志社和華東政法大學(xué)政治學(xué)研究院共同主辦的“人工智能與未來社會:趨勢、風(fēng)險與挑戰(zhàn)”學(xué)術(shù)研討會上,各領(lǐng)域?qū)W者展開了一場跨學(xué)科的精彩交流。
機器不靠譜?不,是人性
人工智能的深度學(xué)習(xí),推動力究竟在于算法,還是數(shù)據(jù)?
上海交通大學(xué)電子信息學(xué)院的熊紅凱教授認(rèn)為,數(shù)據(jù)才是最后關(guān)鍵的因素?,F(xiàn)在一些大公司開源算法架構(gòu),其實只是為了占領(lǐng)人工智能的市場生態(tài),這是商業(yè)策略。
人工智能發(fā)展中的不確定性和不可解釋性,是最大的威脅。
一個最后的結(jié)果,它的不確定性和不可操作性來源于數(shù)據(jù),即使同一個數(shù)據(jù)不同的人操作也不一樣,這就帶來很大的問題:公共安全性。這也是美國大數(shù)據(jù)醫(yī)療一直進展緩慢的原因。
人工智能是把雙刃劍。如果所有的機器都聯(lián)網(wǎng),這個力量會決策我們每個人的命運。從倫理講,人類不知道將來會有怎樣的方式來決定個人命運,因為我們原來所形成的知識,是個人可認(rèn)知、可掌握的。
若一切技術(shù)都是以超越人自身為推動力,“人工智能是洪水猛獸”這個說法顯然是成立的。因為對數(shù)據(jù)的操控性和選擇性,所有的人類能力都必須在機器的載體上發(fā)展,這種能力的控制性,完全不可靠,而且它會不斷演化和發(fā)展。這會給人類世界帶來極大的不確定性。人們還應(yīng)真實認(rèn)識人工智能背后的基理所在,如果這個方式不解決,一旦壟斷在一些大公司手里,實際上對每個人的命運來說可能都不可控。真實原因不在于機器,而在于人性其實是不可靠的。
人和機器會在未來和諧相處
從“開放”這個角度出發(fā),華東政法大學(xué)政治學(xué)研究院院長高奇琦教授的看法,和熊紅凱教授恰恰相反。
為什么中國人工智能爆發(fā)最重要的場景,是基于人臉識別的安防,而西方是基于語音識別的智能音箱?因為在中國人看來,“君子坦蕩蕩,小人長戚戚”,相比于個人隱私,安全穩(wěn)定更重要。為了提高社會治理的狀況,讓渡一部分個人權(quán)利和隱私,在中國人看來并非不能接受。在研究智能醫(yī)療的專家眼中,目前中國是研究智能醫(yī)療最好的國家。只要政府和病人之間有很好的合作,那么醫(yī)療數(shù)據(jù)就能開放給醫(yī)療大公司和研究人員,而智能醫(yī)療的發(fā)展反過來又能解決醫(yī)療資源不足的問題,造福更多的人,從而形成國家、企業(yè)與個人的良好互動。
中國人的傳統(tǒng),會將兩種完全不同的力量放在一起綜合考慮,這就是“多元統(tǒng)一”。未來,將會出現(xiàn)人工智能與人類智能長期共存的情形。很多中國的專家學(xué)者、投資人認(rèn)為,人和機器在未來會和諧相處?!吨芤住分械年庩栍^、《道德經(jīng)》中的辯證思想,深刻影響著中國人的思維,我們認(rèn)為物、人都是世界的一部分,人類可以與世間萬物和諧共存。在西方基督教文化看來,科技一直在挑戰(zhàn)神的領(lǐng)域,而中國沒有這方面束縛,在技術(shù)發(fā)展上,可能會少一些倫理負(fù)擔(dān)。
不是自然科學(xué),更不是社會科學(xué)
上海社會科學(xué)院哲學(xué)所副所長成素梅研究員,帶來了女性專家的獨特視角。
她談到,人工智能是計算機分支學(xué)科研究出來的,但是從學(xué)科性質(zhì)上來講,人工智能不是自然科學(xué),更不是一門社會科學(xué),盡管人工智能研究者必須關(guān)注其成果對社會所產(chǎn)生的影響,但這并不是人工智能研究的主要內(nèi)容。人工智能是科學(xué)與技術(shù)相互交叉的一個領(lǐng)域,一開始就具有跨學(xué)科性。
目前,人工智能不僅在日常生活中大顯神手,在工業(yè)領(lǐng)域和商業(yè)領(lǐng)域內(nèi)捷報頻傳,《科學(xué)》雜志刊文表明,機器人或自動程序已經(jīng)能夠直接參與人類的認(rèn)知過程。比如,賓夕法尼亞大學(xué)積極心理學(xué)中心的心理學(xué)家可以運用算法,根據(jù)推特、臉譜等社交媒體上的話語,來分析大眾的情緒、預(yù)測人性、收入和意識形態(tài),從而有可能在語言分析及其與心理學(xué)聯(lián)系方面帶來一場革命;普林斯頓大學(xué)的計算生物學(xué)家可以運用人工智能工具來梳理自閉癥根源的基因組,等等。這些機器人或自動程度被尊稱為“網(wǎng)絡(luò)科學(xué)家”。
人工智能的威脅論雖然表達了人類的憂患意識,但確實為時過早。退一步講,即使未來有這么一天到來,人類也已經(jīng)在這個進程中,充分享用了人工智能帶來的恩惠,并深刻反思了有關(guān)人性、社會、文明等問題。政府在推動技性科學(xué)的同時,更應(yīng)該加強哲學(xué)社會科學(xué)的研究,切實把哲學(xué)社會科學(xué)的思考,特別是倫理考量,貫穿到技性科學(xué)發(fā)展的始終,讓人文關(guān)懷成為人工智能研究者的自覺意識,使科學(xué)家們在研發(fā)人工智能的過程中,做出有利于發(fā)展人類文明的抉擇。
“落后就要挨打”=“先進可以打人”咯
人工智能在軍事領(lǐng)域的應(yīng)用怎樣呢?
在這個問題上,各大國都處在被“劫持”的狀態(tài)。人們常說“落后就要挨打”,其暗含的邏輯就是“先進可以打人”,先進的國家可以欺壓落后的國家,即使各國不希望制造殺人武器,但又不得不制造殺人武器,因為誰也不想落后,誰也不愿挨打。
上海交通大學(xué)科學(xué)史與科學(xué)文化研究院院長江曉原教授指出,實際上人工智能軍事化的危害性,并不在于其導(dǎo)致傷亡人數(shù)的多少,戰(zhàn)爭也不會因為導(dǎo)致傷亡較少而變得就可取。在美國紀(jì)錄片《零日》中,美國和以色列為了破壞伊朗的核計劃,聯(lián)合研發(fā)了一種超級病毒。事實上,這種超級病毒就是一種幽靈般的人工智能,它感染了伊朗的網(wǎng)絡(luò)之后,會自動尋找和識別特定的目標(biāo)——離心機的控制器。由于病毒設(shè)計巧妙,它在當(dāng)時幾乎無法被偵測出來。然而,美國人偷笑的時間并沒多久,這種超級病毒還真被發(fā)現(xiàn)了。不僅被發(fā)現(xiàn)了,而且被破解了。這就意味著伊朗及其盟友,也獲得了這種超級病毒。人工智能的軍事化應(yīng)用,當(dāng)然比原子彈能造成的傷亡要小,但其破壞性一樣不容小覷。
在人工智能的發(fā)展上,資本的推動是很明顯的。但是資本的增值是盲目的,而且不計后果的,關(guān)于這一點,重溫馬克思的教導(dǎo)很有意義。江曉原教授認(rèn)為,現(xiàn)在對資本的恐懼要比對權(quán)力的恐懼大得多,資本比權(quán)力更可怕,是因為資本其實非常盲目。
他認(rèn)為,現(xiàn)在不能盲目贊美人工智能,歌頌人工智能的美好,應(yīng)該在媒體上多進行關(guān)于人工智能倫理方面的探討,至少能引起各界的注意。在某些領(lǐng)域中,可以考慮保留低級的人工智能,保留人工智能的某些初級應(yīng)用。要認(rèn)識到,這個東西就像魔鬼一樣。我們盡量設(shè)法對某些指標(biāo)性的東西加以明確,如各國約定在全球范圍普遍內(nèi)不允許做某些事,這樣才有可能延長人類文明。
人將不再是工作的機器,挺好
上海師范大學(xué)知識與價值科學(xué)研究所所長何云峰教授擔(dān)心的是,人工智能大量使用,會不會帶來進化方面的負(fù)面后果?例如,每個人都使用手機,大家變成低頭一族了,會不會導(dǎo)致若干萬年以后我們的腳變成越來越短,手越來越長?當(dāng)然還有其他可能的進化性負(fù)面后果,都值得我們?nèi)リP(guān)注,這種后果可能比擺脫束縛我們的那種東西,還要可怕。
除此之外,他以為人類應(yīng)該要樂觀地面對人工智能。人類進化到現(xiàn)在,通過人工智能,會有更多的信息獲取渠道和處理渠道,這樣人類能使自己更加強大。隨著人工智能的發(fā)展,人類勞動的簡化程度會大大提高,人會有更多的時間進行學(xué)習(xí),變成一種學(xué)習(xí)動物,而不再是工作的機器。學(xué)習(xí)的觀念會完全改變,人會有更多的發(fā)展機會,會更多地減輕、擺脫繁重的東西,可能完全不是今天的狀態(tài)。
歷史學(xué)家不怕失業(yè)
80高齡的華東師范大學(xué)歷史系王家范教授,將自己的微信名取為“鄉(xiāng)下人”,他絲毫不擔(dān)心歷史學(xué)家會在未來失業(yè)。“世界上有一種職業(yè),是任何再先進的機器人也無法替代的,那就是歷史學(xué)家。”到今天為止,所謂用“大數(shù)據(jù)史學(xué)”做出來的成果,行業(yè)中人心知肚明,它并沒有如想象的那樣奇妙和高明。再大型的史料數(shù)據(jù)庫,也只是史學(xué)家的輔助工具,是史學(xué)的助手,不可能成為史學(xué)的主人。
純粹靠擺史料,靠史料“料理”歷史的史學(xué)工匠,“機器人”一定能取代,效率勝過千百倍。如果把史學(xué)看做一門人類理解自己的“思維工藝”,從人類已有的千萬年的無窮經(jīng)歷里,時時咀嚼反芻,提煉出人類智慧,用以改善人類現(xiàn)在和未來的處境,這一類的史學(xué)工藝創(chuàng)造,“人工智能”就捉襟見肘,窘態(tài)畢露。
他認(rèn)為,在歡呼科技進步的同時,有必要對科技忽視人文的嚴(yán)重后果進行認(rèn)真檢討,人文主義在科學(xué)家隊伍里應(yīng)該占有主導(dǎo)地位。價值理性是第一位的,工具理性是第二位的??茖W(xué)家的自身修養(yǎng)是如此,科學(xué)創(chuàng)造也應(yīng)該如此。老子說“知人者智,自知者明。勝人有力,自勝者強”。科學(xué)家必須有戰(zhàn)勝自我欲望無邊的“自勝者強”的意識,及早消弭企圖操控人類的各類野心,人工智能的開發(fā)才不會走邪路。
按照人類所希望的“善智”方向發(fā)展
上海社會科學(xué)院互聯(lián)網(wǎng)研究中心執(zhí)行主任惠志斌,探究了人工智能應(yīng)用場景中的法律問題。他認(rèn)為,人工智能能夠聯(lián)系大量的人、物,在聯(lián)網(wǎng)的基礎(chǔ)上產(chǎn)生大量的數(shù)據(jù),再通過一系列智能化的算法。這個算法,至少目前來看還是由人來設(shè)計、去驗證、去實施的算法。在各種各樣的智能網(wǎng)絡(luò)應(yīng)用場景里,在鼓勵它發(fā)展的同時,如何去規(guī)避危險,如何按照人類所希望見到的“善智”方向發(fā)展?這是我們需要考慮的問題。
還要考慮如何通過一些公共政策、如何通過法律,把那些可能帶來危害的風(fēng)險點找到,進行規(guī)避。他認(rèn)為,人工智能碰到的法律和經(jīng)濟問題,要在基本安全的框架內(nèi),探討人類和機器共同協(xié)作的方式,讓人工智能產(chǎn)品在公眾的監(jiān)督之下透明、開放,而不是隨意設(shè)置。
責(zé)任編輯:吳昊