人工智能發(fā)展帶來(lái)挑戰(zhàn)
埃吉爾泰革和亞姆尼克等表示,從股票交易到房地產(chǎn)價(jià)格確定、從檢測(cè)欺詐行為到不同語(yǔ)言間的翻譯工作、從創(chuàng)建每周購(gòu)物清單到預(yù)測(cè)受歡迎的電影類(lèi)型,人工智能已經(jīng)在諸多領(lǐng)域得到了應(yīng)用。在不久的將來(lái),我們還將使用人工智能程序來(lái)了解人們的健康狀況,發(fā)明新的藥物和治療方法;自動(dòng)駕駛汽車(chē)將改變交通系統(tǒng)和城市規(guī)劃方式。機(jī)器提高我們的生產(chǎn)效率,并幫助我們預(yù)測(cè)社會(huì)風(fēng)險(xiǎn)。
然而,如果我們不在整個(gè)社會(huì)層面上仔細(xì)規(guī)劃,人工智能技術(shù)的發(fā)展也可能會(huì)帶來(lái)消極后果。學(xué)者提出,支撐自動(dòng)駕駛汽車(chē)的技術(shù)可能會(huì)帶來(lái)戰(zhàn)場(chǎng)上的危險(xiǎn)新武器;使工作自動(dòng)化的技術(shù)可能會(huì)導(dǎo)致許多人失業(yè);利用歷史數(shù)據(jù)進(jìn)行訓(xùn)練的算法程序可能會(huì)延續(xù)甚至加劇基于種族或性別的歧視;需要大量個(gè)人數(shù)據(jù)的系統(tǒng),例如醫(yī)療保健系統(tǒng),可能會(huì)導(dǎo)致人們的隱私受到損害。
埃吉爾泰革和亞姆尼克等提出,面對(duì)這些挑戰(zhàn),不僅需要自然科學(xué)領(lǐng)域的專(zhuān)家學(xué)者貢獻(xiàn)自己的智慧,也需要藝術(shù)、人文和社會(huì)科學(xué)領(lǐng)域的知識(shí),需要深入研究與人工智能有關(guān)的政策和治理問(wèn)題。
將道德準(zhǔn)則嵌入人工智能程序
就此問(wèn)題,法國(guó)國(guó)家科學(xué)研究中心主任研究員塞巴斯蒂安·科涅奇內(nèi)(Sébastien Konieczny)在接受中國(guó)社會(huì)科學(xué)報(bào)記者采訪時(shí)表示,人工智能程序也有它們的弱點(diǎn)。如許多人工智能程序都具有深入學(xué)習(xí)后得出結(jié)論的功能,但這些人工神經(jīng)網(wǎng)絡(luò)就像是在黑匣子里運(yùn)行一樣,人們難以得知它做出決定的原因。可在實(shí)際應(yīng)用中,有關(guān)機(jī)構(gòu)或個(gè)人需要知曉所做決定的原因,以保證每個(gè)人都得到公平對(duì)待。盡管已經(jīng)有研究人員在嘗試對(duì)人工智能黑匣子的“可解釋性”進(jìn)行研究,但要從中有所發(fā)現(xiàn)則比較困難。
人工智能程序不是完全中性的,它們也會(huì)受到偏見(jiàn)的影響??颇鎯?nèi)認(rèn)為,“如果一個(gè)系統(tǒng)是由大量來(lái)自人類(lèi)言語(yǔ)的數(shù)據(jù)驅(qū)動(dòng)的,那么它會(huì)再現(xiàn)人類(lèi)的偏見(jiàn)就毫不奇怪了”。人工智能程序不僅會(huì)受到系統(tǒng)設(shè)計(jì)者自身所持觀點(diǎn)的影響,也會(huì)受到那些為人工智能程序提供培訓(xùn)的人的影響。
在大范圍使用深度學(xué)習(xí)技術(shù)之前,制定并向人工智能程序灌輸一些道德規(guī)則很有必要。不過(guò),學(xué)者認(rèn)為,將“判斷結(jié)果不取決于性別、年齡、膚色”的規(guī)則傳授給人工智能程序目前還有困難。
最終決定權(quán)應(yīng)由人掌握
在科涅奇內(nèi)看來(lái),目前應(yīng)該建立具體的倫理問(wèn)題管理委員會(huì),制定有關(guān)人工智能和數(shù)字技術(shù)的研究規(guī)則。這可以幫助研究人員評(píng)估哪些界限是不可跨越的,防止研究工作發(fā)生不當(dāng)?shù)钠啤?/span>
埃吉爾泰革和亞姆尼克等表示,不能因?yàn)闄C(jī)器擁有大量的信息,人們就認(rèn)為它們更可信。從實(shí)踐結(jié)果來(lái)看,應(yīng)該將最后的決定權(quán)留給人類(lèi),而不能完全依賴(lài)人工智能。因此,應(yīng)該將系統(tǒng)配制成能夠給出幾個(gè)不同解決方案的形式,如果可能的話這些解決方案中還應(yīng)該附有相關(guān)的原因及其后果,并讓人類(lèi)做出最終選擇。
學(xué)者還提到,機(jī)器人既不善良也不卑鄙,更不應(yīng)該有個(gè)人目的或計(jì)劃,它們應(yīng)該按照我們希望或者設(shè)計(jì)的那樣完成工作。當(dāng)人工智能出現(xiàn)一些意外副作用時(shí),我們可以解決問(wèn)題,不讓這些副作用造成危險(xiǎn)。如果機(jī)器人的活動(dòng)造成了死亡或者刑法上規(guī)定的重大案件,為了給予遇難者應(yīng)有的賠償,有必要建立一個(gè)由制造或擁有這些機(jī)器的公司推動(dòng)的保險(xiǎn)基金。比起控制機(jī)器人,對(duì)那些控制機(jī)器的私人公司進(jìn)行規(guī)制更顯重要。