
人工智能發(fā)展帶來挑戰(zhàn)
埃吉爾泰革和亞姆尼克等表示,從股票交易到房地產(chǎn)價格確定、從檢測欺詐行為到不同語言間的翻譯工作、從創(chuàng)建每周購物清單到預測受歡迎的電影類型,人工智能已經(jīng)在諸多領域得到了應用。在不久的將來,我們還將使用人工智能程序來了解人們的健康狀況,發(fā)明新的藥物和治療方法;自動駕駛汽車將改變交通系統(tǒng)和城市規(guī)劃方式。機器提高我們的生產(chǎn)效率,并幫助我們預測社會風險。
然而,如果我們不在整個社會層面上仔細規(guī)劃,人工智能技術的發(fā)展也可能會帶來消極后果。學者提出,支撐自動駕駛汽車的技術可能會帶來戰(zhàn)場上的危險新武器;使工作自動化的技術可能會導致許多人失業(yè);利用歷史數(shù)據(jù)進行訓練的算法程序可能會延續(xù)甚至加劇基于種族或性別的歧視;需要大量個人數(shù)據(jù)的系統(tǒng),例如醫(yī)療保健系統(tǒng),可能會導致人們的隱私受到損害。
埃吉爾泰革和亞姆尼克等提出,面對這些挑戰(zhàn),不僅需要自然科學領域的專家學者貢獻自己的智慧,也需要藝術、人文和社會科學領域的知識,需要深入研究與人工智能有關的政策和治理問題。
將道德準則嵌入人工智能程序
就此問題,法國國家科學研究中心主任研究員塞巴斯蒂安·科涅奇內(nèi)(Sébastien Konieczny)在接受中國社會科學報記者采訪時表示,人工智能程序也有它們的弱點。如許多人工智能程序都具有深入學習后得出結(jié)論的功能,但這些人工神經(jīng)網(wǎng)絡就像是在黑匣子里運行一樣,人們難以得知它做出決定的原因。可在實際應用中,有關機構(gòu)或個人需要知曉所做決定的原因,以保證每個人都得到公平對待。盡管已經(jīng)有研究人員在嘗試對人工智能黑匣子的“可解釋性”進行研究,但要從中有所發(fā)現(xiàn)則比較困難。
人工智能程序不是完全中性的,它們也會受到偏見的影響??颇鎯?nèi)認為,“如果一個系統(tǒng)是由大量來自人類言語的數(shù)據(jù)驅(qū)動的,那么它會再現(xiàn)人類的偏見就毫不奇怪了”。人工智能程序不僅會受到系統(tǒng)設計者自身所持觀點的影響,也會受到那些為人工智能程序提供培訓的人的影響。
在大范圍使用深度學習技術之前,制定并向人工智能程序灌輸一些道德規(guī)則很有必要。不過,學者認為,將“判斷結(jié)果不取決于性別、年齡、膚色”的規(guī)則傳授給人工智能程序目前還有困難。
最終決定權(quán)應由人掌握
在科涅奇內(nèi)看來,目前應該建立具體的倫理問題管理委員會,制定有關人工智能和數(shù)字技術的研究規(guī)則。這可以幫助研究人員評估哪些界限是不可跨越的,防止研究工作發(fā)生不當?shù)钠啤?/span>
埃吉爾泰革和亞姆尼克等表示,不能因為機器擁有大量的信息,人們就認為它們更可信。從實踐結(jié)果來看,應該將最后的決定權(quán)留給人類,而不能完全依賴人工智能。因此,應該將系統(tǒng)配制成能夠給出幾個不同解決方案的形式,如果可能的話這些解決方案中還應該附有相關的原因及其后果,并讓人類做出最終選擇。
學者還提到,機器人既不善良也不卑鄙,更不應該有個人目的或計劃,它們應該按照我們希望或者設計的那樣完成工作。當人工智能出現(xiàn)一些意外副作用時,我們可以解決問題,不讓這些副作用造成危險。如果機器人的活動造成了死亡或者刑法上規(guī)定的重大案件,為了給予遇難者應有的賠償,有必要建立一個由制造或擁有這些機器的公司推動的保險基金。比起控制機器人,對那些控制機器的私人公司進行規(guī)制更顯重要。