王春暉
人工智能技術(shù)的發(fā)展被稱為第四次工業(yè)革命,是一個(gè)融合計(jì)算機(jī)科學(xué)、統(tǒng)計(jì)學(xué)、腦神經(jīng)學(xué)和社會(huì)科學(xué)的前沿綜合學(xué)科,可以代替人類實(shí)現(xiàn)某種識(shí)別、認(rèn)知、分析和決策等功能,已經(jīng)成為當(dāng)今世界各國(guó)一爭(zhēng)高下的重要場(chǎng)域。
不過,到目前為止,人工智能并沒有確切的定義,有人推測(cè)人工智能的發(fā)展遠(yuǎn)景將經(jīng)歷三個(gè)階段:一是弱人工智能階段;二是強(qiáng)人工智能階段;三是超人工智能階段。筆者認(rèn)為,目前所有的人工智能技術(shù)尚屬于弱人工智能階段。
人工智能面臨的倫理與法律問題
已故著名物理學(xué)家、劍橋大學(xué)教授史蒂芬·霍金在世時(shí)曾警告:在我的一生中,見證了許多社會(huì)深刻變化,其中最深刻的,同時(shí)也是對(duì)人類影響與日俱增的變化,就是人工智能的崛起?;艚鹫J(rèn)為人工智能的發(fā)展,本身是一種存在著問題的趨勢(shì),而這些問題必須在現(xiàn)在和將來得到解決。
筆者認(rèn)為,人工智能在其發(fā)展進(jìn)程中面臨的最大問題不是技術(shù)本身,而是倫理和法律問題。2017年6月,由聯(lián)合國(guó)國(guó)際電信聯(lián)盟主辦的主題為“人工智能造福人類”的全球峰會(huì)在日內(nèi)瓦召開。這次峰會(huì)聚焦了人工智能的兩大國(guó)際性問題:一是加速人工智能的研發(fā)和應(yīng)用,以應(yīng)對(duì)貧困、饑餓、健康、教育和環(huán)境保護(hù)等全球性挑戰(zhàn);二是探討如何確保人工智能的安全性并符合倫理規(guī)范,防止其帶來意想不到的后果。
2016年,標(biāo)準(zhǔn)制定組織IEEE發(fā)布了首份人工智能報(bào)告(2016),其名稱為:“利用人工智能和自主系統(tǒng)(AI/AS)最大化人類福祉的愿景”。該報(bào)告提出了一個(gè)發(fā)展人工智能的一般性原則,主要涉及的是高層次倫理問題,報(bào)告認(rèn)為,人工智能發(fā)展的一般性原則將適用于所有類型的人工智能和自主系統(tǒng)。在確定一般原則時(shí),主要考慮三大因素:一是體現(xiàn)人權(quán);二是優(yōu)先考慮最大化對(duì)人類和自然環(huán)境的好處;三是削弱人工智能的風(fēng)險(xiǎn)和負(fù)面影響。
原則之一:人類利益原則。人類利益原則要求考慮,如何確保人工智能和自主系統(tǒng)不侵犯人權(quán)。為了實(shí)現(xiàn)人工智能和自主系統(tǒng)尊重人權(quán)、自由、人類尊嚴(yán)及文化多樣性,在使用年限內(nèi)是安全、可靠的,一旦造成損害必須能夠找出根本原因(可追溯性)等目的,應(yīng)當(dāng)構(gòu)建治理框架,包括標(biāo)準(zhǔn)化機(jī)構(gòu)和監(jiān)管機(jī)構(gòu),增進(jìn)公眾對(duì)人工智能和自主系統(tǒng)的信任。
原則之二:責(zé)任原則。責(zé)任原則涉及如何確保人工智能和自主系統(tǒng)是可以被問責(zé)的。為了解決過錯(cuò)問題,避免公眾困惑,人工智能系統(tǒng)必須在程序?qū)用婢哂锌韶?zé)性,證明其為什么以特定方式運(yùn)作。
首先,立法機(jī)構(gòu)/法院應(yīng)當(dāng)闡明人工智能系統(tǒng)開發(fā)和部署過程中的職責(zé)、過錯(cuò)、責(zé)任、可追責(zé)性等問題,以便于制造商和使用者可以知曉其權(quán)利和義務(wù)分別是什么;其次,人工智能設(shè)計(jì)者和開發(fā)者在必要時(shí)考慮使用群體的文化規(guī)范的多樣性;再次,當(dāng)人工智能及其影響游離于既有規(guī)范之外時(shí),利益相關(guān)方應(yīng)當(dāng)一起制定新的規(guī)范;第四,自主系統(tǒng)的生產(chǎn)商/使用者應(yīng)當(dāng)創(chuàng)建記錄系統(tǒng),記錄核心參數(shù)。
原則之三:透明性原則。透明性原則意味著,自主系統(tǒng)的運(yùn)作必須是透明的,人們能夠發(fā)現(xiàn)其如何以及為何作出特定決定。人工智能的不透明性,加上人工智能開發(fā)的去中心化模式,加重了責(zé)任確定和責(zé)任分配的難度。透明性對(duì)每個(gè)利益相關(guān)方都意義重大:第一,對(duì)使用者,透明性可以增進(jìn)信任,讓其知道人工智能系統(tǒng)可以做什么及其這樣做的原因;第二,對(duì)人工智能和自主系統(tǒng)批準(zhǔn)和認(rèn)證機(jī)構(gòu),透明性能確保人工智能系統(tǒng)可以接受審查;第三,如果發(fā)生事故,透明性有助于事故調(diào)查人員查明事故原因;第四,事故發(fā)生之后,參與審判的法官、陪審團(tuán)、律師、專家證人需要借助透明性來提交證據(jù),作出決定;第五,對(duì)于自動(dòng)駕駛汽車等顛覆性技術(shù),一定程度的透明性有助于增強(qiáng)公眾對(duì)技術(shù)的信心。
原則之四:教育和意識(shí)原則。教育和意識(shí)原則涉及如何擴(kuò)大人工智能和自主系統(tǒng)技術(shù)的好處,最小化其被濫用的風(fēng)險(xiǎn)。在人工智能和自主系統(tǒng)越來越普及的時(shí)代,需要推進(jìn)倫理教育和安全意識(shí)教育,讓人們警惕人工智能和自主系統(tǒng)被濫用的潛在風(fēng)險(xiǎn)。這些風(fēng)險(xiǎn)可能包括黑客攻擊、賭博、操縱、剝削等。
2018年7月,中國(guó)發(fā)展研究基金會(huì)在其發(fā)布的一份《未來基石——人工智能的社會(huì)角色與倫理》的報(bào)告中也指出,盡管有少數(shù)哲學(xué)和社科領(lǐng)域的學(xué)者開始關(guān)注人工智能帶來的倫理問題和社會(huì)挑戰(zhàn),但是這些討論并未進(jìn)入公共政策視界,而且討論的重點(diǎn)也多集中在超級(jí)人工智能這樣仍相對(duì)遙遠(yuǎn)的議題上。該報(bào)告認(rèn)為,在人工智能問題上,圍繞可能出現(xiàn)的挑戰(zhàn),無知、忽視、偏狹、誤解交織在一起,可能會(huì)導(dǎo)致真正的風(fēng)險(xiǎn)。該報(bào)告建議:在社會(huì)層面,高校和研究機(jī)構(gòu)開展前瞻性的科技倫理研究,為相關(guān)規(guī)范和制度的建立提供理論支撐;各國(guó)政府、產(chǎn)業(yè)界、研究人員、民間組織和其他利益攸關(guān)方展開廣泛對(duì)話和持續(xù)合作,通過一套切實(shí)可行的指導(dǎo)原則,鼓勵(lì)發(fā)展以人為本的人工智能;人工智能企業(yè)應(yīng)該將倫理考量納入企業(yè)社會(huì)責(zé)任框架中。
事實(shí)上,人工智能和自主系統(tǒng)帶來了許多復(fù)雜的倫理問題,這些倫理問題往往直接轉(zhuǎn)化為具體的法律挑戰(zhàn),或是引發(fā)復(fù)雜的連帶法律問題。每個(gè)倫理問題一般都涉及相關(guān)法律問題。筆者認(rèn)為,當(dāng)前的人工智能本質(zhì)上是一種建立在大數(shù)據(jù)基礎(chǔ)上的自我學(xué)習(xí)、判斷和決策的算法,算法的核心是基于網(wǎng)絡(luò)的編程技術(shù),但這種編程技術(shù)絕非中立,人工智能的算法決策具有典型的“黑箱”特點(diǎn),這應(yīng)當(dāng)引起現(xiàn)代法律人的高度警惕,進(jìn)行深入研究,應(yīng)當(dāng)從倫理學(xué)和法律融合的角度深入審視和研究人工智能的算法。筆者呼吁,人工智能的算法必須確立法律的可追溯性原則,人工智能的行為決策全程應(yīng)當(dāng)處于法律監(jiān)管之下。
構(gòu)建公開透明的人工智能全過程監(jiān)管體系
我國(guó)應(yīng)當(dāng)建立健全公開透明的人工智能監(jiān)管體系,重點(diǎn)在人工智能的設(shè)計(jì)問責(zé)和應(yīng)用監(jiān)督并重的雙層監(jiān)管結(jié)構(gòu)上做充分的準(zhǔn)備,實(shí)現(xiàn)對(duì)人工智能算法設(shè)計(jì)、產(chǎn)品開發(fā)和成果應(yīng)用等的全過程監(jiān)管。促進(jìn)人工智能行業(yè)和企業(yè)自律,切實(shí)加強(qiáng)人工智能協(xié)同一體化的管理體系,加大對(duì)人工智能領(lǐng)域數(shù)據(jù)濫用、算法陷阱、侵犯?jìng)€(gè)人隱私、違背道德倫理等行為的懲戒力度。
在人工智能技術(shù)研發(fā)的同時(shí),要加強(qiáng)人工智能相關(guān)法律、倫理和社會(huì)問題的同步研究,尤其要關(guān)注人工智能模仿人類傳播錯(cuò)誤信息或?qū)⑸虡I(yè)無人機(jī)轉(zhuǎn)化為目標(biāo)武器攻擊人類,建立和優(yōu)化保障人工智能健康發(fā)展的法律法規(guī)和倫理道德框架。法律研究領(lǐng)域要開展與人工智能應(yīng)用相關(guān)的民事與刑事責(zé)任確認(rèn)、隱私和產(chǎn)權(quán)保護(hù)、機(jī)器倫理與破壞力評(píng)價(jià)等倫理與法律問題的交叉研究,建立人工智能的可追溯和問責(zé)制度,明確人工智能的設(shè)計(jì)者、控制者、使用者等相關(guān)法律主體的權(quán)利、義務(wù)和責(zé)任。
關(guān)于人工智能監(jiān)管的原則,科幻作家艾薩夫·阿西莫夫于1942年提出的“機(jī)器人學(xué)三律”仍具有參照價(jià)值,非常值得借鑒:
第一定律:機(jī)器人不得傷害人類個(gè)體,或者目睹人類個(gè)體將遭受危險(xiǎn)而袖手不管;
第二定律:機(jī)器人必須服從人給予它的命令,當(dāng)該命令與第一定律沖突時(shí)例外;
第三定律:機(jī)器人在不違反第一、第二定律的情況下要盡可能保護(hù)自己的生存。
筆者建議,國(guó)家有關(guān)部門或行業(yè)組織應(yīng)當(dāng)制定人工智能產(chǎn)品研發(fā)設(shè)計(jì)人員的道德規(guī)范和行為守則,加強(qiáng)對(duì)人工智能潛在危害與收益的評(píng)估,構(gòu)建人工智能復(fù)雜場(chǎng)景下突發(fā)事件的解決方案。同時(shí),我國(guó)應(yīng)當(dāng)積極參與人工智能的全球治理,加強(qiáng)機(jī)器人異化和安全監(jiān)管等人工智能重大國(guó)際共性問題研究,深化在人工智能法律法規(guī)、國(guó)際規(guī)則等方面的國(guó)際合作,構(gòu)建我國(guó)人工智能領(lǐng)域的國(guó)際制度性話語權(quán)。