人工智能承諾讓我們的生活更美好,但目前仍有許多問題需要解決。微軟公司建議,學(xué)術(shù)界、產(chǎn)業(yè)界和政府在介入時(shí)要遵循適當(dāng)和有效的道德規(guī)范。
在未來十年左右的時(shí)間里,政府和社會組織會廣泛應(yīng)用人工智能技術(shù),這將給社會帶來顛覆性的變革,就像過去二十年里個(gè)人電腦和移動智能設(shè)備那樣——或許更甚。人工智能技術(shù)有可能滲透到我們集體心理的每個(gè)角落,改變我們與周圍世界的互動方式,而這些方式我們將無法想象。
圍繞人工智能的應(yīng)用所導(dǎo)致的社會動蕩等不確定性因素,讓人們產(chǎn)生了許多擔(dān)憂,尤其是對那些像微軟一樣研究、開發(fā)和推廣人工智能技術(shù)的公司來說。雖然人工智能產(chǎn)業(yè)領(lǐng)導(dǎo)者可獲得的經(jīng)濟(jì)利益顯而易見,但要使人工智能成為一項(xiàng)絕對有利可圖的事業(yè),現(xiàn)在仍然有太多無法解決的問題,以及太多不可預(yù)測的后果。
這種令人不安的不確定性是微軟最近發(fā)布新書《未來計(jì)算:人工智能及其社會角色》(The Future Computed: Artificial Intelligence and its role in society)的原因之一。
書中展現(xiàn)了微軟關(guān)于人工智能如何影響企業(yè)和消費(fèi)者日常生活的愿景。此外還提到了一些在未來生活中不可或缺的行業(yè)領(lǐng)域,微軟認(rèn)為學(xué)術(shù)界、工業(yè)界和政府需要確立適用有效的倫理規(guī)范和法律法規(guī),以規(guī)避人工智能在這些領(lǐng)域可能造成的潛在危害。
未來在這里
當(dāng)我們討論顛覆性的時(shí)候,我們并不是在談?wù)撓瘛督K結(jié)者》這樣的電影中所描繪的邪惡的人工智能。微軟和其他大多數(shù)人更關(guān)心的是人工智能的惡意濫用。我們已經(jīng)看到了不道德的政治代理人掌握的敏感個(gè)人數(shù)據(jù)對毫無戒心的個(gè)人造成的影響。
微軟在書中認(rèn)為,技術(shù)人員必須與政府、學(xué)術(shù)界、商界和其他利益相關(guān)方密切合作,就如何在以下六個(gè)倫理原則下使用和部署人工智能提供指導(dǎo):
·公平(Fairness)
·可靠性與安全性(Reliability and safety)
·隱私和安全(Privacy and security)
·包容性(Inclusivity)
·透明化(Transparency)
·責(zé)任(Accountability)
微軟針對與人工智能發(fā)展相關(guān)的潛在問題都提出了民主化的解決方案。如果每個(gè)人都可以使用人工智能開發(fā)工具,并且可以構(gòu)建自己的基于人工智能的解決方案,那么沒有人能夠獨(dú)占人工智能的好處,或者潛在的缺陷。這本書認(rèn)為,人工智能的民主化可能還不夠,但政府和其他利益相關(guān)方必須積極參與其中。
從歷史上看,無論新技術(shù)如何被引入到一個(gè)社會,技術(shù)進(jìn)步都會打破這個(gè)社會的現(xiàn)狀。人工智能也不例外。一些行業(yè)注定會因人工智能的廣泛應(yīng)用而受到?jīng)_擊,而其他行業(yè)則會蓬勃發(fā)展。毫無疑問,一些工作崗位將被取消,一些新的工作崗位又將被創(chuàng)造出來取代它們。在接下來的幾十年里,這一切都將是我們必須共同面對的問題。
為了避免政府、倫理學(xué)家和其他利益相關(guān)者的反對和質(zhì)疑,微軟認(rèn)為,在那些不擇手段的人對這一潛在的有利可圖的事業(yè)造成不可挽回的損害之前,技術(shù)人員就應(yīng)該思考和討論如何在人工智能發(fā)展初期阻止這些行為。
這可能是一個(gè)非常好的建議,因?yàn)槿斯ぶ悄艿膶?shí)施如果被用于惡意的目的,可能會帶來前所未有的傷害。