隨著科學技術的進步,國家執(zhí)法部門和安全部門也在不斷引入新的智能技術,以更好的抵制不斷演變的恐怖主義威脅和高科技犯罪威脅。
支持智能技術的大數(shù)據(jù)分析和人工智能(AI)的全部潛力被合理利用是由兩個關鍵考慮因素決定的。首先,社會研究表明,全新的技術被采納不僅是為了更有效地繼續(xù)當前的業(yè)務實踐。更重要的是,它還需要不斷的重新評估這些實踐結果,以便在不斷變化的需求面前保持彈性。其次,是否采納一項全新的技術,不僅僅需要從業(yè)務決策和技術需求層面考慮,還需要從倫理道德層面分析思考,這是一個多方面的過程。
支持執(zhí)法的私人保安部門采用智能技術(如閉路電視巡邏系統(tǒng)和無人駕駛飛機),以保護公共場所和大型活動。通過自動化來克服巡邏中的人為限制,以便更好地發(fā)現(xiàn)潛在威脅。技術引進的第一步是通過成本和生產(chǎn)力改進,使當前的業(yè)務實踐更有效率。
相關執(zhí)法部門采用最新的智能技術,如閉路電視巡邏系統(tǒng)或無人機技術,以保障公共場所安全,維持大型活動秩序,通過自動化技術來克服巡邏中的人為限制,以便更好地發(fā)現(xiàn)潛在威脅。新技術的引入首先能降低成本、改進生產(chǎn)力,從而進一步提高業(yè)務實踐的效率。
為此,相關執(zhí)法部門將隨著智能技術的發(fā)展發(fā)揮更多的能力,在恐怖襲擊發(fā)生前迅速獲取相關信息,及時進行情報分析,減少監(jiān)控盲點,加強跨部門信息共享,全面降低違法行為風險。目前,各大商場正在逐步引進與公安系統(tǒng)聯(lián)網(wǎng)的安全系統(tǒng)產(chǎn)品。
然而,這一安全系統(tǒng)引發(fā)了重要的倫理問題:這一系統(tǒng)主要是利用人工智能進行威脅預測和可以分析,這將會引起所謂的“自動歧視”,即采寫、收錄相關基礎大數(shù)據(jù)的工作人員的主觀偏見,這可能會引起社會某些階層的關注。
“自動歧視”是新生的詞匯,需要加以正面的引導。隨著閉路電視巡邏系統(tǒng)的增加普及,這一問題的重要性將會增長。它可能會引起人們對守法人士的錯誤目標的恐懼,從而影響公眾對執(zhí)法部門和國家的信任和信任。這不僅僅是一個政策挑戰(zhàn),它與算法和大數(shù)據(jù)中的非預期偏差的技術問題相交叉,可能導致人工智能系統(tǒng)產(chǎn)生的分析偏斜。算法是計算機程序,它精確地告訴計算機要采取什么步驟來解決某些問題。
受限于編寫此人工智能算法的程序員主觀反映,人工智能算法偏差問題可能會導致人工智能監(jiān)視系統(tǒng)發(fā)布諸多虛假警報的風險,甚至因此誤導了執(zhí)法部門的情報分析,錯誤的逮捕了不應被警方關注的人。例如,有媒體報道了由廣州云從科技研發(fā)的一款人工智能系統(tǒng),根據(jù)計算一個人的臉部特征和行為舉止,來判斷此人是否具有社會威脅性,進一步提示警方采取先發(fā)制人的行動,組織犯罪行為的發(fā)生。這一系統(tǒng)受到大量道德層面的譴責,部分人士認為,緊靠面部特征來判斷一個人是否有犯罪傾向,是非常不合倫理的,它可能在不知不覺間含有人類對種族、地域的倫理偏見。此前便有人工智能分析系統(tǒng)向芝加哥警方發(fā)布帶有種族歧視色彩的預警報告的案例。
從本質(zhì)上說,有研究表明,人工智能系統(tǒng)既是復雜的算法,也僅僅是系統(tǒng)訓練和工作數(shù)據(jù)的簡單收集。因此,這些系統(tǒng)可能產(chǎn)生更多帶有“自動歧視”色彩的分析結果,并將這一類數(shù)據(jù)訓練不斷加強深化,從而導致在某些地域產(chǎn)生警民關系緊張的結果。
總之,新興的人工智能技術在增加監(jiān)控的前提下能夠有效的收集情報,并將其充分分析,更好的阻止安全威脅事件的發(fā)生,但也可能因此產(chǎn)生嚴重的“自動歧視”的倫理問題。為了使人工智能安全系統(tǒng)發(fā)揮應有的作用,加強監(jiān)視和構建倫理之間必須有一個可以被廣泛接受的平衡。如果在采用人工智能技術的過程中包含了日后數(shù)據(jù)收集訓練的方向,那么可能會減少假警報的風險,也可以在人工智能驅(qū)動的決策中的充分體現(xiàn)其公平性,以最大幅度減少其可能對社會產(chǎn)生的負面影響。