美國Breaking Defense網(wǎng)站發(fā)表了一篇有關(guān)美國國防部副部長鮑勃·沃克論及人工智能如何影響戰(zhàn)爭的文章。
文章說,在應(yīng)用物理實驗室舉行的人工智能會議上,美國軍方一致認為人工智能、機器人和人機協(xié)同將改變戰(zhàn)爭進行的方式,而美國國防部副部長鮑勃·沃克則承認,他開始深信人工智能還將改變戰(zhàn)爭的性質(zhì)是一個很大的過失。文章如下:
沃克既是一名訓(xùn)練有素的美國海軍陸戰(zhàn)隊軍官,也是五角大樓的一位重量級的人工智能支持者。他說,戰(zhàn)爭的性質(zhì)就是意志、擔心、不確定性和可能性的沖突,因此人們必須自問,要是大量的戰(zhàn)爭行動都是在無人系統(tǒng)之間發(fā)生的話,如何能夠逐漸消除擔心。
在經(jīng)典的戰(zhàn)爭理論中,核心的論點就是人類容易出錯。如果不為擔心、憤怒和自尊所支配的機器開始在戰(zhàn)爭中自行決策的話,錯綜復(fù)雜的沖突計劃會發(fā)生難以預(yù)計的改變。沃克說現(xiàn)在戰(zhàn)爭的不確定性正在變得不同于以往,他堅持認為計算機輔助決策能夠幫助指揮官做出更為清晰的判斷。戰(zhàn)爭的不確定性不會消失,雖然人們能夠通過觀看在紅場的閱兵來推測俄羅斯新型坦克的能力,但是敵人的新型人工智能裝置的真實情況只有在作戰(zhàn)中才能夠顯現(xiàn)出來。他說,如果屆時敵人的人工智能裝置比美國的更好,情況就嚴重了。
將人工智能引入戰(zhàn)場會產(chǎn)生前所未有的不確定性,對抗人工智能的交互行動更會形成越來越難以預(yù)計的反饋回路,即混沌理論的軍事應(yīng)用。沃克說,美國決沒有足夠的狹義的人工智能系統(tǒng),在網(wǎng)絡(luò)中與人互動。所謂“狹義的”人工智能系統(tǒng)是指相當于特殊目的的人類智能的項目,而“廣義的”人工智能系統(tǒng)則是相當于全面的人類智能的項目,目前還只能在科幻小說中看到。
五角大樓所執(zhí)行的謹慎的人工智能系統(tǒng)開發(fā)過程經(jīng)常被嘲笑為創(chuàng)新的障礙,特別是其作戰(zhàn)測試和評估嚴格要求智能機器可靠而且可重復(fù)地按照人的預(yù)計行事。沃克強調(diào)說,希望人工智能系統(tǒng)所遵守的一項關(guān)鍵限制就是沒有人的明確命令決不能消滅任何目標。
沃克認為“廣義的”人工智能系統(tǒng)中具有自行決策的武器,決不是人們所追求的。他說美國不會去設(shè)計自行決定打擊某個目標的武器,不過這也并非意味著每次打擊都必須由人去扣動扳機。敵人不會遵守美國給自己加上的限制,自然會給美國帶來使得自己處于不利情況的問題。
對于美國不開發(fā)“廣義的”人工智能系統(tǒng)的限制,一些業(yè)內(nèi)人士提出了異議。例如,漢森機器人公司的CEO戴維·漢森認為,如果一個國家限制自己,不去開發(fā)“廣義的”人工智能系統(tǒng)的話,就會激勵敵人開發(fā)更為復(fù)雜的超出控制的自適應(yīng)機器,以獲得壓倒性優(yōu)勢。
人工智能與其它技術(shù)相比,有可能成為更加強大也更加賺錢的技術(shù)行業(yè),因為它能夠給制造商帶來驚喜,能夠提供他們從未想到的問題解決方法。不過,這也使得人工智能技術(shù)更加危險,尤其是超出控制的人工智能系統(tǒng)可能會造成意想不到的嚴重問題。
牛津大學(xué)的學(xué)者安德斯·桑德伯格認為,對于自主系統(tǒng)的控制非常困難,其原因并非它的任性和渴望自由,而是因為人們所創(chuàng)造的是復(fù)雜的自適應(yīng)技術(shù)系統(tǒng)。事實上,當前流行的創(chuàng)造人工智能系統(tǒng)的最為有效方法不是一行又一行地編寫智能程序,而是創(chuàng)造一臺“學(xué)習機器”,同時給它提供大量的數(shù)據(jù)資料,使它能夠像一個小孩一樣通過反復(fù)體驗和嘗試去學(xué)習??墒?讓這樣的系統(tǒng)正確理解如何學(xué)習和如何做出決定是非常困難的,更談不上預(yù)計它們未來的行動。
對于美國的敵人力圖在人工智能領(lǐng)域獲得壓倒性優(yōu)勢的問題,沃克相信美國的創(chuàng)造性和道德觀念會取得優(yōu)勢,“和美國人一起工作的美國人工智能機器會戰(zhàn)勝那些壓制人民創(chuàng)造潛能的極權(quán)主義者所設(shè)計的人工智能系統(tǒng)”。不過他承認并不能保證如此,說這是一場競賽,必須等待,看競賽如何開展,必須非常謹慎。