澳大利亞AI專家:要警惕ISIS未來使用殺手機(jī)器人
2017-06-19 09:16:44 來源:人工智能網(wǎng) 熱度:
來自澳大利亞的人工智能專家認(rèn)為,自動化武器將導(dǎo)致人類進(jìn)入《終結(jié)者》中的場景。如果人類不直接指揮殺人武器,我們就難以控制戰(zhàn)爭。

澳大利亞知名人工智能專家、新南威爾士大學(xué)教授Toby Walsh周二(6月13日)對澳大利亞每日郵報表示,他認(rèn)為,如果自動化武器落入恐怖分子之手,災(zāi)難將會發(fā)生,而這種災(zāi)難過去只發(fā)生在科幻小說中。他說,既然自動化武器能夠自行行動,那么它們就有可能被用來對付平民百姓。包括Walsh在內(nèi)的眾多人工智能專家,試圖讓聯(lián)合國禁止在沒有人為干預(yù)的情況下使用自動化武器。
“如果什么都不做,在50到100年后,世界看起來就像《終結(jié)者》中的樣子了。”Walsh告訴每日郵報澳大利亞記者:“這可能在不久的將來就會發(fā)生。”今天,在韓國與朝鮮接壤的邊境上,有一些“哨兵”機(jī)器人,它們可以移動,有熱傳感器來探測入侵者,還配備了機(jī)關(guān)槍。機(jī)器人需要人類來拉動扳機(jī),但Walsh指出,隨著現(xiàn)代技術(shù)的發(fā)展,他們以后可能不再需要人類來操作了。他認(rèn)為這一點很危險。在沒有人為干預(yù)的情況下使用人工智能武器,將為各國間的人工智能軍備競賽鋪平道路,而這場競賽百害而無一利。
Walsh在2015年寫給聯(lián)合國的公開信中表示:“與核武器不同,它們(人工智能武器)的原材料沒有那么昂貴和難找,因此它們可能會變得無處不在,而且因為成本低廉,可以用于大規(guī)模生產(chǎn)。”這封呼吁禁止自動化武器的信件由成千上萬的研究人員簽了名,其中包括史蒂文霍金、埃隆馬斯克、Noam Chomsky和Yann LeCun等。
這封信敦促聯(lián)合國禁止人工智能武器趨勢,以防止這種情況發(fā)生。他說,真正自動化武器的存在將會破壞地球的穩(wěn)定。它們不僅有可能是致命性武器,而且很容易被恐怖分子利用。Walsh說,ISIS已經(jīng)使用遙控?zé)o人機(jī)在伊拉克投放炸彈了。盡管他擔(dān)心的是對戰(zhàn)爭中避難所的影響,以及恐怖分子對這些武器的利用,不過,自動化武器也難免令人們對未來機(jī)器的崛起感到擔(dān)憂。
責(zé)任編輯:黃焱林