專家稱,人工智能機器人應該被賦予自我懷疑的屬性,并有必要讓機器人尋求人類肯定,以防人類被機器人推翻。
隨著真正的人工智能的發(fā)展,專家們朝著奇點(機器將變得比人類更聰明)不斷靠攏,研究人員正在研究如何確保人類在未來仍然是在地球的頂端。許多專家警告說,開發(fā)和我們一樣有能力的機器會帶來危險,因為它可能會讓人類失業(yè),并最終將我們視為阻礙,把我們從地球上抹去。
為了應對這一威脅,科學家們提出了可以對應的措施,其中一個思路是,開發(fā)人員應該給人工智能裝上自我懷疑的能力。這個想法認為,如果人工智能會去懷疑他們自己,它就需要從人類那里尋求安慰,就像狗一樣。這樣就能鞏固我們作為地球統(tǒng)治階層的地位。
來自加利福尼亞大學的一個小組的研究結果顯示,自我懷疑的機器人更聽話。該研究小組在一篇發(fā)表在arXiv的論文中寫道:“很明顯,用來降低AI系統(tǒng)行為不當風險的措施之一,是設計人類關閉系統(tǒng)的功能。隨著人工智能系統(tǒng)的能力不斷提高,應確保此類系統(tǒng)不會產生與人類關閉系統(tǒng)起沖突的子目標。我們的研究目的是發(fā)現人工智能允許自己被關閉的動機是什么。在一個模擬實驗中,一個機器人的“大腦”被人為關閉了,同時他能夠自動重啟。沒有自我懷疑屬性的機器人重新啟動,但擁有該屬性的機器人因它不確定結果是否違背人類的意愿而并未重啟。”
該團隊總結道:我們的分析表明,那些對其自身功能不明的人工智能,他們有動機去接受或尋求人類的監(jiān)督。因此,開發(fā)對其本身功能不明確的系統(tǒng),是設計研究安全人工智能系統(tǒng)方向一個很有前景的領域。