長久以來,計算機科學家們都在努力開發(fā)一些能夠“愚弄”人工智能的圖像類型。而這種特殊的圖片和模式,就被稱作“敵對圖像”(adversarial images)。實際上,這么做是利用了計算機看待世界的不同方式,讓人工智能的“眼睛”看到了并不存在的東西(可以理解為 AI 版本的“視覺幻象”)。比如將物理對象打印在紙張上,做出一幅“眼鏡”來考驗面部識別系統(tǒng)?,F(xiàn)在,Google 的研究人員們又想出了新的法子,它就是“神奇貼紙”。
上個月的時候,研究人員已經發(fā)表了一篇描述“敵對圖像”(Adversarial Patch)的論文。雖然算不上是突破性的進展,但至少向前又邁進了一步。
這些測試圖像可以在家里輕松打印出來,與其它“敵對圖像”攻擊不同的是,它們顯得相對“柔性”一點,無需根據(jù)想要覆蓋的圖像、或者 AI 的視角而進行調整。
文中寫到,即便不知道先前的光線條件、相機視角、分類、甚至場景里的其它物品,都可以用貼紙來創(chuàng)建“物理世界的攻擊”。生成了這樣的圖像之后,還可以發(fā)布到網(wǎng)絡上供其它攻擊者打印和使用。
許多人工智能研究人員都擔心,這類方法會對自動駕駛汽車等系統(tǒng)產生危害,比如讓車載系統(tǒng)誤以為高速公路邊有個“停車”的牌子、或者一張防止個人被 AI 監(jiān)視系統(tǒng)識別的標簽。
即便普通人可以注意到這些貼紙的異樣,也不一定會理解它的真實意圖,甚至認為這僅僅是某種藝術的展現(xiàn)形式。
當然,目前暫時也不用擔心出現(xiàn)類似的攻擊,畢竟隨著技術的發(fā)展(打補丁),同樣的套路不一定會在每一套 AI 系統(tǒng)上都奏效。