欧美色图 亚洲|野外口爆视频国产|久久精品视频观看|97精品人人抽插

評(píng)論:別再神話人工智能了 專家回應(yīng)凡事不要夸大其詞

2018-02-24 10:56:13 來(lái)源:頭條推薦 熱度:
AI技術(shù)目前還在初級(jí)階段,一個(gè)對(duì)于人類來(lái)說(shuō)簡(jiǎn)單至極的任務(wù),到了AI模型面前卻成為巨大的挑戰(zhàn)。1月初,人工智能(ArtificialIntelligence,AI)領(lǐng)域出現(xiàn)了一個(gè)標(biāo)志性事件:阿里巴巴和微軟的團(tuán)隊(duì)在斯坦福大學(xué)的閱讀理解問(wèn)答測(cè)試中,創(chuàng)造出超越人類水平的成績(jī)。因?yàn)檫@個(gè),有些媒體打出大字標(biāo)題:人工智能的閱讀理解能力已經(jīng)超過(guò)人類。AI模型已經(jīng)能夠比人類更好地理解文章內(nèi)容了嗎?
 
 
先放下這個(gè)問(wèn)題,看看AI的另一類重要領(lǐng)域:圖像識(shí)別。圖像識(shí)別是AI最早取得重大突破的領(lǐng)域。2012年,谷歌的兩位技術(shù)大牛JeffDean和吳恩達(dá)(AndrewNg)構(gòu)建神經(jīng)網(wǎng)絡(luò)模型,通過(guò)自主學(xué)習(xí)YouTube上的圖像資料,讓神經(jīng)網(wǎng)絡(luò)模型具備了對(duì)于貓的識(shí)別能力,并掀起了機(jī)器學(xué)習(xí)構(gòu)建AI模型的行業(yè)熱潮。在最前沿的AI行業(yè)應(yīng)用中,如自動(dòng)駕駛系統(tǒng),圖像識(shí)別也是其構(gòu)建整個(gè)應(yīng)用的基礎(chǔ)能力。
 
所以圖像識(shí)別能力的發(fā)展實(shí)際上是整個(gè)AI產(chǎn)業(yè)能力發(fā)展的縮影。但就在2017年底至2018年初,AI的圖像識(shí)別似乎遇到一些難以解決的問(wèn)題。這些問(wèn)題,恐怕可以很好地說(shuō)明一個(gè)真相:目前的AI能力,是十分容易被欺騙的,失之毫厘,謬以千里。2018年1月《連線》雜志報(bào)道,谷歌公司偷偷地把“猩猩”(gorilla)、“黑猩猩”(chimp/chimpanzee)和“猴子”(monkey)標(biāo)簽從圖片分類選項(xiàng)中去除。
 
這是怎么回事呢,事情還要從三年前說(shuō)起。2015年6月,一位黑人程序員在使用谷歌的照片分類模型對(duì)自己的照片進(jìn)行自動(dòng)分類標(biāo)注時(shí),驚奇地發(fā)現(xiàn)他的一位黑人好友的照片被打上了“猩猩”的標(biāo)簽。他憤而將此事發(fā)布在互聯(lián)網(wǎng)上并得到高度關(guān)注。在一向強(qiáng)調(diào)政治正確和反對(duì)種族歧視的美國(guó),一個(gè)企業(yè)的產(chǎn)品有如此嚴(yán)重的種族主義錯(cuò)誤,這無(wú)論如何都是不能被接受的。谷歌公司的反饋也非常之快。
 
他們立即就暫停了該分類標(biāo)簽功能,并表示將盡快調(diào)整模型,從根本上防止此類事件的再度發(fā)生。當(dāng)時(shí)提供這個(gè)分類標(biāo)簽功能的,就是谷歌早期的AI圖像識(shí)別模型。按理說(shuō),在AI技術(shù)飛速發(fā)展的三年后,借助于更加豐富的數(shù)據(jù)來(lái)源和更加強(qiáng)大的云計(jì)算平臺(tái),谷歌的圖像識(shí)別AI模型應(yīng)該已經(jīng)具備了比2015年精確得多的識(shí)別能力。但谷歌最終的解決方法卻是靜悄悄地把引起麻煩的標(biāo)簽從標(biāo)簽庫(kù)中去除。
 
我們雖然無(wú)法得知其中的細(xì)節(jié),但對(duì)于目前AI模型的能力不由得會(huì)有一絲懷疑:準(zhǔn)確區(qū)分靈長(zhǎng)類動(dòng)物和黑人對(duì)于AI模型就真的那么難嗎?是的,在某些場(chǎng)景下,對(duì)于幾乎所有智力正常的人類甚至三歲小孩都能完成的圖像識(shí)別,對(duì)于AI模型卻是難上加難。GoogleInceptionv-3是Google公司在自己的AI平臺(tái)Tensorflow上的開(kāi)源圖像識(shí)別神經(jīng)網(wǎng)絡(luò)模型,Top-5錯(cuò)誤率可以低到3.46%。
 
代表了人工智能圖像識(shí)別領(lǐng)域的領(lǐng)先水平(圖像識(shí)別的判別指標(biāo),模型對(duì)每幅圖像同時(shí)提供5個(gè)類別標(biāo)簽,其中任何一個(gè)類別標(biāo)簽判別正確,結(jié)果都算正確。當(dāng)5個(gè)標(biāo)簽全部錯(cuò)誤,才算判別錯(cuò)誤)。麻省理工計(jì)算機(jī)科學(xué)和人工智能實(shí)驗(yàn)室的實(shí)驗(yàn)人員2017年10月完成了一個(gè)有趣的實(shí)驗(yàn)。他們通過(guò)對(duì)于被判別物體的表面和顏色進(jìn)行特殊處理,單純改變表面材質(zhì)和顏色進(jìn)行欺騙。
 
就可以讓GoogleInceptionv-3圖像識(shí)別AI模型做出錯(cuò)誤判斷,讓其把海龜識(shí)別為槍支,把棒球識(shí)別為濃縮咖啡(espresso)。另一個(gè)有關(guān)圖像識(shí)別的欺詐則是來(lái)自于谷歌公司自己的研究團(tuán)隊(duì)。他們?cè)?017年12月創(chuàng)造出一種被稱為“對(duì)抗性補(bǔ)丁”(AdversarialPatch)的物體,能夠成功干擾現(xiàn)有的谷歌圖像識(shí)別AI模型,讓其把香蕉識(shí)別為烤面包機(jī)。正常狀態(tài)下,圖像識(shí)別模型能夠準(zhǔn)確識(shí)別香蕉。
 
但放置了這個(gè)“對(duì)抗性補(bǔ)丁”后,圖像識(shí)別模型立即產(chǎn)生錯(cuò)誤判別。根據(jù)谷歌的研究結(jié)果,這種基于特定“補(bǔ)丁”的圖像識(shí)別攻擊,“補(bǔ)丁”面積只要占據(jù)不到10%的識(shí)別面積,就可以達(dá)到90%以上的攻擊成功率。令人驚嘆的是,利用“補(bǔ)丁”攻擊的過(guò)程非常簡(jiǎn)單。這些干擾性“補(bǔ)丁”可以很方便地打印出來(lái),添加到任何場(chǎng)景或圖片中,或者放置在被識(shí)別物品的旁邊,以便被圖像識(shí)別的攝像頭捕捉到。
 
哪怕這個(gè)“補(bǔ)丁”很小,它們也能夠誘導(dǎo)AI模型忽略邊上應(yīng)該被識(shí)別的物體,而把識(shí)別的焦點(diǎn)吸引到自身,最終導(dǎo)致AI模型做出錯(cuò)誤的判斷。一名人類兒童甚至一條狗、一只貓?jiān)谟^察圖像時(shí)會(huì)出現(xiàn)這樣的錯(cuò)誤嗎?當(dāng)然不會(huì)。這像神話一樣的操作,恰恰說(shuō)明了目前基于AI的圖像識(shí)別,和人類以及動(dòng)物的圖像識(shí)別模式是完全不同的。我們知道,目前絕大多數(shù)圖像識(shí)別模型都是基于神經(jīng)網(wǎng)絡(luò)算法構(gòu)造的。
 
這種算法通過(guò)建立多重隱藏層和計(jì)算單元間復(fù)雜的連接關(guān)系,對(duì)圖像信息進(jìn)行層層分解和抽象,從而構(gòu)造出包含圖像內(nèi)多重信息特征的特征圖。如明暗、顏色、形狀、相互關(guān)系等等。最后通過(guò)特征圖內(nèi)多重特征信息的判別最終完成對(duì)于圖像的整體判別。人類顯然不是這樣進(jìn)行圖像識(shí)別的。如果識(shí)別機(jī)理相似,那欺騙AI的方式應(yīng)該會(huì)對(duì)人類有起碼的干擾作用。
 
但這些對(duì)于AI模型的干擾效果從人類的角度來(lái)看都像是笑話。人類的大腦皮層對(duì)于圖像和形狀的判別機(jī)制目前幾乎是未知的。最新科技創(chuàng)造出的AI模型判別方式只是在某些方面達(dá)到了近似人類圖像識(shí)別的效果,但千萬(wàn)不要認(rèn)為AI真的認(rèn)識(shí)圖像或形狀,它只是以一種你無(wú)法理解的方式對(duì)于圖像進(jìn)行標(biāo)記和識(shí)別。為什么谷歌公司歷時(shí)三年,都最終無(wú)法建立準(zhǔn)確識(shí)別靈長(zhǎng)類動(dòng)物和黑人的AI模型?
 
這就是原因。因?yàn)榕袆e方式的天差地別,一個(gè)對(duì)于人類的簡(jiǎn)單任務(wù),到了AI模型面前卻成為巨大的挑戰(zhàn)。目前,絕大部分人工智能模型都是基于神經(jīng)網(wǎng)絡(luò)這樣的“黑盒子”模型構(gòu)建而成。雖然在絕大多數(shù)場(chǎng)景下,模型都能夠做出準(zhǔn)確度較高的識(shí)別和預(yù)測(cè)。但識(shí)別和預(yù)測(cè)規(guī)則完全不透明的情況下,連研究者自己都不知道模型的判斷規(guī)則。這意味著一旦人工智能被發(fā)現(xiàn)某些特定的缺陷。
 
將有機(jī)會(huì)對(duì)其進(jìn)行有針對(duì)性的欺騙。所以,AI模型圖像識(shí)別的缺陷有可能會(huì)在部分行業(yè)應(yīng)用中導(dǎo)致嚴(yán)重的后果。2017年9月,伯克利等四所大學(xué)的聯(lián)合項(xiàng)目組進(jìn)一步研究了AI在自動(dòng)駕駛系統(tǒng)中的應(yīng)用。項(xiàng)目組發(fā)現(xiàn),只要在現(xiàn)有的交通標(biāo)志上粘貼少量圖形,就可以誘導(dǎo)自動(dòng)駕駛系統(tǒng)把“停牌”標(biāo)志識(shí)別為“限速”標(biāo)志。由于這些欺騙手段對(duì)于自動(dòng)駕駛系統(tǒng)判別結(jié)果的干擾非常成功。
 
這篇論文的標(biāo)題甚至使用了“來(lái)自真實(shí)世界的穩(wěn)健性攻擊——面向深度學(xué)習(xí)模型”(RobustPhysical-WorldAttacksonDeepLearningModels)這樣字眼。這些案例都是對(duì)被識(shí)別圖像進(jìn)行少量的顯著修改來(lái)欺騙AI模型,由于這些修改相對(duì)明顯,人眼還可以主動(dòng)識(shí)別出來(lái)。部分更加復(fù)雜的攻擊有可能以人類無(wú)法察覺(jué)的方式進(jìn)行。同樣還是谷歌的圖像識(shí)別模型,在正確識(shí)別的基礎(chǔ)上。
 
麻省理工的研究者只是修改了少量的圖形像素,同樣達(dá)到了欺騙模型的目的,把槍支識(shí)別為直升機(jī)。而修改前和修改后的這兩張圖,人眼看來(lái)完全一樣。所以,目前的AI模型,起碼在圖像識(shí)別領(lǐng)域,是可以被人為欺騙的。而欺騙的手段五花八門,甚至可以使用人類肉眼完全無(wú)法識(shí)別的方式進(jìn)行。阿里巴巴和微軟的AI模型在閱讀理解測(cè)試方面超過(guò)了人類。
 
其實(shí)這一事件的意義并不是像普通大眾想象的那樣,AI模型已經(jīng)可以比人類更好地理解文章內(nèi)容了。既然是閱讀理解測(cè)試,那么決定最終成績(jī)的是測(cè)試結(jié)果。通過(guò)成績(jī)單可以總結(jié)出來(lái),這個(gè)閱讀理解測(cè)試其實(shí)是回答填空題。填空題的答案是出現(xiàn)在文章中的某個(gè)日期、時(shí)間、對(duì)象等。對(duì)閱讀理解考試有豐富經(jīng)驗(yàn)的人了解,先不通讀文章,能夠立即開(kāi)始答題嗎?答案一定是可以。
 
根據(jù)問(wèn)題找答案,問(wèn)時(shí)間找時(shí)間,問(wèn)地點(diǎn)找地點(diǎn),問(wèn)對(duì)象根據(jù)上下文找名詞。不用閱讀文章并理解整篇文章的主旨,人類可以蒙對(duì)很多答案。同樣地,對(duì)于AI模型來(lái)說(shuō),它只是建立了詞與詞、詞組與詞組的關(guān)聯(lián)關(guān)系,并結(jié)合上下文的位置信息,提供模型判別概率最高的答案。如果你認(rèn)為AI模型真的理解了它所閱讀的文章,那你就是用人類思維去套用AI的模型構(gòu)造方式,這是完全不對(duì)的。
 
最終AI模型只是根據(jù)文章形成詞與詞的關(guān)聯(lián)關(guān)系,并使用這一關(guān)聯(lián)關(guān)系回答問(wèn)題。所以,千萬(wàn)不要相信,AI系統(tǒng)現(xiàn)在已經(jīng)完全具備了識(shí)別、判斷甚至認(rèn)知的功能。因?yàn)椋珹I目前具有的這些功能和人類通常意義上的理解是完全不同的。并且,我們也無(wú)法完全信任一個(gè)AI系統(tǒng)——現(xiàn)有的AI是非常容易被欺騙的,而且欺騙的操作可以非常簡(jiǎn)單,這對(duì)于大眾認(rèn)識(shí)AI并合理使用AI是非常重要的。

責(zé)任編輯:吳一波