AI 視覺能達(dá)到怎樣的高度,取決于「前端成像」這塊最短的木板
2018-01-15 17:52:06 來源:搜狐 熱度:
去年 12 月份,一段「BBC 記者挑戰(zhàn)中國天網(wǎng)行人識別系統(tǒng) 潛逃 7 分鐘后被抓獲」的視頻走紅于網(wǎng)絡(luò),在 Facebook 等國外網(wǎng)站上被大量轉(zhuǎn)載。
援引英國廣播公司(BBC)的報(bào)道,BBC 記者約翰·蘇德沃斯在我國貴陽,在被手機(jī)拍下一張面部照片后,約翰·蘇德沃斯開始了他的「潛逃」之路,但不到七分鐘,就被警方抓獲。
之所以警方能夠在極短的時(shí)間內(nèi)就將約翰·蘇德沃斯抓獲,得益于我國的「天網(wǎng)工程」。資料顯示,通過路上為數(shù)眾多的攝像頭,「實(shí)時(shí)行人檢測識別系統(tǒng)」可以識別行人的年齡、性別、衣著等信息,最終來鎖定目標(biāo)。
在這個(gè)過程中,除了引入人工智能之后,為安防帶來了非常大的效率提升之外,作為前端成像的重要組成部分,攝像頭同樣不可忽略。
根據(jù)相關(guān)數(shù)據(jù)顯示,人類獲取的信息 70%-80% 來自于視覺,在如今 AI 時(shí)代,從自動駕駛到智能手機(jī),再到安防,AI 圖像視覺技術(shù)正在被應(yīng)用到越來越多的行業(yè)。
但目前一個(gè)現(xiàn)實(shí)的情況是,受深度學(xué)習(xí)驅(qū)動,云端視覺圖像處理技術(shù)飛速發(fā)展,前端視覺成像技術(shù)卻依舊裹足不前,無法與之相匹配,成為了嚴(yán)重的瓶頸。
視覺 AI 對成像技術(shù)提出了更高的要求
每一次革命性技術(shù)的到來,都有著足以讓人為之「瘋狂」的理由。而想要把它從人類大腦的構(gòu)想中帶到現(xiàn)實(shí)生活里,顯然并不是一件容易的事情。
對于自動駕駛,特斯拉一直以來走的比較激進(jìn),也非??壳?。但在這件事情上,它也「栽過一個(gè)很大的跟頭」。2016 年的時(shí)候,一輛特斯拉 MODEL S 在自動駕駛時(shí)發(fā)生車禍,導(dǎo)致駕駛員死亡,那也是自動駕駛技術(shù)應(yīng)用以來第一起已知的導(dǎo)致死亡的車禍。
當(dāng)時(shí),美國高速公路安全管理局(NHTSA)在公告中表示:5 月 7 日,在佛羅里達(dá)州 Williston,特斯拉 MODEL S 司機(jī)在使用 Autopilot 模式時(shí)發(fā)生事故死亡。初步報(bào)告顯示,當(dāng)時(shí)在一個(gè)十字路口,在這輛特斯拉汽車的前方,一輛重型卡車正在左轉(zhuǎn)。為此,NHTSA 將調(diào)查「事故發(fā)生時(shí)駕駛輔助功能的設(shè)計(jì)和性能」
在隨后特斯拉發(fā)布的調(diào)查報(bào)告中這樣寫道,「當(dāng)時(shí) MODEL S 行駛在一條雙向、有中央隔離帶的公路上,自動駕駛處于開啟模式,此時(shí)一輛拖掛車以與 MODEL S 垂直的方向穿越公路。在強(qiáng)烈的日照條件下,駕駛員和自動駕駛都未能注意到拖掛車的白色車身,因此未能及時(shí)啟動剎車系統(tǒng)?!?/span>
簡單來講,由于當(dāng)時(shí) MODEL S 是逆光行駛,強(qiáng)烈的光線條件加之大貨車白色車身造成反光,導(dǎo)致其所搭載的攝像頭無法正確識別前方物體,是這起事故發(fā)生的直接原因。
數(shù)碼時(shí)代,成像的品質(zhì)標(biāo)準(zhǔn)是主觀的,往往大家關(guān)注的是照片本身的效果是不是符合我們的喜好。因此各家廠商在相機(jī)的調(diào)校上,也不盡相同。而 AI 時(shí)代要求的圖像品質(zhì)標(biāo)準(zhǔn)是客觀的,即圖像是否可以應(yīng)用。
舉例來講,在日常的拍攝過程中,拋開攝影棚等預(yù)設(shè)好的場景,在室外環(huán)境下,遇到到弱光、逆光、反光等等光線條件較差的情況,是在所難免的事情。此時(shí)傳統(tǒng)數(shù)碼成像的效果往往很難令人滿意(比如噪點(diǎn)過高)。
而 AI 時(shí)代要求的圖像品質(zhì)標(biāo)準(zhǔn)是客觀的,即圖像是否可以應(yīng)用。其對于前端成像設(shè)備所反饋回來的圖片信息,有著更高的要求,以便后端進(jìn)行圖形處理時(shí),能夠做出更加精準(zhǔn)的判斷。
回過頭來看,如果當(dāng)時(shí) MODEL S 所配備的攝像頭能夠解決強(qiáng)光、反光的問題,之后的事故也就不會發(fā)生了。
當(dāng)然,自動駕駛僅僅是其中一個(gè)領(lǐng)域,之于安防,也同樣如此。更高的成端成像素質(zhì),無疑將幫助安防系統(tǒng)更加準(zhǔn)確的識別罪犯特征,來進(jìn)一步提升效率。
通過「成像引擎」,讓 AI 圖像視覺更進(jìn)一步
正如前邊我們講到的,在數(shù)碼成像技術(shù)發(fā)展的 30 余年里,諸如如成本高、噪點(diǎn)多、逆光拍攝效果差等問題,始終沒有一個(gè)很好的解決方案。
同時(shí),數(shù)碼成像所輸出的結(jié)果,僅僅是單一的圖像,你無法去控制它的圖像生成過程,這也在很大程度上限制了它的多場景應(yīng)用需要。
隨著 AI 視覺時(shí)代的到來,除了同樣需要得到圖像信號之外,更重要的是需要能夠去獲取圖像生成過程的交互數(shù)據(jù),繼而通過這些數(shù)據(jù)進(jìn)行智能分析,來提升圖像品質(zhì),從而為后端處理提供更加準(zhǔn)確的圖像信號。
成立于 2014 年的 eyemore,一家從事前端成像引擎的技術(shù)公司,就在做這樣的事情。
通過專業(yè)的成像引擎芯片,他們利用自主研發(fā)的成像算法,為各個(gè)應(yīng)用場景下的機(jī)器視覺公司提供前端成像的一體化解決方案,來解決目前 AI 視覺由于光線差導(dǎo)致識別準(zhǔn)確度低以及從圖像算法到視覺硬件產(chǎn)品落地周期太長的問題。
本質(zhì)上,eyemore 所推出的成像引擎與傳統(tǒng)圖像處理器 ISP(Image Signal Processor)所承擔(dān)的角色是一致的。不同的地方在于,其在傳統(tǒng) ISP 之外,加入了 AI 成像算法以及 AI SDK。嚴(yán)格來說,它是面向 AI 軟件算法工程師而設(shè)計(jì)的全新成像體系。
用更為形象化的描述,在整個(gè) AI 視覺處理流程中,成像引擎所扮演的角色,恰恰是連接光學(xué)模組和后端 AI 算法的中間節(jié)點(diǎn),起到承接的作用。
經(jīng)由它進(jìn)行處理之后,輸入到后端算法的信號將擁有更寬的動態(tài)范圍以及更低的噪點(diǎn)控制,從而來提升整個(gè) AI 視覺的識別準(zhǔn)確性。
綜合來講,eyemore 成像引擎的到來,不僅僅填補(bǔ)了國內(nèi)人工智能視覺領(lǐng)域的空白,使國內(nèi)的視覺 AI 產(chǎn)業(yè)鏈更加完整。
從未來整個(gè) AI 的發(fā)展來看,其更重要的意義在于,將為 AI 在對視覺成像有一定要求的領(lǐng)域?qū)崿F(xiàn)落地,提供具有實(shí)際可操作意義的解決方案。
在即將到來的極客公園 IF 大會上(19-21 日),眼擎科技也將發(fā)布全球首款面向 AI 視覺應(yīng)用的 eyemore 成像芯片,屆時(shí)眼擎科技朱繼志將會對這顆耗時(shí)四年,可以大幅提高 AI 視覺算法識別率的芯片予以更為詳細(xì)的解讀,感興趣的朋友不妨關(guān)注下。
責(zé)任編輯:吳禮得