欧美色图 亚洲|野外口爆视频国产|久久精品视频观看|97精品人人抽插

2018年,這些人工智能芯片將上市

2018-01-30 21:17:48 來(lái)源:EE Times 熱度:
行業(yè)第一次致力于軟件融合。
 
在早期的瘋狂和分散之中,即使是軟件融合的努力也是分散的。百度的人工智能研究團(tuán)隊(duì)進(jìn)行了一項(xiàng)調(diào)查,發(fā)現(xiàn)了11項(xiàng)措施,彌補(bǔ)用于管理神經(jīng)網(wǎng)絡(luò)的競(jìng)爭(zhēng)軟件框架之間的差距。
 
最有希望的是開放神經(jīng)網(wǎng)絡(luò)交換(ONNX),這是一個(gè)由Facebook和微軟開始的開源項(xiàng)目,最近由亞馬遜加入。該小組在12月份發(fā)布了ONNX格式的第一版。它旨在將用十幾個(gè)競(jìng)爭(zhēng)軟件框架中的任何一個(gè)創(chuàng)建的神經(jīng)網(wǎng)絡(luò)模型轉(zhuǎn)換成圖形表示。
 
芯片制造商可以在結(jié)果圖上定位他們的硬件。這對(duì)于那些不能編寫?yīng)毩④浖?lái)支持競(jìng)爭(zhēng)模型框架的創(chuàng)業(yè)公司來(lái)說(shuō)是個(gè)好消息,例如Amazon的MxNet,Google的TensorFlow,F(xiàn)acebook的Caffe2以及微軟的CNTK。
 
由30多家主要芯片供應(yīng)商組成的團(tuán)隊(duì)于12月20日發(fā)布了他們的首選選項(xiàng) - 神經(jīng)網(wǎng)絡(luò)交換格式(Neural Network Exchange Format,簡(jiǎn)稱NNEF)。NNEF旨在為芯片制造商提供創(chuàng)建自己的內(nèi)部格式的替代方案,就像英特爾在Nervana Graph和Nvidia所做的那樣與TensorRT。
 
在百度找到的其他格式的大寫字母名稱縮寫中,有ISAAC,NNVM,Poplar和XLA。百度硅谷人工智能實(shí)驗(yàn)室高級(jí)研究員格雷格·迪莫斯(Greg Diamos)表示:“現(xiàn)在知道是否會(huì)出現(xiàn)一個(gè)成功的實(shí)施可能還為時(shí)過(guò)早,但是我們正在走上一條更好的路,其中一條最終可能會(huì)勝出。”
AI18012401
AI18012401 圖文: 在人工智能框架中,亞馬遜聲稱其MxNet框架和新興的Gluon API提供了最好的效率。 (來(lái)源:亞馬遜)
 
另外,谷歌已經(jīng)開始使用軟件來(lái)自動(dòng)化精簡(jiǎn)DNN模型的過(guò)程,以便他們可以運(yùn)行從智能手機(jī)到物聯(lián)網(wǎng)(IoT)節(jié)點(diǎn)的所有事情。 如果成功的話,可以將50Mbyte的模型降低到500K字節(jié)。
 
谷歌還在探索如何在手機(jī)上進(jìn)行有限的模型培訓(xùn),方法是根據(jù)當(dāng)天收集的數(shù)據(jù)調(diào)整模型的頂層或者在夜間運(yùn)行的一個(gè)流程。 像SqueezeNet和MobileNet這樣的行業(yè)工作也類似地展示了更簡(jiǎn)單的成像模型的路徑。
 
負(fù)責(zé)Google TensorFlow Lite工作的Pete Warden表示:“我們看到了大量使用機(jī)器學(xué)習(xí)的人們?cè)诟鞣N各樣的產(chǎn)品中大量涌現(xiàn)。 “讓每次運(yùn)算的能耗降下來(lái)這件事,讓我每天工作到深夜。”
 
當(dāng)專家細(xì)看AI的未來(lái)時(shí),他們看到了一些有趣的可能。
 
今天我們使用基于手動(dòng)調(diào)整模型的監(jiān)督式學(xué)習(xí)。谷歌的守望者(Warden)是在不久的將來(lái)出現(xiàn)半監(jiān)督方法的研究人員之一,手機(jī)等客戶端設(shè)備自己處理一些學(xué)習(xí)。最終目標(biāo)是無(wú)監(jiān)督的學(xué)習(xí) - 計(jì)算機(jī)教育它們自己,而不再需要建造它們的工程師的編程幫助。
 
在這條路上,研究人員正在設(shè)法自動(dòng)標(biāo)記數(shù)據(jù),這些數(shù)據(jù)來(lái)自手機(jī)或物聯(lián)網(wǎng)(IoT)節(jié)點(diǎn)等設(shè)備。
 
“谷歌說(shuō),現(xiàn)在我們需要大量的計(jì)算,在這個(gè)過(guò)度階段,一旦事情被自動(dòng)標(biāo)記,你只需要索引新的增量?jī)?nèi)容,這更像是人類如何處理數(shù)據(jù),”Janet George,西部數(shù)據(jù)的科學(xué)家說(shuō)。
 
無(wú)監(jiān)督學(xué)習(xí)打開了加速機(jī)器智能時(shí)代的大門,有些人認(rèn)為這是數(shù)字化的必殺技。另一些人則擔(dān)心技術(shù)可能會(huì)在沒有人為干預(yù)的情況下以災(zāi)難性的方式失控。 Google公司TPU項(xiàng)目負(fù)責(zé)人Norm Jouppi說(shuō):“這讓我感到害怕。
 
同時(shí),從事半導(dǎo)體工作的學(xué)者對(duì)未來(lái)的AI芯片有自己的長(zhǎng)遠(yuǎn)展望。
 
英特爾,Graphcore和Nvidia“已經(jīng)在制造全標(biāo)線芯片,下一步就是三維技術(shù)”,Patterson說(shuō)。 “當(dāng)摩爾定律如火如荼時(shí),由于擔(dān)心可靠性和成本問(wèn)題,人們會(huì)在看到復(fù)雜的封裝技術(shù)之前就臨陣退縮了。現(xiàn)在摩爾定律正在結(jié)束,我們將看到很多封裝方面的實(shí)驗(yàn)。“
 
這里的最終游戲是創(chuàng)造出新型的晶體管,可以在邏輯和存儲(chǔ)器層上堆疊。
 
Notre Dame電氣工程教授蘇曼·達(dá)塔(Suman Datta)看好負(fù)電容鐵電晶體管技術(shù)的晶體管。他在最近召開的所謂的單體三維(3-D)結(jié)構(gòu)會(huì)議上展望了該領(lǐng)域的前景。這樣的設(shè)計(jì)應(yīng)用和先進(jìn)的3-D NAND閃存已經(jīng)采用了on-die芯片堆棧技術(shù)。
 
來(lái)自伯克利,麻省理工學(xué)院和斯坦福大學(xué)的團(tuán)隊(duì)將在二月份的國(guó)際固態(tài)電路會(huì)議上展示一個(gè)類似的前沿技術(shù)。芯片(下圖)將電阻RAM(ReRAM)結(jié)構(gòu)堆疊在由碳納米管制成的邏輯上的碳納米管。
 
從DNN獲得靈感,該設(shè)備被編程為近似模式,而不是計(jì)算機(jī)迄今使用的確定性數(shù)字。 伯克利教授揚(yáng)·拉巴伊(Jan Rabaey)說(shuō),這個(gè)所謂的高維計(jì)算使用了幾萬(wàn)維的向量作為計(jì)算元素,伯克利教授為本文做出了貢獻(xiàn),并且是英特爾AI顧問(wèn)委員會(huì)成員。
 
Rabaey說(shuō),這樣的芯片可以從例子中學(xué)習(xí),并且比傳統(tǒng)系統(tǒng)需要的操作要少得多。一塊測(cè)試芯片將很快問(wèn)世,它使用振蕩器陣列,作為與相關(guān)存儲(chǔ)器陣列中的采用了ReRAM單元的模擬邏輯。
 
Rabaey在IEEE人工智能研討會(huì)上表示:“我夢(mèng)想的引擎,是可以隨身攜帶,現(xiàn)場(chǎng)為我提供指導(dǎo)......我的目標(biāo)是推動(dòng)AI運(yùn)行在小于100毫伏的運(yùn)行。 我們需要重新思考我們?nèi)绾巫鲇?jì)算。 我們正在從基于算法的系統(tǒng)轉(zhuǎn)向基于數(shù)據(jù)的系統(tǒng)。”

責(zé)任編輯:吳禮得