欧美色图 亚洲|野外口爆视频国产|久久精品视频观看|97精品人人抽插

需要密切關注的六大人工智能領域

2017-02-08 10:02:16 來源:CSDN 熱度:
需要密切關注的六大人工智能領域

近段時間,有許多關于人工智能公認定義的爭論。有些人認為人工智能就是“認知計算”或是“機器智能”,而另一些人則把它與“機器學習”的概念混淆了。然而,人工智能并不是特指某種技術,它實際上是一個由多門學科組成的廣闊領域,包括機器人學和機器學習等。人工智能的終極目標是讓機器替代人類去完成需要認知能力的任務。為了實現(xiàn)這一目標,機器必須自動學習掌握能力,而不僅僅是執(zhí)行程序員編寫的命令。

人工智能在過去的十年里取得了令人嘆為觀止的進步,例如自動駕駛汽車、語音識別和語音合成。在此背景之下,人工智能這一話題越來越多地出現(xiàn)在同事和家人的閑談之間,人工智能技術已經(jīng)滲透到他們生活的角角落落。與此同時,流行媒體幾乎每天也在報道人工智能和技術巨頭們,介紹他們在人工智能領域的長期戰(zhàn)略。一些投資者和企業(yè)家渴望了解如何從這個新領域挖掘價值,大多數(shù)人還是絞盡腦汁思考究竟人工智能會改變什么。此外,各國政府也正在努力應對自動化給社會帶來的影響(如奧巴馬總統(tǒng)的離職演講)。

其中,人工智能的六大領域在未來可能對數(shù)字產(chǎn)品和數(shù)字服務產(chǎn)生重要的影響。作者一一列舉了這六個方向,解釋了它們的重要性,目前的應用場景,并列舉出正在使用的公司和研究機構。

強化學習

強化學習是一種通過實驗和錯誤來學習的方法,它受人類學習新技能的過程啟發(fā)。在典型的強化學習案例中,代理者通過觀察當前所處的狀態(tài),進而采取行動使得長期獎勵的結果最大化。每執(zhí)行一次動作,代理者都會收到來自環(huán)境的反饋信息,因此它能判斷這次動作帶來的效果是積極的還是消極的。在這個過程中,代理者需要平衡根據(jù)經(jīng)驗尋找最佳策略和探索新策略兩方面,以期實現(xiàn)最終的目標。

Google的DeepMind團隊在Atari游戲和圍棋對抗中都運用了強化學習的技術。在真實場景中,強化學習有被用來提高Google數(shù)據(jù)中心的能源利用率。強化學習技術為這套冷卻系統(tǒng)節(jié)省了約40%的能耗。強化學習有一個非常重要的優(yōu)勢,它的代理者能以低廉的代價模擬生成大量的訓練數(shù)據(jù)。相比有監(jiān)督的深度學習任務,這個優(yōu)勢非常明顯,節(jié)省了一大筆人工標注數(shù)據(jù)的費用。

應用:包括城市道路的自動駕駛;三維環(huán)境的導航;多個代理者在同樣的環(huán)境中交互和學習等

主要研究人員: Pieter Abbeel (OpenAI), David Silver, Nando de Freitas, Raia Hadsell (Google DeepMind), Carl Rasmussen (Cambridge), Rich Sutton (Alberta), John Shawe-Taylor (UCL) 等

技術公司代表: Google DeepMind, Prowler.io, Osaro, MicroPSI, Maluuba/Microsoft, NVIDIA, Mobileye等

生成模型

不同于用來完成分類和回歸任務的判別模型,生成模型從訓練樣本中學到一個概率分布。通過從高維的分布中采樣,生成模型輸出與訓練樣本類似的新樣本。這也意味著,若生成模型的訓練數(shù)據(jù)是臉部的圖像集,那么訓練后得到的模型也能輸出類似于臉的合成圖片。細節(jié)內(nèi)容可以參考Ian Goodfellow的文章。他提出的生成對抗模型(GAN)的結構當下在學術界非常的火熱,因為它給無監(jiān)督學習提供了一種新思路。GAN結構用到了兩個神經(jīng)網(wǎng)絡:一個是生成器,它負責將隨機輸入的噪聲數(shù)據(jù)合成為新的內(nèi)容(比如合成圖片),另一個是判別器,負責學習真實的圖片并判斷生成器生成的內(nèi)容是否以假亂真。對抗訓練可以被認為是一類游戲,生成器必須反復學習用隨機噪音數(shù)據(jù)合成有意義的內(nèi)容,直到判別器無法區(qū)分合成內(nèi)容的真?zhèn)巍_@套框架正在被擴展應用到許多數(shù)據(jù)模式和任務中。

應用:仿真時間序列的特征(例如,在強化學習中規(guī)劃任務);超分辨率圖像;從二維圖像復原三維結構;小規(guī)模標注數(shù)據(jù)集的泛化;預測視頻的下一幀;生成自然語言的對話內(nèi)容;藝術風格遷移;語音和音樂的合成

技術公司代表: Twitter Cortex, Adobe, Apple, Prisma, Jukedeck, Creative.ai, Gluru, Mapillary, Unbabel

主要研究人員: Ian Goodfellow (OpenAI), Yann LeCun 和 Soumith Chintala (Facebook 人工智能研究院), Shakir Mohamed 和 Aäron van den Oord (Google DeepMind)等等

記憶網(wǎng)絡

為了讓人工智能系統(tǒng)像人類一樣能夠適應各式各樣的環(huán)境,它們必須持續(xù)不斷地掌握新技能,并且記住如何在未來的場景中應用這些技能。傳統(tǒng)的神經(jīng)網(wǎng)絡很難掌握一系列的學習任務。這項缺點被科學家們稱作是災難性遺忘。其中的難點在于當一個神經(jīng)網(wǎng)絡針對A任務完成訓練之后,若是再訓練它解決B任務,則網(wǎng)絡模型的權重值不再適用于任務A。

目前,有一些網(wǎng)絡結構能夠讓模型具備不同程度的記憶能力。其中包括長短期記憶網(wǎng)絡(一種遞歸神經(jīng)網(wǎng)絡)可以處理和預測時間序列;DeepMind團隊的微神經(jīng)計算機,它結合了神經(jīng)網(wǎng)絡和記憶系統(tǒng),以便于從復雜的數(shù)據(jù)結構中學習;漸進式神經(jīng)網(wǎng)絡,它學習各個獨立模型之間的側向關聯(lián),從這些已有的網(wǎng)絡模型中提取有用的特征,用來完成新的任務。

應用:訓練能夠適應新環(huán)境的代理者;機器人手臂控制任務;自動駕駛車輛;時間序列預測(如金融市場、視頻預測);理解自然語言和預測下文。

技術公司代表: Google DeepMind, NNaisense, SwiftKey/Microsoft Research.

主要研究人員: Alex Graves, Raia Hadsell, Koray Kavukcuoglu (Google DeepMind), Jürgen Schmidhuber (IDSAI), Geoffrey Hinton (Google Brain/Toronto)

微數(shù)據(jù)學習微模型

一直以來深度學習模型都是需要堆積大量的訓練數(shù)據(jù)才能達到最佳的效果。比如,某只參加ImageNet挑戰(zhàn)賽的團隊使用了120萬張分布于1000個類別的人工標注圖像訓練模型。離開大規(guī)模的訓練數(shù)據(jù),深度學習模型就不會收斂到最優(yōu)值,也無法在語音識別、機器翻譯等復雜的任務上取得好效果。數(shù)據(jù)量需求的增長往往發(fā)生在用單個神經(jīng)網(wǎng)絡模型處理端到端的情況下,比如輸入原始的語音片段,要求輸出轉換后的文字內(nèi)容。這個過程與多個網(wǎng)絡協(xié)同工作各處理一步中間結果不同(比如,原始語音輸入→音素→詞→文本輸出)。如果我們想用人工智能系統(tǒng)解決訓練數(shù)據(jù)稀缺的任務時,希望模型訓練用到的樣本越少越好。當訓練數(shù)據(jù)集較小時,過擬合、異常值干擾、訓練集和測試集分布不一致等問題都會接踵而至。另一種方法是將在其它任務上訓練好的模型遷移到新的任務中,這種方法被稱為是遷移學習。

一個相關的問題是用更少的模型參數(shù)建立更小的深學習架構,而模型的效果卻保持最佳。這種技術的優(yōu)勢在于更高效的分布式訓練過程,因為訓練過程中需要傳輸?shù)膮?shù)減少了,并且能夠方便地將模型部署在內(nèi)存大小受限制的嵌入式硬件上。

應用:訓練淺層模型來模擬在大規(guī)模的已標注訓練數(shù)據(jù)集上訓練得到的深度網(wǎng)絡模型;構建效果相當?shù)珔?shù)更少的模型結構(如SqueezeNet);機器翻譯

技術公司代表: Geometric Intelligence/Uber, DeepScale.ai, Microsoft Research, Curious AI Company, Google, Bloomsbury AI

主要研究人員: Zoubin Ghahramani (Cambridge), Yoshua Bengio (Montreal), Josh Tenenbaum (MIT), Brendan Lake (NYU), Oriol Vinyals (Google DeepMind), Sebastian Riedel (UCL)

學習/推理硬件

促進人工智能發(fā)展的催化劑之一就是圖形處理器(GPU)的升級,不同于CPU的順序執(zhí)行模式,GPU支持大規(guī)模的并行架構,可以同時處理多個任務。鑒于神經(jīng)網(wǎng)絡必須用大規(guī)模(且高維度)數(shù)據(jù)集訓練,GPU的效率遠高于CPU。這就是為什么自從2012年第一個GPU訓練的神經(jīng)網(wǎng)絡模型——AlexNet公布之后,GPU已經(jīng)成為名副其實的淘金鐵鍬。NVIDIA在2017年繼續(xù)領跑行業(yè),領先于Intel、Qualcomm、AMD和后起之秀Google。

然而,GPU并非專為模型訓練或預測而設計,它原本是用于視頻游戲的圖像渲染。GPU具有高精度計算的能力,卻遭遇內(nèi)存帶寬和數(shù)據(jù)吞吐量的問題。這為Google之類的大公司和許多小型創(chuàng)業(yè)公司開辟了新領域,它們?yōu)楦呔S機器學習任務設計和制造處理芯片。芯片設計的改進點包括更大的內(nèi)存帶寬,圖計算代替了向量計算(GPU)和矢量計算(CPU),更高的計算密度,更低的能源消耗。這些改進令人感到興奮,因為最終又反哺到使用者的身上:更快和更有效的模型訓練→更好的用戶體驗→用戶更多的使用產(chǎn)品→收集更大的數(shù)據(jù)集→通過優(yōu)化模型提高產(chǎn)品的性能。因此,那些訓練和部署模型更快的系統(tǒng)占據(jù)顯著的優(yōu)勢。

應用:模型的快速訓練;低能耗預測運算;持續(xù)性監(jiān)聽物聯(lián)網(wǎng)設備;云服務架構;自動駕駛車輛;機器人

技術公司代表: Graphcore, Cerebras, Isocline Engineering, Google (TPU), NVIDIA (DGX-1), Nervana Systems (Intel), Movidius (Intel), Scortex

仿真環(huán)境

正如之前提到,為人工智能系統(tǒng)準備訓練數(shù)據(jù)很具有挑戰(zhàn)性。而且,若要將人工智能系統(tǒng)應用到實際生活中,它必須具有適用性。因此,開發(fā)數(shù)字環(huán)境來模擬真實的物理世界和行為將為我們提供測試人工智能系統(tǒng)適應性的機會。這些環(huán)境給人工智能系統(tǒng)呈現(xiàn)原始像素,然后根據(jù)設定的目標而采取某些行動。在這些模擬環(huán)境中的訓練可以幫助我們了解人工智能系統(tǒng)的學習原理,如何改進系統(tǒng),也為我們提供了可以應用于真實環(huán)境的模型。

應用:模擬駕駛;工業(yè)設計;游戲開發(fā);智慧城市

技術公司代表: Improbable, Unity 3D, Microsoft (Minecraft), Google DeepMind/Blizzard, OpenAI, Comma.ai, Unreal Engine, Amazon Lumberyard

主要研究人員: Andrea Vedaldi (Oxford)

(原文: 6 areas of artificial intelligence to watch closely;作者: Nathan Benaich)

責任編輯:饒軍