欧美色图 亚洲|野外口爆视频国产|久久精品视频观看|97精品人人抽插

無人駕駛汽車做不到真正無人的原因:人工智能離不開人

2018-03-12 11:16:28 來源:騰訊數(shù)碼 熱度:
據(jù)Computerworld網(wǎng)站報道,美國加利福尼亞州的“自動駕駛汽車”新規(guī)則突出了對人工智能的一個明顯誤解。
 
受過良好教育的公眾都知道無人駕駛技術(shù)非常了不起,但它們迄今還無法在沒有駕駛員坐在車內(nèi)的情況下完全控制汽車。目前的“安全駕駛員”——坐在駕駛員座位上的人,目的是防止人工智能出現(xiàn)故障——被淘汰,完全由人工智能來駕駛汽車只是個時間問題。
 
加利福尼亞州剛剛批準(zhǔn)了不設(shè)“安全駕駛員”的自動駕駛汽車牌照,但有一個附加條件:自動駕駛汽車公司必須能夠遠(yuǎn)程監(jiān)控并接管汽車駕駛工作。這一規(guī)則使得加利福尼亞州向已經(jīng)批準(zhǔn)真正無人駕駛汽車的其他州看齊。車內(nèi)沒有人,或至少駕駛員座位上沒有人,但遠(yuǎn)程監(jiān)控和遠(yuǎn)程控制使這一切成為可能,還能確保汽車安全和遵守相關(guān)法規(guī)。
 
Computerworld專欄作家麥克·埃爾根(Mike Elgan)設(shè)想,自動駕駛汽車公司將有像美國航空航天局那樣的控制室,其中有大量操作員、顯示屏和交通流量數(shù)據(jù),數(shù)十名工作人員就可以監(jiān)控數(shù)以百輛計的無人駕駛汽車,當(dāng)汽車出故障或碰到自己無法應(yīng)對的復(fù)雜情況時,隨時接管汽車控制權(quán)。對無人駕駛汽車的遠(yuǎn)程監(jiān)控,也可能在與呼叫中心相似、由眾多“小隔間”組成的辦公場所內(nèi)完成。以下是埃爾根所了解的宣布將建設(shè)或已經(jīng)建設(shè)了這種控制室的無人駕駛汽車公司:
 
  ·Udelv
  ·日產(chǎn)
  ·Waymo
  ·Zoox
  ·Phantom Auto
  ·Starsky Robotics
 
其他無人駕駛汽車公司也將有這樣的控制室嗎?所有公司都必須有。
 
想想看,當(dāng)人工智能不夠智能,不足以應(yīng)對意外情況時,需要人幫助的不僅僅只是無人駕駛汽車。
 
人工智能世界:還需要人
 
為了彌補人工智能的不足,企業(yè)常常采取幕后的人為干預(yù)措施。這種做法的理念是,人類監(jiān)督者確信人工智能運轉(zhuǎn)良好,并擔(dān)任教師角色。當(dāng)人工智能失敗時,人的干預(yù)是軟件調(diào)整的指南。這一啟發(fā)式過程的明確目標(biāo)是,最終人工智能將能夠在沒有監(jiān)督的情況下運行。
 
還記得Facebook M嗎?它是在Facebook Messenger上的一款虛擬助手。這一項目背后的明確目標(biāo)是,提供一款虛擬助手,可以像人類助手那樣與用戶進(jìn)行交互。這款“產(chǎn)品”是機器自動化。但現(xiàn)實情況是,大量人類助手在幕后對它進(jìn)行監(jiān)督和干預(yù)。這些人員還會在人工智能失敗后對它進(jìn)行訓(xùn)練,使人工智能最終能獨立運行。Facebook設(shè)想逐步減少人類對Facebook M的干預(yù),直至它能完全自動運行。Facebook M能完全自動運行的這一天永遠(yuǎn)也不會到來。
 
Computerworld表示,這種方法的問題似乎是,一旦人類參與到過程中,預(yù)期的自我退出就永遠(yuǎn)不會出現(xiàn)。以Facebook M為例,F(xiàn)acebook預(yù)計將逐步不需要人類的幫助,但反而不得不取消了整個Facebook M項目。Facebook對這一項目相當(dāng)?shù)驼{(diào),但它可能已經(jīng)搞清了下述事實:人工智能現(xiàn)在需要人類幫助,未來可能會無限期地需要人類幫助。
 
許多其他人工智能公司和服務(wù)的運作方式與此類似,雖然對外宣稱的是人工智能,但實際情況卻是人工智能加幕后的人類助手。在基于人工智能的服務(wù)領(lǐng)域,有大量的人在幕后辛勞地工作,彌補人工智能與我們期望之間的差距。
 
那么,誰在進(jìn)行這項工作?首先是用戶。9年來,谷歌一直利用其reCAPTCHA系統(tǒng)對用戶進(jìn)行身份驗證:用戶被要求證明他們是人。證明過程涉及真實和虛假的測試,人能識別計算機不能識別的物體。最初,谷歌利用reCAPTCHA來幫助計算機通過光學(xué)字符識別(OCR),識別書籍和以往的《紐約時報》的內(nèi)容。然后,它幫助谷歌人工智能系統(tǒng)讀取谷歌街景地圖中的街道地址。4年前,谷歌把reCAPTCHA打造成一款人工智能訓(xùn)練系統(tǒng)。大多數(shù)訓(xùn)練的目的是識別照片中的物體——可以用于自動駕駛汽車或街景地圖。一種常見的情況是,將包含路牌的照片分隔成正方形,并要求用戶通過點擊包含路牌的每個正方形,來“證明他們是人類”。這里的實際情況是,谷歌人工智能在接受訓(xùn)練,以確切地知道哪部分圖片是路牌(自動駕駛汽車在行駛時必須考慮),哪部分圖片只是“噪聲”,會被導(dǎo)航系統(tǒng)忽略。
 
但用戶只是業(yè)余(不知情)的人工智能幫手。專業(yè)的人工智能培訓(xùn)師和幫手,在上班時間會識別和標(biāo)注照片中的虛擬和實際物體。他們測試、分析并推薦算法中的變化。在任何復(fù)雜人工智能系統(tǒng)的開發(fā)中,非預(yù)期后果法則都是一個突出因素。下邊是一個過于簡單化的例子:
 
假設(shè)你開發(fā)了一款人工智能機器人,其任務(wù)是制作漢堡、用紙包好、放在一個包中,然后交給顧客,最后一項任務(wù)是使包與顧客的距離在2英尺以內(nèi),使顧客能夠拿住它。
 
我們來假設(shè)一種場景,顧客在房間的另一側(cè),人工智能機器人會以相當(dāng)高的速度把包拋給客戶。你會發(fā)現(xiàn),人工智能機器人準(zhǔn)確地完成了任務(wù),但方式與人來完成這一任務(wù)有所不同。這里就要求增添更多規(guī)則,使它能以文明的方式完成任務(wù)。
 
這是一個生動而荒謬的例子,但是人工智能的訓(xùn)練,似乎涉及無窮無盡的這類修正過程,因為根據(jù)人類的定義,人工智能實際上并不智能。
 
埃爾根的意思是:一個人的行為如果像人工智能,會被認(rèn)為是白癡?;蛘?,我們可能會說一名向顧客拋一袋漢堡包的員工缺乏常識。對于人工智能來說,常識是不存在的。人工智能在開發(fā)必須考慮到各種可能的情況。開發(fā)者需要針對每種可能的情況,確定一種符合常識的反應(yīng)。
 
為什么人工智能將繼續(xù)需要人的幫助
 
埃爾根懷疑自動駕駛汽車公司能最終擺脫遙控室。在可預(yù)見的將來,人們將需要對自動駕駛汽車進(jìn)行監(jiān)督和遙控。一個原因是保護(hù)汽車免遭破壞,這可能會成為一個真正的問題。據(jù)媒體報道,報告的人攻擊或蓄意與自動駕駛汽車相撞的事件正在增加。
 
我也相信,無論出于何種原因,乘客都可以按下一個按鈕,與控制室中的人通話。一個原因可能是神經(jīng)質(zhì)的乘客:“呃,控制室嗎?,我現(xiàn)在要睡午覺了,你能幫我看下車嗎?”
 
但最大的原因是這個世界很大,而且復(fù)雜多變。奇怪、料想不到的事隨時都會發(fā)生:雷擊、飛鳥與相機相撞、小孩子用激光筆照射傳感器,即使出現(xiàn)這些情況,自動駕駛汽車也不能崩潰并胡亂動作。它們太危險了。
 
埃爾根認(rèn)為,再過數(shù)十年,我們才能在人命關(guān)天時信任人工智能。
 
為什么我們相信人工智能是人造和智能的
 
造成人工智能具有超能力錯覺的現(xiàn)象被稱作伊萊扎效應(yīng)(Eliza effect),是麻省理工學(xué)院在1966年的一項研究中提出的。利用伊萊扎聊天機器人的測試對象,報告稱他們感受到了計算機的同理心。
 
目前,伊萊扎效應(yīng)讓人感覺到人工智能無所不能,但實際上它的能力是有限的。當(dāng)我們聽說一臺超級計算機在國際象棋比賽中獲勝時,我們會認(rèn)為:“如果他們能在國際象棋比賽中擊敗聰明人,他們一定比聰明人更聰明。”但這是一種錯覺。事實上,會下國際象棋的機器人,在下國際象棋這件事上比人更“聰明”,但在其他許多事情上,人比那些擅長下國際象棋的計算機更聰明。
 
自動駕駛汽車可不只是做一件事情,它要做許多事情。這對人來說很容易,但對于人工智能來說就難于上青天了。
 
Computerworld稱,我們不能過高估計人工智能——事實上,人工智能是驚人和突破性的,并將改變?nèi)祟惿睿ǔ谷祟惿罡篮?。我們一貫低估人類智能,至少在我們的有生之年,在完成以人為中心的任?wù)時,人類仍將遠(yuǎn)遠(yuǎn)優(yōu)于計算機。
 
自動駕駛汽車的發(fā)展,完美地表明認(rèn)為機器能以復(fù)雜方式自行運轉(zhuǎn)的認(rèn)識是錯誤的。機器能自行運轉(zhuǎn),但離不開我們的幫助。在沒有足夠的智能來完成任務(wù)時,人工智能需要人的支持。
 

責(zé)任編輯:吳昊