欧美色图 亚洲|野外口爆视频国产|久久精品视频观看|97精品人人抽插

人工智能的崛起,可能是最好的事,也可能是最糟的事

2017-05-31 13:43:26 來源:新華社 熱度:
相信大家都知道史蒂芬·威廉·霍金,這位英國著名物理學家和宇宙學家,提出了黑洞蒸發(fā)現(xiàn)象和無邊界的霍金宇宙模型,被譽為“宇宙之王”。對于人工智能,他是期待還是擔憂呢?今天來看一份新華社對其演講稿的整理。
 
史蒂芬·威廉·霍金,英國著名物理學家和宇宙學家,提出了黑洞蒸發(fā)現(xiàn)象和無邊界的霍金宇宙模型,被譽為“宇宙之王”。
 
在我的一生中,見證了很多社會深刻的變化。其中最深刻,同時也是對人類影響與日俱增的變化就是人工智能的崛起。
 
簡單來說,我認為強大的人工智能的崛起,要么是人類歷史上最好的事,要么是最糟的。
 
是好是壞,我們依然不能確定。人工智能的發(fā)展,本身是一種存在著問題的趨勢,我們應該竭盡所能,確保其未來發(fā)展對我們的后代和環(huán)境有利。
 
也許我們的科學研究應暫停片刻
 
人工智能的研究與開發(fā)正在迅速推進。也許科學研究應該暫停片刻,從而使研究重點從提升人工智能的能力轉移到最大化人工智能的社會效益上面。
 
基于這樣的考慮,美國人工智能協(xié)會(AAAI)于2008至2009年,成立了人工智能長期未來總籌論壇,他們工作的原則是人工智能必須按照我們的意志工作。

 
文明所產(chǎn)生的一切都是人類智能的產(chǎn)物,但是現(xiàn)在“計算機在理論上可以模仿人類智能,然后超越”這一原則正在被人們所接受。但我們并不確定,我們將無限地得到人工智能的幫助,還是被藐視并被邊緣化,甚至很可能被它毀滅。至少現(xiàn)在,聰明的機器正在代替人類所從事的工作,并迅速地消滅數(shù)以百萬計的工作崗位。
 
在人工智能從原始形態(tài)不斷發(fā)展,并被證明非常有用的同時,我也在擔憂這個結果,即創(chuàng)造一個可以等同或超越人類智能的人工智能,人工智能一旦脫離束縛,將以不斷加速的狀態(tài)重新設計自身。未來,人工智能可以發(fā)展出自我意志,一個與我們沖突的意志,人類由于受到漫長的生物進化的限制,無法與之競爭,將被取代。
 
很多人認為人類可以在相當長的時間里控制技術的發(fā)展,這樣我們就能看到人工智能可以解決世界上大部分問題的潛力。但我并不確定,盡管我對人類一貫持有樂觀的態(tài)度。
 
要保證創(chuàng)造出可控的人工智能
 
2015年1月份,我和科技企業(yè)家埃隆·馬斯克,以及許多其他的人工智能專家簽署了一份關于人工智能的公開信。目的是提倡就人工智能對社會所造成的影響,做認真的調研。
 
在這之前,埃隆·馬斯克就警告過人們:超人類人工智能可能帶來不可估量的利益。但如果部署不當,則可能給人類帶來相反的效果。我和他同在“生命未來研究所”擔任科學顧問委員會的職務,這是一個旨在緩解人類所面臨的存在風險的組織。之前提到的公開信也是由這個組織起草的。
 
對于決策者和普通大眾來說,這封公開信內容翔實,并非危言聳聽。人工智能具有根除疾患和貧困的潛力,但是研究人員必須能夠保證創(chuàng)造出可控的人工智能。
 
那封公開信只有四段文字,題目為《應優(yōu)先研究強大而有益的人工智能》,在其附帶的十二頁文件中,對研究的優(yōu)先次序作了詳細安排。
 
智能是一個與統(tǒng)計學和經(jīng)濟學相關的理性概念。通俗地講,這是一種能做出好的決定、計劃和推論的能力,大量的整合和交叉成果被應用在人工智能、機器學習、統(tǒng)計學、控制論、神經(jīng)科學以及其他領域。共享理論框架的建立,結合數(shù)據(jù)的供應和處理能力,在各種細分的領域取得了顯著的成功,例如語音識別、圖像分類、自動駕駛、機器翻譯、步態(tài)運動和問答系統(tǒng)。
 
隨著這些領域的發(fā)展,從實驗室研究到有經(jīng)濟價值的技術形成了良性循環(huán)。哪怕很小的性能改進,都會帶來巨大的經(jīng)濟效益,進而鼓勵更長期、更偉大的投入和研究。人工智能的研究正在穩(wěn)步發(fā)展,而它對社會的影響很可能還在擴大,我們無法預測我們會取得什么成果,這種成果可能是被人工智能工具放大過的。
 
正如我說的,根除疾病和貧窮并非完全不可能,由于人工智能的巨大潛力,研究如何規(guī)避風險是非常重要的。
 
 
秉持樂觀態(tài)度對潛在災難有所認識
 
關于人工智能的研究正在迅速發(fā)展,這一研究可以從短期和長期來分別討論。
 
短期擔憂:
 
1. 無人駕駛。
 
從民用無人機到自主駕駛汽車。在緊急情況下,一輛無人駕駛汽車不得不在小風險的大事故和大概率的小事故之間進行選擇。
 
2. 致命性智能自主武器。
 
它們是否該被禁止?如果是,那么“自主”該如何精確定義。如果不是,任何使用不當和故障的過失應該如何被問責?
 
3. 隱私的擔憂。
 
由于人工智能逐漸開始解讀大量監(jiān)控數(shù)據(jù),會造成隱私上的擔憂,以及如何管理因人工智能取代工作崗位帶來的經(jīng)濟影響。
 
長期擔憂主要是人工智能系統(tǒng)失控的潛在風險。
 
隨著不遵循人類意愿行事的超級智能的崛起,強大的系統(tǒng)可能會威脅到人類發(fā)展。這種錯位是否會發(fā)生?如果會,那些情況是如何出現(xiàn)的?我們應該投入什么樣的研究,以便更好地理解和解決危險的超級智能崛起的可能性,或智能爆發(fā)的出現(xiàn)?
 
當前控制人工智能技術的工具,例如強化學習,簡單實用的功能,還不足以解決這些系統(tǒng)失控的問題。因此,我們需要進一步研究來找到和確認一個可靠的解決辦法來掌控這一問題。
 
近來的里程碑,比如之前提到的自主駕駛汽車,以及人工智能贏得圍棋比賽,都是未來趨勢的跡象,巨大的投入傾注到這項科技。我們目前所取得的成就,和未來幾十年后可能取得的成就相比必然相形見絀。
 
而且我們遠不能預測我們能取得什么成就。當我們的頭腦被人工智能放大以后,也許在這種新技術革命的輔助下,我們可以解決一些工業(yè)化對自然界造成的損害。關乎到我們生活的各個方面都即將被改變。
 
簡而言之,人工智能的成功有可能是人類文明史上最大的事件。
 
但人工智能也有可能是人類文明史的終結,除非我們學會如何避免危險。我曾經(jīng)說過,人工智能的全方位發(fā)展可能招致人類的滅亡。比如最大化使用智能性自主武器。今年早些時候,我和一些來自世界各國的科學家共同在聯(lián)合國會議上支持其對于核武器的禁令。我們正在焦急地等待協(xié)商結果。
 
目前,九個核大國可以控制大約一萬四千個核武器,它們中的任何一個國家都可以將城市夷為平地,放射性廢物會大面積污染農(nóng)田,最可怕的危害是誘發(fā)核冬天,火和煙霧會導致全球的小冰河期。
 
這一結果使全球糧食體系崩塌,末日般動蕩,很可能導致大部分人死亡。我們作為科學家,對核武器承擔著特殊的責任。正是科學家發(fā)明了核武器,并發(fā)現(xiàn)它們的影響比最初預想的更加可怕。
 
我對人工智能的災難探討可能驚嚇到了各位。很抱歉。但是作為今天的與會者,重要的是,在影響當前技術的未來研發(fā)中,大家要清楚自己所處的位置。
 
去年10月,我在英國劍橋建立了一個新的機構,試圖解決一些在人工智能研究快速發(fā)展中出現(xiàn)的尚無定論的問題。“利弗休姆智能未來中心”是一個跨學科研究所,致力于研究智能的未來,這對我們文明和物種的未來至關重要。
 
我們對潛在危險有所意識,我內心仍秉持樂觀態(tài)度,我相信創(chuàng)造智能的潛在收益是巨大的。也許借助這項新技術革命的工具,我們將可以削減工業(yè)化對自然界造成的傷害。
 
每個機器人設計都應包含終止開關
 
人工智能的最新進展,包括歐洲議會呼吁起草一系列法規(guī),以管理機器人和人工智能的創(chuàng)新。令人些許驚訝的是,這里涉及到了一種形式的電子人格。以確保最有能力和最先進的人工智能盡到其應盡的權利和責任。
 
歐洲議會發(fā)言人評論說,隨著日常生活中越來越多的領域日益受到機器人的影響,我們需要確保機器人無論現(xiàn)在還是將來,都為人類而服務。
 
向歐洲議會議員提交的報告,明確認為世界正處于新的工業(yè)機器人革命的前沿。報告中分析了是否應該給機器人提供作為電子人的權利,這等同于法人身份。
 
報告強調,在任何時候,研究和設計人員都應確保每一個機器人設計都包含有終止開關。在庫布里克的電影《2001太空漫游》中,出故障的超級電腦哈爾沒有讓科學家們進入太空艙,但那是科幻,我們要面對的則是事實。
 
報告承認在幾十年的時間內,人工智能可能會超越人類智力范圍,進而挑戰(zhàn)人機關系。
 
報告最后呼吁成立歐洲機器人和人工智能機構,以提供技術、倫理和監(jiān)管方面的專業(yè)知識。如果歐洲議會議員投票贊成立法,該報告將提交給歐盟委員會。它將在三個月的時間內決定要采取哪些立法步驟。
 
在人工智能發(fā)展進程中,我們還應該扮演一個角色,確保下一代不僅僅有機會還要有決心。在早期階段充分參與科學研究,以便他們繼續(xù)發(fā)揮潛力,幫助人類創(chuàng)造一個更加美好的世界。這就是我剛談到學習和教育的重要性時所要表達的意思。我們需要跳出“事情應該如何”這樣的理論探討,并且采取行動,以確保他們有機會參與進來。
 
我們站在一個美麗新世界的入口。這是一個令人興奮的、同時充滿了不確定性的世界,而你們是先行者。我祝福你們。

責任編輯:黃焱林