近日《連線》雜志發(fā)表了一篇文章,記錄了與“深度學(xué)習(xí)之父” Geoffrey Hinton 圍繞人工智能倫理、技術(shù)、學(xué)術(shù)等領(lǐng)域的采訪實錄。當(dāng)被問到如今人工智能是否將走進(jìn)寒冬時,Hinton 的回答非常堅決:“不會有‘人工智能寒冬’。因為 AI 已經(jīng)滲透到你的生活中了。在之前的寒冬中,AI 還不是你生活的一部分。但現(xiàn)在它是了?!?/p>
在 20 世紀(jì) 70 年代早期,一位名叫 Geoffrey Hinton(杰弗里·辛頓)的英國研究生開始構(gòu)建簡單的數(shù)學(xué)模型,以說明人類大腦中的神經(jīng)元是如何在視覺上理解世界的?!叭斯?a href="http://m.sdkjxy.cn/tags/神經(jīng)網(wǎng)絡(luò)/" target="_blank">神經(jīng)網(wǎng)絡(luò)”,正如其名,幾十年來仍被視為一種不切實際的技術(shù)。但在 2012 年,Hinton 和他在多倫多大學(xué)的兩名研究生 Alex Krizhevsky、Ilya Sutskever 通過人工神經(jīng)網(wǎng)絡(luò)來提高計算機識別照片中物體的準(zhǔn)確性,他們設(shè)計的深層卷積神經(jīng)網(wǎng)絡(luò) AlexNet,也一舉奪得了當(dāng)年 ImageNet LSVRC 的冠軍。僅僅半年后,Google 公司收購了這三位研究人員創(chuàng)立的創(chuàng)業(yè)公司。至此,卷積神經(jīng)網(wǎng)絡(luò)(CNN)也由此將深度學(xué)習(xí)推進(jìn)了新的歷史階段。
在此之前,人工智能不為多數(shù)人知曉,而今卻已是硅谷炙手可熱的話題。
在上周蒙特利爾舉辦的 G7 人工智能會議上,《連線》雜志采訪了 Hinton,此次會議的主要參講嘉賓來自世界領(lǐng)先的工業(yè)化經(jīng)濟(jì)體,他們共同討論了鼓勵人工智能發(fā)展的益處,以及如何減少失業(yè)和偏見學(xué)習(xí)算法的缺陷問題。
以下采訪經(jīng)過編輯整理如下:
Wired:加拿大*** Justin Trudeau 在七國集團(tuán)會議上表示,人工智能帶來的道德挑戰(zhàn)問題需要更好的得到解決。對此您怎么看?
Geoffery Hinton:我一直擔(dān)心致命的自主武器可能會被濫用。我認(rèn)為應(yīng)該像《日內(nèi)瓦公約》禁止化學(xué)武器那樣禁止它們。即使不是每個人都簽署這項協(xié)議,但它實際上扮演著的是一種道德象征。你會注意到誰沒有簽署。
Wired:據(jù)了解,有 4500 多名 Google 的員工簽署了一封抗議五角大樓合約的信件,其中涉及了將機器學(xué)習(xí)應(yīng)用于無人機圖像。Google 聲稱這并非用于攻擊性用途。您當(dāng)時簽署了這封信嗎?
Geoffery Hinton:作為一名 Google 高管,我不認(rèn)為這是我能公開投訴的地方,所以我私下會抱怨這個問題。我沒有簽署這封信,但我與 Google 的聯(lián)合創(chuàng)始人謝爾蓋·布林談過。他說他對此也有點不太高興,他們也不會追求這樣的事情。
Wired:Google 的領(lǐng)導(dǎo)者決定完成但不續(xù)簽合同。他們發(fā)布了一些有關(guān)使用人工智能的指導(dǎo)方針,其中包括不使用該技術(shù)制造武器的承諾。
Geoffery Hinton:我認(rèn)為 Google 做出了正確的決定。會有各種各樣的問題需要云計算解決,所以很難能劃分出一個比較清晰的界限,從某種意義上這也是隨機的??吹?Google 最后制定的底線我還是尤為高興的。這種原則對我來說很有意義。
Wired:人工智能也可以在日常情況下出現(xiàn)道德問題。例如,當(dāng)軟件在用于社會服務(wù)或醫(yī)療保健中給出判斷時,我們應(yīng)該注意些什么?
Geoffery Hinton:我是一名試圖將技術(shù)發(fā)揮作用的專家,不是社會政策方面的專家。在這方面,從我技術(shù)的角度來看,監(jiān)管機構(gòu)應(yīng)該決定是否堅持:你可以解釋你的 AI 系統(tǒng)是如何工作的。我認(rèn)為這是一場徹底的災(zāi)難。
對于自己所做的大多事情,人們根本是無法解釋的。當(dāng)你聘請某人,你將取決于各種可以量化的事情進(jìn)行判斷,然后才是你的直覺。人們不清楚自己是如何完成這個決策的。如果你非要他們解釋這個原因,那你就是在強迫他們編造一個故事。
神經(jīng)網(wǎng)絡(luò)同樣也有類似的問題。當(dāng)你訓(xùn)練神經(jīng)網(wǎng)絡(luò)時,它將學(xué)習(xí)十億個數(shù)字,這些數(shù)字代表著它從訓(xùn)練數(shù)據(jù)中提取的知識。如果你輸入一張圖片,做出正確的判斷如“這是一個行人”。但如果你問“為什么會這么想?”如果有任何簡單的規(guī)則來判斷圖像是否包含行人,那么這個問題早就被解決了。
Wired:那我們怎么能知道何時能信任這些系統(tǒng)呢?
Geoffery Hinton:你應(yīng)該根據(jù)系統(tǒng)的表現(xiàn)進(jìn)行規(guī)范,即運行幾組實驗看看這個系統(tǒng)是否存在偏差。對于自動駕駛汽車,我想現(xiàn)在人們開始接受了這一概念。即使你不太了解自動駕駛汽車是如何做到這一點的,但如果事故發(fā)生的次數(shù)遠(yuǎn)遠(yuǎn)少于人類駕駛汽車的次數(shù),那這是一件好事。我認(rèn)為我們必須像對待人們那樣去做:你只看到它們的表現(xiàn),如果反復(fù)出現(xiàn)問題,那就說明它們不那么好了。
Wired:您之前提到,思考大腦的工作方式可以激發(fā)你對人工神經(jīng)網(wǎng)絡(luò)的研究。我們的大腦通過感覺器官突觸連接的神經(jīng)元網(wǎng)絡(luò)獲取信息;人工神經(jīng)網(wǎng)絡(luò)則通過數(shù)學(xué)神經(jīng)元網(wǎng)絡(luò)提供數(shù)據(jù),并通過“權(quán)重”進(jìn)行連接。在此前發(fā)表的一篇論文中,您和幾位共同作者認(rèn)為應(yīng)該做更多的工作來解釋大腦工作的學(xué)習(xí)算法。為什么?
鏈接:https://arxiv.org/abs/1807.04587
Geoffery Hinton:這套算法解決的問題與我們大多數(shù)神經(jīng)網(wǎng)絡(luò)有很大不同。人腦大約有 100 萬億個突觸。人工神經(jīng)網(wǎng)絡(luò)擁有的數(shù)量通常至少小 1 萬倍。人腦使用大量的突觸從而盡可能多地從幾個片段中學(xué)習(xí)。深度學(xué)習(xí)擅長在神經(jīng)元之間使用更少的“連接”進(jìn)行學(xué)習(xí)。我認(rèn)為大腦并不關(guān)心將大量知識壓縮到幾個“連接”中,它關(guān)注的是通過大量“連接”快速提取知識。
Wired:我們?nèi)绾螛?gòu)建功能更強大的機器學(xué)習(xí)系統(tǒng)?
Geoffery Hinton:我認(rèn)為我們需要轉(zhuǎn)向另一種計算。幸運的是,我這里就有一個。(這是一款來自英國初創(chuàng)公司 Graphcore 的原型芯片,用于加速機器學(xué)習(xí)、深度學(xué)習(xí)算法實現(xiàn)。)
幾乎我們運行神經(jīng)網(wǎng)絡(luò)模型的所有計算機系統(tǒng),甚至包括 Google 的特殊硬件,都使用 RAM 存儲。從 RAM 中獲取神經(jīng)網(wǎng)絡(luò)的權(quán)重需要耗費大量的計算資源,所以處理器可以幫忙解決。一旦每個系統(tǒng)都確保獲得了權(quán)重,處理器就會不斷計算。這是一項巨大的成本,也就是說你根本無法改變你為每個訓(xùn)練樣本耗費的資源。
在 Graphcore 的芯片上,權(quán)重存儲在處理器中的高速緩存中,而不是存儲在 RAM 中,也不需要移動,因此,事情就變得比較簡單了。可能我們會得到一個系統(tǒng),比如一萬億個權(quán)重。這更像是人腦的規(guī)模。
Wired:最近人工智能和機器學(xué)習(xí)的興趣和投資熱潮意味著研究資金比以往任何時候都多。該領(lǐng)域的快速增長也是否帶來了新的挑戰(zhàn)?
Geoffery Hinton:社區(qū)面臨的一個巨大挑戰(zhàn)是,如果你想發(fā)表一篇機器學(xué)習(xí)的論文,那么論文中就一定要有劃分了不同數(shù)據(jù)集的數(shù)據(jù)表格做支撐,還要有不同的方法,且方法必須看起來最優(yōu)。如果不是這樣的話,那么這篇論文有可能很難發(fā)表。我不認(rèn)為這種方式鼓勵了人們可以大膽思考。
如果你有一篇全新觀點的論文,那么就不一定能有機會評審?fù)ㄟ^。因為一些年輕的評審員并不理解這篇論文觀點。再或者,放在資深評審員面前,他又會因為評審了太多論文,一時意識不到這篇論文究竟是不是無稽之談。任何有悖于大腦(常理)的事情都不會被接受。所以,我認(rèn)為這非常糟糕。
我們應(yīng)該做的,特別是在基礎(chǔ)科學(xué)會議上,是誕生一個全新的想法。因為從長遠(yuǎn)來看,我們知道一個全新的想法會比一個細(xì)微的改進(jìn)更有影響力。我認(rèn)為現(xiàn)在出現(xiàn)這一本末倒置的原因,就是因為有了一大批年輕人和一小部分資深人士構(gòu)成的評審隊伍。
Wired:那么這會損害該領(lǐng)域的進(jìn)展嗎?
Geoffery Hinton:只需要等幾年,這種不平衡將自行糾正。這也是暫時的。企業(yè)正忙著教育用戶,大學(xué)正忙著教育學(xué)生,大學(xué)將最終聘請該領(lǐng)域更多的學(xué)者教授,一切將走向正規(guī)。
Wired:一些學(xué)者警告說,目前的炒作可能會像 20 世紀(jì) 80 年代那樣進(jìn)入“人工智能寒冬”,當(dāng)時是用于研究進(jìn)展不符合預(yù)期,而人們對 AI 的興趣以及資金支持枯竭了。
Geoffery Hinton:不,不會有“人工智能寒冬”。因為 AI 已經(jīng)滲透到你的生活中了。在之前的寒冬中,AI 還不是你生活的一部分。但現(xiàn)在它是了。
-
人工智能
+關(guān)注
關(guān)注
1821文章
50453瀏覽量
267482 -
神經(jīng)元
+關(guān)注
關(guān)注
1文章
369瀏覽量
19215 -
深度學(xué)習(xí)
+關(guān)注
關(guān)注
73文章
5613瀏覽量
124704
原文標(biāo)題:“深度學(xué)習(xí)之父”大談AI:寒冬不會出現(xiàn),論文評審機制有損創(chuàng)新
文章出處:【微信號:rgznai100,微信公眾號:rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
人工智能深度學(xué)習(xí)系統(tǒng)班13期
嵌入式人工智能課程(華清遠(yuǎn)見)
人工智能多模態(tài)與視覺大模型開發(fā)實戰(zhàn) - 2026必會
【智能檢測】基于AI深度學(xué)習(xí)與飛拍技術(shù)的影像測量系統(tǒng):實現(xiàn)高效精準(zhǔn)的全自動光學(xué)檢測與智能制造數(shù)據(jù)閉環(huán)
人工智能與機器學(xué)習(xí)在這些行業(yè)的深度應(yīng)用
AI教父Hinton對話云天勵飛陳寧
云知聲出席2025中國-東盟人工智能大會
航天宏圖人工智能技術(shù)深度賦能社會治理現(xiàn)代化
“深度學(xué)習(xí)之父” Geoffrey Hinton 圍繞人工智能倫理、技術(shù)、學(xué)術(shù)等領(lǐng)域的采訪實錄
評論