日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

一項研究試圖讓AI的決策過程更加可被解釋

IEEE電氣電子工程師 ? 來源:未知 ? 作者:李倩 ? 2018-10-04 10:46 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

一直以來,AI 進行圖像識別都是一個難以清楚解釋的過程,而如今麻省理工學院林肯實驗室情報和決策技術小組(Intelligence and Decision Technologies Group)的一項研究試圖讓 AI 的決策過程更加可被解釋。

這個小組在今年夏天的 CVPR 上發(fā)表了一篇論文《設計透明:彌合視覺推理的表現(xiàn)與可解釋性》(Transparency by Design: Closing the Gap Between Performance andInterpretability in Visual Reasoning),論文中提出的系統(tǒng)可以執(zhí)行與人類一樣的推理步驟來進行與圖像識別相關的任務,同時能以圖像形式呈現(xiàn)其決策的過程。

論文地址:https://arxiv.org/abs/1803.05268

圖 |TbD-net的決策過程 (來源:MIT)

了解神經(jīng)網(wǎng)絡如何做出決策一直是 AI 研究人員長期面對的問題。神經(jīng)網(wǎng)絡是以人的大腦為參照開發(fā)的 AI 系統(tǒng),旨在復制人類學習的方式。簡單的神經(jīng)網(wǎng)絡有一個輸入層、一個輸出層,兩者之間還有一個將輸入轉換為正確的輸出結果的層。然而一些深度神經(jīng)網(wǎng)絡非常復雜,無法遵循這種簡單的轉換過程。所以逐漸地,神經(jīng)網(wǎng)絡的設置層越來越多,決策過程成為了一個“黑箱”問題,內(nèi)部流程非常不透明,以至于該網(wǎng)絡的開發(fā)者可能都無法完全掌握。

與此同時,了解 AI 的決策過程非常重要。例如,對用在自動駕駛汽車中的神經(jīng)網(wǎng)絡來說,行人和路牌之間存在什么樣的差異?神經(jīng)網(wǎng)絡的哪個決策階段能夠發(fā)現(xiàn)兩者的區(qū)別?只有了解這一過程能夠更好地糾正神經(jīng)網(wǎng)絡的一些錯誤。但目前最先進的神經(jīng)網(wǎng)絡也缺乏有效的機制能讓人理解其推理過程。

對此,麻省理工學院林肯實驗室情報和決策技術小組開發(fā)了一個神經(jīng)網(wǎng)絡,可以執(zhí)行類似人類的推理步驟來回答與圖像相關的問題。該模型被命名為 Transparency by Design Network(簡稱:TbD-net),

同時,TbD-net 在解決問題時能夠用熱力圖來展示其進行視覺分析的過程,即當系統(tǒng)識別圖像時,會對識別的部分進行突出顯示,這達到了將決策過程可視化的效果。這種將決策過程可視化的形式讓研究人員能夠了解這一過程并對其進行分析。

(來源:麻省理工科技評論)

對于 TbD-net 的工作流程,該網(wǎng)絡內(nèi)有眾多模塊組成的集合,這是該系統(tǒng)中的一個關鍵部分,這些模塊是專門用于執(zhí)行特定子任務的小型神經(jīng)網(wǎng)絡。在 TbD-net 執(zhí)行圖像識別任務時,它會將問題分解為子任務并分配適當?shù)哪K,這些子任務會被分別完成之后再進行組合。

這些模塊就像流水線上的工人一樣,每個模塊基于前一個模塊的識別結果進行工作,一起生成了最終的結論。TbD-net 利用的 AI 技術能像理解人類語言一樣,將句子分解為多個子任務。而 TbD-net 能夠在處理圖像時進行類似的處理過程,分不同階段對圖像進行識別。

對于 TbD-net,如果你問它“那個巨大的金屬立方體是什么顏色?”那么第一個模塊會框定一個大大的物體;第二模塊會識別哪些對象是金屬;第三模塊會在前面得出的結果中找出標準立方體;最后,負責顏色識別的模塊會最終得出對象的顏色。

(來源:麻省理工科技評論)

TbD-net 研究人員之一的Majumdar 說:“將一系列復雜的推理分解為一系列較小的問題,每個子問題都可以分別解決再進行組合,是一種強大而直觀的推理手段?!?/p>

研究人員讓 TbD-ne t 經(jīng)過 7 萬圖片和 70 萬個問題的訓練后,再用 1.5 萬張圖片和 15 萬個問題對其進行測試,結果顯示其準確度達到 98.7%,優(yōu)于其他基于神經(jīng)模塊網(wǎng)絡的系統(tǒng)。

更重要的是,研究人員能夠在這個結果的基礎之上繼續(xù)優(yōu)化,通過查看模型的決策過程,他們可以找到問題的所在并進行有針對性的優(yōu)化,最終準確度達到了 99.1%。

除了對神經(jīng)網(wǎng)絡進行優(yōu)化,這篇論文的作者同時認為,了解神經(jīng)網(wǎng)絡的推理過程可能對獲得用戶信任大有幫助。用戶要能夠了解這一推理過程,才能夠理解模型為何會作出錯誤的預測。

(來源:麻省理工科技評論)

過去的幾個月中,許多公司、政府機構和獨立研究人員試圖解決人工智能中所謂的“黑箱”問題,都取得了不同程度的效果。

2017 年,美國國防高級研究計劃局(DARPA) 曾推出 DARPA XAI 項目,旨在研究“玻璃箱”模型,在不犧牲性能的情況下讓AI 推理過程更加透明。今年 8 月,IBM 的科學家們提出了一份 AI 的“情況說明書”,提供有關模型漏洞、偏見、對抗性攻擊易感性和其他特征的信息。微軟、埃森哲和 Facebook 也開發(fā)了自動化工具來檢測和減少 AI 算法中的偏差。

IBM 研究院的 AI 基金會負責人 Aleksandra Mojsilovic 在今年 8 月時曾說道:“AI 系統(tǒng)具有改變我們生活和工作方式的巨大潛力,但透明度問題必須得到解決,這樣才能讓 AI 得到更多的信任,”

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡

    關注

    42

    文章

    4844

    瀏覽量

    108218
  • 圖像識別
    +關注

    關注

    9

    文章

    535

    瀏覽量

    40199
  • AI
    AI
    +關注

    關注

    91

    文章

    41392

    瀏覽量

    302753

原文標題:AI“黑箱”難題獲新突破,MIT研究人員實現(xiàn)AI決策可視化

文章出處:【微信號:IEEE_China,微信公眾號:IEEE電氣電子工程師】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI的科學應用

    和關聯(lián)性 AI驅動科學:研究和模擬人類思維和認識過程。 本章節(jié)作者為我們講解了第五范式,介紹了科學發(fā)現(xiàn)的般方法和流程等。、科學發(fā)現(xiàn)的5個
    發(fā)表于 09-17 11:45

    下圖中的與打開文件相連的枚舉常量是自己一項一項編輯...

    下圖中的與打開文件相連的枚舉常量是自己一項一項編輯的還是自動就有的?
    發(fā)表于 03-17 21:39

    請問如何使?jié)L動列表的最后一項保持在列表底部?

    只顯示了最后一項(第 6 )。 我想在那種情況下顯示最后 3 個項目。有沒有實現(xiàn)它的選項或功能?或者我知道是否有任何其他小部件可以制作它。對不起,我沒有解釋。我希望可以更輕松地
    發(fā)表于 01-30 07:30

    美軍研究實驗室正研究一項技術,“AI+熱成像”,鏡頭下的楚門?

    月17日的篇文章,美國陸軍研究實驗室正在研究一項技術,通過AI的深度學習技術的加持,未來將可以實現(xiàn)黑暗中識別人臉的可能。
    發(fā)表于 05-02 08:34 ?1593次閱讀

    人工智能黑箱問題取得突破,AI圖像識別決策可視化實現(xiàn)

    直以來,AI 進行圖像識別都是個難以清楚解釋過程,而如今麻省理工學院林肯實驗室情報和決策
    的頭像 發(fā)表于 09-23 09:58 ?8462次閱讀

    迪士尼研究公司發(fā)布了一項研究 游客在拍照時穿上AR服裝

    迪士尼研究人員正在研究種方法,主題公園的游客拍出終極自拍
    發(fā)表于 11-07 15:41 ?1575次閱讀

    AI獲得更多信任!麻省理工研究實現(xiàn)人工智能決策可解化

    直以來,AI 進行圖像識別都是個難以清楚解釋過程,而如今麻省理工學院林肯實驗室情報和決策
    的頭像 發(fā)表于 08-06 15:17 ?5689次閱讀

    谷歌AI服務闡明了機器學習模型如何做出決策

    Google LLC已在其云平臺上推出了一項新的“可解釋AI”服務,旨在使機器學習模型做出決策過程更加
    發(fā)表于 11-30 11:06 ?1306次閱讀

    Google AI發(fā)布一項研究 可以“近乎即時”地預報天氣

    近日,據(jù)外媒報道,Google AI發(fā)布一項研究,稱可以“近乎即時”地預報天氣。谷歌的研究人員描述了如何能夠以僅數(shù)分鐘的計算,以1公里的分辨率提前六小時生成準確的降雨預測。
    發(fā)表于 01-17 11:47 ?813次閱讀

    一項關于可解釋人工智能規(guī)劃(XAIP)的工作調(diào)查

    解釋AI(X AI)近年來直是個積極的研究課題,受到DARPA2016年倡議的推動。 計算
    的頭像 發(fā)表于 04-03 14:57 ?4114次閱讀

    一項新的研究表明,免費上網(wǎng)應該成為一項基本人權

    一項新的研究表明,免費上網(wǎng)必須被視為一項人權,因為無法上網(wǎng)的人們(尤其是在發(fā)展中國家)缺乏有意義的方式來影響全球參與者塑造他們的日常生活。
    的頭像 發(fā)表于 04-21 17:35 ?3709次閱讀

    Spotify發(fā)明一項AI技術監(jiān)督詞曲作者剽竊行為

    12月3日 消息:音樂作品抄襲事件非常常見,為了更好阻止這類情況的發(fā)生,國外正版流媒體音樂服務平臺Spotify發(fā)明一項AI技術,目的是監(jiān)督詞曲作者剽竊行為。 根據(jù)上周公布的份文件,Spotify
    的頭像 發(fā)表于 12-03 11:40 ?2564次閱讀

    理性理解AI決策過程

    隨著人工智能(AI)的發(fā)展,其在各個領域的應用越來越廣泛,從醫(yī)療診斷到金融交易,從自動駕駛到智能家居。然而,盡管AI的能力在不斷提升,但其決策過程卻常常
    的頭像 發(fā)表于 11-22 09:39 ?2042次閱讀

    NVIDIA即將推出一項新的生成式AI專業(yè)認證

    NVIDIA 即將推出一項新的生成式 AI 專業(yè)認證,助力開發(fā)者在這重要領域證明自身技術實力。
    的頭像 發(fā)表于 03-14 09:43 ?1219次閱讀

    NVIDIA和谷歌云宣布開展一項新的合作,加速AI開發(fā)

    NVIDIA 和谷歌云宣布開展一項新的合作,以幫助全球初創(chuàng)企業(yè)加速創(chuàng)建生成式 AI 應用和服務。
    的頭像 發(fā)表于 04-11 14:03 ?1506次閱讀
    密云县| 滨州市| 南昌县| 南川市| 六枝特区| 新安县| 海原县| 灌阳县| 方城县| 禹城市| 宁强县| 甘肃省| 蓬溪县| 上犹县| 岢岚县| 亳州市| 彭泽县| 广州市| 沿河| 清水河县| 通山县| 金秀| 三江| 塔城市| 河间市| 汽车| 海口市| 广河县| 古浪县| 台前县| 银川市| 广饶县| 定陶县| 遂平县| 贵州省| 盐亭县| 通山县| 浑源县| 灌阳县| 广德县| 二连浩特市|