本文是人工智能專家George Seif撰寫的博文,介紹了在當前深度學習比較火熱的情景下需要避免的三個坑。
Tweaking Neural Net Parameters
Three reasons that you should NOT use deep learning
深度學習在過去幾年一直是人工智能領域最熱門的話題。事實上,正是它激發(fā)了科學家、政府、大公司以及其他所有人對人工智能的極大新興趣!這是一門很酷的科學,具有潛在的巨大的實用性和積極的應用。它正被用于金融、工程、娛樂、消費產品和服務等領域。
但是,所有應用都需要使用到深度學習嗎?當我們開展一個新的項目時,我們需要不自覺地一開始就使用深度學習嗎?
在有些情況下,使用深度學習是不合適的,我們需要選擇一些別的方案。讓我們來探討一下這些情況吧。
(1)深度學習不適用于小數據集
為了獲得高性能,深度網絡需要非常大的數據集。標注的數據越多,模型的性能就越好。獲得標注良好的數據既昂貴又耗時。雇傭人工手動收集圖片并標記它們根本沒有效率可言。在深度學習時代,數據無疑是最有價值的資源。
最新的研究表明,實現(xiàn)高性能的網絡通常需要經過數十萬甚至數百萬樣本的訓練。對于許多應用來說,這樣大的數據集并不容易獲得,并且獲取成本高且耗時。對于較小的數據集,傳統(tǒng)的ML算法(如回歸、隨機森林和支持向量機)通常優(yōu)于深度網絡。
(2)深度學習運用于實踐是困難且昂貴的
深度學習仍然是一項非常尖端的技術。您可以像許多人一樣獲得快速簡便的解決方案,特別是使用廣泛使用的API,例如Clarifai和Google的AutoML。但如果你想做一些定制化的事情,這樣的一些服務是不夠的。除非你愿意把錢花在研究上,否則你就會局限于做一些和其他人稍微相似的事情。
這也是很昂貴,不僅是因為需要獲取數據和計算能力所需的資源,還因為需要雇傭研究人員。深度學習研究現(xiàn)在非常熱門,所以這三項費用都非常昂貴。當你做一些定制化的事情時,你會花費大量的時間去嘗試和打破常規(guī)。
(3)深層網絡不易解釋
深層網絡就像是一個“黑盒子”,即使到現(xiàn)在,研究人員也不能完全理解深層網絡的“內部”。深層網絡具有很高的預測能力,但可解釋性較低。由于缺乏理論基礎,超參數和網絡設計也是一個很大的挑戰(zhàn)。
雖然最近有許多工具,如顯著性映射(saliencymaps)和激活差異(activation differences),它們在某些領域非常有效,但它們并不能完全適用于所有應用程序。這些工具的設計主要用于確保您的網絡不會過度擬合數據,或者將重點放在虛假的特定特性上。仍然很難將每個特征的重要性解釋為深層網絡的整體決策。
另一方面,經典的ML算法,如回歸或隨機森林,由于涉及到直接的特征工程,就很容易解釋和理解。此外,調優(yōu)超參數和修改模型設計的過程也更加簡單,因為我們對數據和底層算法有了更深入的了解。當必須將網絡的結果翻譯并交付給公眾或非技術受眾時,這些內容尤其重要。我們不能僅僅說“我們賣了那只股票”或“我們在那個病人身上用了這藥”是因為我們的深層網絡是這么說的,我們需要知道為什么。不幸的是,到目前為止,我們所掌握的關于深度學習的所有證據或者解釋都是經驗主義的。
-
人工智能
+關注
關注
1821文章
50426瀏覽量
267373 -
深度學習
+關注
關注
73文章
5612瀏覽量
124689
原文標題:深度學習并非萬能:你需要避免這三個坑
文章出處:【微信號:CAAI-1981,微信公眾號:中國人工智能學會】歡迎添加關注!文章轉載請注明出處。
發(fā)布評論請先 登錄
深度學習崛起帶熱人工智能 聚焦三大領域
學習hadoop需要什么基礎
嵌入式學習步驟的三個階段
開源深度學習庫排名三個重要指標:Github上的活動、Stack Overflow上的活動以及谷歌搜索結果
開源深度學習框架對比研究的三個主要維度學習
如何避免三個常見的機器學習錯誤?
在當前深度學習比較火熱的情景下需要避免的三個坑
如何理解深度學習?深度學習的理論探索分析
實施智能制造需要考慮的三個支點
實施智能制造需要考慮三個支點
醫(yī)療人工智能系統(tǒng)的三個關鍵要素和挑戰(zhàn)
關于人工智能發(fā)展的三個必要條件深度學習模型,大數據,算力
TensorFlow與PyTorch深度學習框架的比較與選擇
機器學習和深度學習中需避免的 7 個常見錯誤與局限性
深度學習比較火熱的情景下需要避免的三個坑
評論