日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

自動機(jī)器學(xué)習(xí)技術(shù)在推薦系統(tǒng)中的應(yīng)用

8g3K_AI_Thinker ? 來源:cg ? 2018-12-21 15:53 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

今天,推薦系統(tǒng)的模型和應(yīng)用已經(jīng)相當(dāng)成熟,然而部署一套全新的推薦系統(tǒng),甚至僅在已有系統(tǒng)上添加數(shù)據(jù)維度和模型優(yōu)化依然是非常耗時耗力的事情。

這是由于不同數(shù)據(jù)源的分布不盡相同,要達(dá)到滿意的建模效果,每個建模的環(huán)節(jié),包括數(shù)據(jù)處理、特征工程、模型的選擇和超參數(shù)選擇等都需要隨之變動和優(yōu)化。

以往這些工作都是建模工程師通過 A/B Test 和 Grid Search 等方式來手動調(diào)試有限的幾種建模組合方式,并挑出最好的配置作為上線用的系統(tǒng)配置。

然而要想從少量的嘗試中找到優(yōu)質(zhì)的模型方案,不僅要求工程師有豐富的建模經(jīng)驗(yàn),可能還需要一點(diǎn)點(diǎn)運(yùn)氣,成本和風(fēng)險(xiǎn)都比較高。

近幾年在機(jī)器學(xué)習(xí)領(lǐng)域興起的自動機(jī)器學(xué)習(xí)(AutoML)技術(shù),便是為了解決機(jī)器學(xué)習(xí)模型訓(xùn)練難,落地難這個痛點(diǎn)所做的努力。

我們同樣可以把 AutoML 技術(shù)應(yīng)用到推薦系統(tǒng)的建模中,這次分享主要介紹用哪些方法來打造一個 AutoML 系統(tǒng),并用于提升推薦系統(tǒng)的搭建效率。

如果我們看今天的機(jī)器學(xué)習(xí)應(yīng)用(以監(jiān)督學(xué)習(xí)為主),它大致可以分為傳統(tǒng)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)兩大類。

傳統(tǒng)機(jī)器學(xué)習(xí)用的比較多的模型有 LR、Gradient Boosting Machine、Random Forest、KNN 等,模型本身比較簡單和成熟,但是由于這些模型無法擬合非常復(fù)雜的非線性函數(shù),我們需要通過特征工程把原問題空間轉(zhuǎn)化到一個機(jī)器學(xué)習(xí)模型容易學(xué)的表述空間,才能得到好的效果。

相對傳統(tǒng)機(jī)器學(xué)習(xí),近幾年興起的深度學(xué)習(xí),由于其強(qiáng)大的模型表達(dá)能力,相對弱化了特征工程的重要性,具有端到端學(xué)習(xí)的能力。

尤其在處理圖像,文字和語音等非結(jié)構(gòu)化數(shù)據(jù)時,我們發(fā)現(xiàn)深度學(xué)習(xí)模型具有學(xué)習(xí)表述空間的能力(representation learning),從一定程度上實(shí)現(xiàn)了特征工程的自動化。

由于傳統(tǒng)機(jī)器學(xué)習(xí)模型和深度學(xué)習(xí)模型在建模過程中側(cè)重點(diǎn)不同,AutoML 也大致分為自動傳統(tǒng)機(jī)器學(xué)習(xí)和自動深度學(xué)習(xí)(如圖 1)。

其中自動傳統(tǒng)機(jī)器學(xué)習(xí)關(guān)注自動數(shù)據(jù)預(yù)處理,自動特征處理和自動算法選擇和配置,而自動深度學(xué)習(xí)則需要解決神經(jīng)網(wǎng)絡(luò)的自動訓(xùn)練和網(wǎng)絡(luò)結(jié)構(gòu)搜索的問題。我們下面就根據(jù)圖 1 來逐一探討 AutoML 的各個技術(shù)要點(diǎn)。

圖 1:自動機(jī)器學(xué)習(xí)組成部分

1. 自動傳統(tǒng)機(jī)器學(xué)習(xí)

當(dāng)我們有了用戶行為數(shù)據(jù)后,我們通常需要經(jīng)過數(shù)據(jù)清洗、數(shù)據(jù)預(yù)處理、特征工程、選擇模型、配置模型、融合模型等步驟來構(gòu)建一整個機(jī)器學(xué)習(xí)管道。

自動機(jī)器學(xué)習(xí)需要盡可能的自動化其中每個環(huán)節(jié)。除了數(shù)據(jù)清洗環(huán)節(jié)和數(shù)據(jù)本身耦合度很高,需要更多的人為操作以外,數(shù)據(jù)預(yù)處理和之后的步驟都已經(jīng)在自動機(jī)器學(xué)習(xí)領(lǐng)域存在可行的方案。

1.1 數(shù)據(jù)預(yù)處理

由于模型對數(shù)據(jù)都存在一定假設(shè),我們需要使用一些數(shù)據(jù)預(yù)處理的方法將進(jìn)入模型的數(shù)據(jù)處理成適合模型學(xué)習(xí)的分布。

比如神經(jīng)網(wǎng)絡(luò)模型需要輸入的數(shù)據(jù)符合正態(tài)分布,那么要對原始數(shù)據(jù)做歸一化處理;比如 Gradient Boosting Machine 不適合對類別數(shù)量非常高的離散特征建模,所以在前期要考慮刪除類別太多的離散特征。

在自動機(jī)器學(xué)習(xí)中,選擇哪種數(shù)據(jù)預(yù)處理方式和模型息息相關(guān),根據(jù)上面所述的經(jīng)驗(yàn)構(gòu)造一個固定模版,比如已知神經(jīng)網(wǎng)絡(luò)需要?dú)w一化處理,GBM 需要剔除高維離散特征,LR 模型需要線性分形等,把這些知識 hard code 進(jìn) AutoML 系統(tǒng)中,可以用一種模型來學(xué)習(xí)最優(yōu)組合。

這里介紹兩個可行的方向:一是使用貝葉斯優(yōu)化的方法,通過嘗試,反饋,優(yōu)化這一循環(huán)的過程來找到各個模型對應(yīng)的最佳數(shù)據(jù)預(yù)處理方法,我們會在后面對貝葉斯優(yōu)化做更詳細(xì)介紹;

另一個方向是元學(xué)習(xí),我們在很多數(shù)據(jù)集上通過實(shí)驗(yàn)不同的預(yù)處理-模型組合,記錄下每個數(shù)據(jù)集上最優(yōu)的組合,當(dāng)在新數(shù)據(jù)集上開始探索時,會首先計(jì)算數(shù)據(jù)集的元特征,并在元特征空間中找到幾個最相似的曾經(jīng)試驗(yàn)過的數(shù)據(jù)集,并借用它們的最優(yōu)預(yù)處理方案。

這兩個方向也可以結(jié)合起來,用元學(xué)習(xí)幫助熱啟動,再使用貝葉斯優(yōu)化探索適合新任務(wù)的方案。

1.2 自動特征處理

有人說,世界上的數(shù)據(jù)科學(xué)家,平均花 80% 的時間做特征,20% 的時間建模型,我們在工作中也意識到特征工程無比的重要性。

因此在自動機(jī)器學(xué)習(xí)系統(tǒng)中,特征也同樣是極其重要的環(huán)節(jié)。在這里討論一下特征組合,如何處理時序特征,使用變分自編碼器構(gòu)造特征等方法。

1.2.1 多粒度離散化

推薦系統(tǒng)常用的 LR 模型,在處理高維離散特征上非常強(qiáng)大,然而其簡單的線性模型本質(zhì)使它對非線性的連續(xù)特征解釋效果較差,并且在連續(xù)值特征尺度變化較大時效果不穩(wěn)定。

分桶是一種常見的連續(xù)特征離散化方法,然而分桶數(shù)目對建模結(jié)果影響較大。因此我們使用第四范式自研的線性分形分類器(LFC)來解決這個問題。

使用 LFC 我們可以讓模型從數(shù)據(jù)中自動選取最合適的分桶方式,同時 LFC 可以實(shí)現(xiàn)在特征粒度的離群點(diǎn)檢測,使得模型更為魯棒。通過這種技術(shù),我們在業(yè)務(wù)數(shù)據(jù)上都能相比 LR 提升一個百分點(diǎn)。

1.2.2 自動特征組合

原始數(shù)據(jù)中有的隱藏的關(guān)系,機(jī)器學(xué)習(xí)模型并不容易學(xué)到,所以需要通過構(gòu)造特征把這些隱性關(guān)系表達(dá)出來。針對離散特征和連續(xù)特征分別介紹基于啟發(fā)式算法的自動特征組合方法。

對于離散特征,由于簡單的線性模型無法學(xué)到多個特征的交互,需要通過笛卡爾積來生成組合特征。

舉個例子,如果要給決定是否給用戶推薦一款很受年輕女性歡迎的化妝品,原始數(shù)據(jù)里只有年齡段和性別兩個字段,可以把年齡段_性別作為一個新的特征,模型便能很容易從歷史數(shù)據(jù)中學(xué)出這款化妝品推薦給年輕女性接受度很高。

如果把所有組合特征都生成出來,那么組合特征的個數(shù)是隨著階數(shù)呈指數(shù)性增長的(搜索空間大于 AlphaGo),也就是我們很快就會產(chǎn)生出系統(tǒng)無法承受的數(shù)據(jù)量來。

針對這種情況,我們提出了一個自動特征組合算法 FeatureGo,結(jié)合集束搜索(Beam Search)和回溯(Backtracking)策略,去逐步搜索特征空間。

另外,基于 Boosting 的思想,提出了一系列替換損失函數(shù)來高效的評估特征重要性。我們在第四范式的大規(guī)模分布式機(jī)器學(xué)習(xí)平臺 GDBT 實(shí)現(xiàn)了該算法,并依據(jù)實(shí)際應(yīng)用場景定制化開發(fā),能夠在短時間內(nèi)快速搜索到有效組合特征。我們發(fā)現(xiàn)在實(shí)際應(yīng)用中都可以得到可觀的效果提升,在所有實(shí)際應(yīng)用中得到了超過 5 個千分點(diǎn)的提升。

1.2.3 自動時序特征

在業(yè)界的實(shí)際場景中,數(shù)據(jù)一般包含時序信息,因此需要考慮如何自動構(gòu)建時序特征,然而時序特征對系統(tǒng)性能要求較高。為了去的更好的建模效果,也要求時序特征算子盡可能多以覆蓋各種情況。

基于 GDBT,我們實(shí)現(xiàn)了非常高效的自動時序特征生成和選擇算子:TemporalGo,它包括時序統(tǒng)計(jì)信息、隱式向量等方法,也涵蓋如循環(huán)神經(jīng)網(wǎng)絡(luò) RNN 等方法,顯著提升了建模效果。

1.2.4 變分自編碼器 (VAE)

變分自編碼器(VAE)是一種基于神經(jīng)網(wǎng)絡(luò)的生成模型,其目標(biāo)是給定原始數(shù)據(jù),VAE 經(jīng)過編碼和解碼后要盡可能地還原出原始數(shù)據(jù)。

可以把 VAE 用作一個基于模型的特征生成手段,而且經(jīng)過 VAE 編碼后的數(shù)值分布會盡可能的接近正態(tài)分布,這樣的新特征可以直接給很多機(jī)器學(xué)習(xí)模型使用。

當(dāng)然訓(xùn)練 VAE 本身很耗時間,而且需要較大的數(shù)據(jù)量才可能有效果,在實(shí)際應(yīng)用當(dāng)中,優(yōu)先考慮其他特征工程方法。

1.3 模型選擇

在拿到一個問題開始建模之前,都會面臨一個問題,用什么樣的模型?你可以很容易地根據(jù)自己的經(jīng)驗(yàn),面對分類問題還是回歸問題,圖像還是表類數(shù)據(jù),列出幾個候選模型,然后你可能會把候選模型用這個數(shù)據(jù)都訓(xùn)練一遍,并挑出那個驗(yàn)證效果最好的模型用在生產(chǎn)中。在自動機(jī)器學(xué)習(xí)中,我們也會把模型選擇分成兩步。

首先,拿到一個新問題時,我們獲得這個問題的 meta 信息,比如數(shù)據(jù)是什么格式,數(shù)據(jù)量大小,訓(xùn)練指標(biāo)是什么等,通過查詢預(yù)先準(zhǔn)備的問題映射到模型的查找表,找到適合這個問題的幾款候選模型及相關(guān)超參數(shù)設(shè)置(或者超參數(shù)的搜索空間)。

接下來便是挑選效果好的模型。最樸素的做法是把所有可能的模型和超參數(shù)配置都訓(xùn)練一遍,挑出最好的模型即可,然而現(xiàn)實(shí)情況通常都有時間和計(jì)算資源的限制,導(dǎo)致我們無法訓(xùn)練所有可能的模型參數(shù)組合。

我們需要一個更加節(jié)省資源的方法,對于一個問題,很多模型不一定需要到訓(xùn)練結(jié)束才能做出判斷哪個模型效果好或者差,可能在訓(xùn)練過程中我們通過觀測驗(yàn)證指標(biāo),就能提前剔除一些效果太差的模型。

1.4 模型超參數(shù)優(yōu)化

一個模型在開始訓(xùn)練前,可能需要人設(shè)置一些參數(shù),比如 LR 有 L1、L2 正則系數(shù)用來控制模型過擬合,GBM 有樹棵樹,學(xué)習(xí)率等,這些參數(shù)配置的好壞會直接影響最終的模型效果,而且參數(shù)配置的好壞又和數(shù)據(jù)本身有很強(qiáng)的相關(guān)性。

也就是說,不存在一組黃金配置能在所有數(shù)據(jù)集上都表現(xiàn)良好。因此建模工作中一個不可或缺的工作便是模型超參數(shù)的優(yōu)化。

如果是我們手動優(yōu)化參數(shù),一般是選取幾組我們認(rèn)為值得嘗試的參數(shù)配置,然后訓(xùn)練模型并做交叉驗(yàn)證,最后挑出驗(yàn)證指標(biāo)最好的模型用作生產(chǎn)。

這種做法對一兩個超參數(shù)做優(yōu)化還能應(yīng)付,然而傳統(tǒng)機(jī)器模型 GBM 就有小十個需要調(diào)試的超參數(shù),更不用說深度學(xué)習(xí)模型會有更多的參數(shù)選擇,這使得自動優(yōu)化超參數(shù)技術(shù)越來越多的應(yīng)用到實(shí)際建模中。

最常見的做法是 Grid Search 和 Random Search。Grid Search 是讓用戶在每個超參數(shù)的選擇范圍里取幾個點(diǎn),然后機(jī)器會將所有可能的參數(shù)組合都嘗試一遍,最后選出最好的模型,這種方法有兩個問題,一是需要用戶對每個超參數(shù)都要取點(diǎn),二是由于需要嘗試所有參數(shù)組合,對計(jì)算資源的消耗非常高。

Random Search 是給定超參數(shù)選擇的空間范圍,然后在這個空間里隨機(jī)采樣N組超參數(shù)配置,交給模型做交叉驗(yàn)證,并選出最好的模型。

在實(shí)際應(yīng)用中,Random Search 在超參數(shù)較多的情況下比 Grid Search 更快而且效果更好。

目前提到的兩種做法實(shí)現(xiàn)起來都很簡單,但缺點(diǎn)是它們都是在參數(shù)空間里盲目的搜尋,效率較低。

接下來我們介紹幾種在提升效率上努力的思路:

1.4.1 貝葉斯優(yōu)化

貝葉斯優(yōu)化是一種用于全局優(yōu)化的搜索策略,早期多用于工業(yè)工程方向,來優(yōu)化工業(yè)流程設(shè)計(jì)的配置。近幾年貝葉斯優(yōu)化開始廣泛出現(xiàn)在機(jī)器學(xué)習(xí)領(lǐng)域的研究中,尤其在超參數(shù)優(yōu)化領(lǐng)域。

葉斯優(yōu)化的思路是將超參數(shù)空間映射到驗(yàn)證指標(biāo)空間的函數(shù)作為優(yōu)化的目標(biāo)函數(shù),然而這個函數(shù)的形式是未知的,而且要計(jì)算一個點(diǎn)的函數(shù)值需要消耗很多資源(等同于用一組超參數(shù)配置來訓(xùn)練模型并做交叉驗(yàn)證)。

所以貝葉斯優(yōu)化會把已經(jīng)嘗試過的超參數(shù)配置和對應(yīng)的交叉驗(yàn)證指標(biāo)作為歷史數(shù)據(jù),并用它訓(xùn)練一個機(jī)器學(xué)習(xí)模型。

這個模型和通常的機(jī)器學(xué)習(xí)模型略有不同,它不僅需要提供預(yù)測值(prediction),還要提供對于這個預(yù)測的不確定度(uncertainty)。

這是因?yàn)榻酉聛淼膬?yōu)化策略會同時根據(jù)預(yù)測值和不確定度來決定嘗試哪組新的超參數(shù)。貝葉斯優(yōu)化中的優(yōu)化策略往往需要考慮發(fā)掘(exploitation)和探索(exploration)兩個因素。

發(fā)掘是指根據(jù)目前的模型預(yù)測,找到預(yù)測效果最好的超參數(shù);探索是指目前的模型也許還沒有觸及到搜索空間中真正的全局最優(yōu),所以需要去探索那些區(qū)域,而這些區(qū)域一般可以通過不確定度來知曉。

為了兼顧這兩個因素,優(yōu)化策略會把預(yù)測值和不確定度兩個指標(biāo)融合在一起搜索下一個要嘗試的超參數(shù)。

因?yàn)樨惾~斯優(yōu)化很好的平衡了發(fā)掘和探索,這類方法在解決全局優(yōu)化問題中都表現(xiàn)出極高的效率,收斂速度很快,所以在超參數(shù)優(yōu)化問題中也取得了很好的效果。

1.4.2 進(jìn)化算法

進(jìn)化算法是一種啟發(fā)式優(yōu)化算法,正如其字面意思,這個算法模仿了進(jìn)化理論,通過優(yōu)勝劣汰的機(jī)制選出好的配置。

1.4.3 強(qiáng)化學(xué)習(xí)

強(qiáng)化學(xué)習(xí)中有一類最簡單的問題叫做多臂老虎機(jī),這類問題源于賭博,大概是這樣的:賭場里有N多臺老虎機(jī),每臺機(jī)器的贏率是固定且未知的,賭徒想要通過實(shí)驗(yàn)找到贏率最高的那臺機(jī)器,這樣他的期望回報(bào)才是最優(yōu)的。

最傻的辦法就是在每臺機(jī)器上試驗(yàn) M 次,統(tǒng)計(jì)一下每臺機(jī)器的贏的次數(shù),并選出那臺贏率最高的機(jī)器。

然而這個方法很顯然有很多可提高之處,比如有的機(jī)器在玩了 K

事實(shí)上,我們可以想象每組可能的超參數(shù)配置是一臺老虎機(jī),它內(nèi)部藏著一個未知的數(shù)字,在我們這里可以認(rèn)為是用這組配置訓(xùn)練模型能達(dá)到的驗(yàn)證指標(biāo)。為了了解這個未知數(shù)字,我們只能通過訓(xùn)練模型,訓(xùn)練時間越久,我們投入的資源就越多。

于是多臂老虎機(jī)的策略也可以應(yīng)用到我們的問題上,也就是為了找到最優(yōu)的超參數(shù),決定每組超參數(shù)配置要投入多少資源訓(xùn)練模型的問題。

這里僅粗略介紹了三個優(yōu)化超參數(shù)的方向,其實(shí)最近幾年涌現(xiàn)了很多優(yōu)秀的工作,包括使用元學(xué)習(xí),對學(xué)習(xí)曲線建模,或者將上述的幾個思路融合等方式,使超參數(shù)優(yōu)化變得愈加高效。

1.5 采樣優(yōu)化

當(dāng)數(shù)據(jù)量很大時,用全量數(shù)據(jù)訓(xùn)練一個模型會花費(fèi)很長時間,而探索的過程需要訓(xùn)練多次模型,那么總開銷就太大了。

也許我們在探索時只使用少量的部分?jǐn)?shù)據(jù)訓(xùn)練模型,并且得到的關(guān)于模型和參數(shù)的選擇又能幫助到全量數(shù)據(jù)訓(xùn)練情況下的選擇,那我們就有機(jī)會節(jié)省大量資源。

這個設(shè)想在幾年前就有工作進(jìn)行了證實(shí),通過觀察不同采樣率下訓(xùn)練模型的效果和超參數(shù)的關(guān)系分布,發(fā)現(xiàn)低采樣率時超參數(shù)和效果的分布與全量數(shù)據(jù)訓(xùn)練下的分布具有很強(qiáng)的相關(guān)性。

于是我們在實(shí)際應(yīng)用中,可以使用預(yù)定的降采樣率選擇少部分?jǐn)?shù)據(jù),并在這部分?jǐn)?shù)據(jù)上進(jìn)行模型和超參數(shù)的優(yōu)化,然后將找到的最優(yōu)選擇直接放到全量數(shù)據(jù)上訓(xùn)練生產(chǎn)用模型。

我們發(fā)現(xiàn)這種方法盡管樸素,實(shí)際應(yīng)用中卻能達(dá)到很好的效果。學(xué)術(shù)界也有提出更成熟的做法,比如對采樣率建模[2],以期望通過一個配置使用低采樣率訓(xùn)練的模型效果來預(yù)測全量數(shù)據(jù)下的模型效果,并用預(yù)測值來指導(dǎo)超參數(shù)的搜索。

2. 自動深度學(xué)習(xí)

深度學(xué)習(xí)由于具有模型表達(dá)能力強(qiáng),自動學(xué)習(xí)特征的端到端特性等優(yōu)點(diǎn),是今天機(jī)器學(xué)習(xí)領(lǐng)域最受歡迎的模型框架。

然而訓(xùn)練深度學(xué)習(xí)模型并非易事,不僅有大量的模型超參數(shù)需要人工調(diào)試,而且模型效果對超參數(shù)的選擇極其敏感,因此需要大量的嘗試和行業(yè)經(jīng)驗(yàn)才能得到優(yōu)質(zhì)的效果。

自動深度學(xué)習(xí)面臨同樣的挑戰(zhàn),所以除了會共用前面介紹的自動機(jī)器學(xué)習(xí)的思路和方法,自動深度學(xué)習(xí)有一些獨(dú)特的方向值得在這里探討。下面我們會圍繞自動訓(xùn)練和網(wǎng)絡(luò)結(jié)構(gòu)搜索兩個方面展開。

2.1 自動訓(xùn)練

深度學(xué)習(xí)模型和傳統(tǒng)機(jī)器學(xué)習(xí)模型相比,需要配置的超參數(shù)會多很多,訓(xùn)練時對資源的消耗也會較大,因此自動訓(xùn)練是一個更有挑戰(zhàn)性的工作。

樸素的 Grid Search 和 Random Search 基本得不到滿意的效果,必須使用更成熟的搜索策略和精心設(shè)計(jì)的搜索空間才能實(shí)現(xiàn)自動化。

由于神經(jīng)網(wǎng)絡(luò)的訓(xùn)練速度較慢,我們希望能盡可能地從訓(xùn)練過程中得到最多的信息和信息再利用。

我們總結(jié)一下目前工作的幾個方向,和大家分享。

2.1.1 模型再利用

想象一下一個神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練是一個小人在模型的權(quán)重空間(weight space)里漫步,靠著 SGD 指引他一步步接近最優(yōu)權(quán)重,而使用一組好的配置,就是為了使這個路徑能夠通往最有權(quán)重所在的位置,而不是中途就卡在一個局部最優(yōu)不能動彈,或者來回跳動不能收斂,甚至到了一個過擬合的地方。

目前為止我們提到過的搜索模型配置的方法,都是選一組配置,然后讓這個小人從一個初始化的位置開始走,如果這個配置讓小人走偏了,那我們換一組配置,再讓小人從頭開始走。

但這樣每次小人走過的路就都白費(fèi)了,我們完全可以讓小人從一個雖然不是最優(yōu)的,但還是不錯的位置作為起點(diǎn),繼續(xù)去尋找那個最優(yōu)地點(diǎn)。

這是 Deepmind 在 2017 年發(fā)表的題為 population based training 的論文 [3] 的思想之一,通過再利用已經(jīng)訓(xùn)練過的模型,來加速訓(xùn)練和調(diào)參的過程。

此外,南京大學(xué)的周志華教授還提出了“學(xué)件”的構(gòu)想,“學(xué)件”由模型和用于描述模型的規(guī)約兩部分構(gòu)成。當(dāng)需要構(gòu)建新的機(jī)器學(xué)習(xí)應(yīng)用時,不用再從頭建模,可以直接需要尋找適合的學(xué)件直接使用。

2.1.2 擬合 Learning curve

TensorFlow 訓(xùn)練模型的同學(xué)可能用過 Tensorboard,這個可視化工具可以展示模型訓(xùn)練過程中各種指標(biāo)的變化,我們稱之為學(xué)習(xí)曲線(Learning curve)。

這個曲線是有規(guī)律可循的,比如驗(yàn)證 AUC,隨著訓(xùn)練,會不斷的上升,到收斂的時候可能開始持平波動,之后也許由于過擬合又會下降。我們可以用一個模型來擬合這條曲線 [4]。

這樣做的目的是,假如我有一個靠譜的擬合模型,那么試驗(yàn)一組新的配置,我可能只用讓模型訓(xùn)練較短的時間,并用前面一小段學(xué)習(xí)曲線和擬合模型來預(yù)測最終這組配置能讓模型訓(xùn)練到什么程度,那么我們便可以用少量的資源對模型配置做一個初步的篩選,提升效率。

2.1.3 Meta learning

元學(xué)習(xí)(Meta Learning)的目標(biāo)是給一個新的問題,它能生成一個解決這個問題的模型。這一思路也可以用到自動深度學(xué)習(xí)上,同樣是 2.1.1 中小人的例子,我們可以找到一個權(quán)重空間里的位置,它對于很多類似的新問題都是一個還不錯的位置,只要用對應(yīng)問題的數(shù)據(jù)讓小人再走兩步就能達(dá)到最優(yōu)了。

有一篇論文 [5] 便用到了這個思想,它訓(xùn)練一個神經(jīng)網(wǎng)絡(luò)模型,但損失函數(shù)并不是用某一任務(wù)的數(shù)據(jù)直接計(jì)算的,而是讓任意一個采樣的訓(xùn)練任務(wù)的數(shù)據(jù)再訓(xùn)練一步,之后的損失作為目標(biāo)函數(shù)。

也就是說,它要讓小人站在一個理想的多岔口,能夠離任意一個具體任務(wù)的最優(yōu)位置很近。這和 2.1.1 想要達(dá)到的加速訓(xùn)練的目的類似,只不過是用一個元模型顯性地去尋找“理想的多岔口”。

2.1.4 模型融合

由于深度學(xué)習(xí)模型的損失函數(shù)平面非常復(fù)雜,使訓(xùn)練時找到一個魯棒的最優(yōu)點(diǎn)很困難。為解決這個問題,我們可以用不同的初始化,訓(xùn)練多個模型,并將它們?nèi)诤掀饋怼?/p>

這是比較標(biāo)準(zhǔn)的做法,最近有兩篇論文給出了更有趣的方案:第一篇 [6] 的思想類似于 2.1.1,在小人找到第一個最優(yōu)點(diǎn),記錄下當(dāng)前的權(quán)重,然后增大學(xué)習(xí)率,讓小人跳出當(dāng)前的最優(yōu)點(diǎn),去尋找附近的另一個最優(yōu)點(diǎn),如此反復(fù)幾次,把記錄的權(quán)重對應(yīng)的模型融合起來,會相比標(biāo)準(zhǔn)的融合做法省去從頭訓(xùn)練模型的時間。

第二篇 [7] 使用類似第一篇的循環(huán)學(xué)習(xí)率設(shè)置,但它不再記錄多個模型,而是將存下來的權(quán)重直接取平均,這樣做的好處是在預(yù)測階段,只有一個模型預(yù)測,節(jié)省了普通模型融合需要多個模型同時預(yù)測的耗費(fèi)。另外論文中也表明直接取平均能得到更魯棒的模型。感興趣的話可以去閱讀下這兩篇論文。

2.2 網(wǎng)絡(luò)結(jié)構(gòu)搜索

不管是圖像,文字還是語音,都有幾款大家耳熟能詳?shù)纳窠?jīng)網(wǎng)絡(luò)結(jié)構(gòu),這些網(wǎng)絡(luò)結(jié)構(gòu)的巨大成功,歸功于背后的研究人員的學(xué)識,靈感和不懈嘗試。隨著深度學(xué)習(xí)應(yīng)用到越來越多的現(xiàn)實(shí)場景,對模型包括網(wǎng)絡(luò)結(jié)構(gòu)的需求也在變的更多樣化。

舉一個例子,在手機(jī)設(shè)備上的人臉識別軟件,由于硬件設(shè)備的差異性,軟件供應(yīng)商需要對每種手機(jī)做相應(yīng)的模型優(yōu)化,如果全部依靠人力來做調(diào)試,很顯然對資源的要求和耗費(fèi)非常巨大。

這使我們不得不思考,是否有可能讓機(jī)器來取代一部分這樣的工作,將人力解放出來。早在 2016 年,Google Brain 就在這方面做了嘗試 [8],通過強(qiáng)化學(xué)習(xí)的方式訓(xùn)練一個能搭建網(wǎng)絡(luò)結(jié)構(gòu)的 RNN,并構(gòu)造出了當(dāng)時在圖像數(shù)據(jù)集 CIFAR10 和自然語言數(shù)據(jù)集 Penn Treebank 上效果最好的模型。網(wǎng)絡(luò)結(jié)構(gòu)搜索(Neural Architecture Search)的名字也是由這篇論文而來。

盡管到今天網(wǎng)絡(luò)結(jié)構(gòu)搜索的歷史不長,卻已經(jīng)涌現(xiàn)了很多優(yōu)秀的工作,這里我們介紹幾個思路和方向。

2.2.1 基于強(qiáng)化學(xué)習(xí)

最早提出 NAS 的方案便是基于強(qiáng)化學(xué)習(xí),后來出現(xiàn)的很多結(jié)構(gòu)搜索的論文對這個方法做了改動和優(yōu)化,沿用至今。

這個思路大概是說,我們在構(gòu)造網(wǎng)絡(luò)結(jié)構(gòu)時,就好像是在堆樂高積木,從第一層開始,我們有幾個基本元件,和幾種拼接方法,我們按照一定流程一層一層拼出一個網(wǎng)絡(luò)結(jié)構(gòu)來。

而強(qiáng)化學(xué)習(xí)就是要學(xué)出一套構(gòu)造優(yōu)質(zhì)網(wǎng)絡(luò)結(jié)構(gòu)的流程。由于這個流程是一個序列,那用 RNN 來建模就再適合不過了,于是我們讓這個 RNN 每一步輸出一個決策,來決定選擇哪個基本元件,或者使用哪種拼接方法。

當(dāng) RNN 輸出足夠的決策后,一個網(wǎng)絡(luò)結(jié)構(gòu)變生成了,我們拿它在一個數(shù)據(jù)集上訓(xùn)練并測試,得到的驗(yàn)證指標(biāo)便成為獎勵用來訓(xùn)練 RNN。

最終,被訓(xùn)練的 RNN 便學(xué)會了構(gòu)造好的網(wǎng)絡(luò)結(jié)構(gòu)來。聽起來非常有道理,但這種做法其實(shí)有一個問題,就是訓(xùn)練 RNN 需要很多樣本,而這個問題里一個樣本便意味著訓(xùn)練一個神經(jīng)網(wǎng)絡(luò)模型,因此獲取樣本是很貴的。

事實(shí)也是如此,文章 [8] 里動用了 400 個 GPU 同時訓(xùn)練,一個訓(xùn)練了 1 萬多個模型后才超越了當(dāng)時最好的模型。大概只有 Google Brain 這樣有巨量計(jì)算資源的地方才有可能做這樣的嘗試。

后續(xù)有很多工作都嘗試減少資源的耗費(fèi),使搜索變得更高效,比如使搜索空間變得更小 [9],模型間共享權(quán)重 [10] 等。

2.2.2 共享權(quán)重

剛才提到了每個模型都要從頭訓(xùn)練是非常低效的,ENAS[10] 提出了模型共享權(quán)重的理念。

文章作者認(rèn)為,一個網(wǎng)絡(luò)結(jié)構(gòu)圖是一個更大的圖的子圖,于是作者索性存下包含整個結(jié)構(gòu)搜索空間的母圖的所有權(quán)重,并且邊訓(xùn)練權(quán)重邊訓(xùn)練如前所述的 RNN。

由于 RNN 構(gòu)造出來的新結(jié)構(gòu)直接從母圖中獲取權(quán)重,便省去了從頭訓(xùn)練模型的過程,使整個搜索比以前的方法快了上百倍。

2.2.3 元學(xué)習(xí)

由 ENAS 的共享權(quán)重受到啟發(fā),一篇新的工作 [11] 使用母圖作為元模型,通過 dropout 的方式來訓(xùn)練元模型。

于是沒有了構(gòu)造結(jié)構(gòu)的 RNN,而是以隨機(jī) dropout 的形式來讓元模型找出什么樣的結(jié)構(gòu)是重要的。作者在文中展示的效果和 ENAS 類似,我覺得兩種方法不好說孰好孰壞,都可以拿來嘗試下。

2.2.4 貝葉斯優(yōu)化

最近有一個叫 Auto-Keras 的開源軟件受到了一定關(guān)注,這個軟件包致力于幫助人們自動訓(xùn)練深度學(xué)習(xí)模型,而軟件的“自動”部分基于一篇該作者發(fā)表的論文[12],文中使用貝葉斯優(yōu)化作為結(jié)構(gòu)搜索策略,并用 Network Morphism 來加速模型的訓(xùn)練。

作者定義了不同結(jié)構(gòu)之間的“距離”,也就是不相似度,并基于此來構(gòu)建貝葉斯優(yōu)化中所需要的貝葉斯模型。

有了貝葉斯優(yōu)化來指導(dǎo)結(jié)構(gòu)搜索后,對于新結(jié)構(gòu),作者并非從頭開始訓(xùn)練模型,而是使用 Network Morphism,將已經(jīng)訓(xùn)練過的模型通過變換轉(zhuǎn)變成要訓(xùn)練的新模型,而同時能保留原來模型的功能,如此一來,只需要用比從頭訓(xùn)練少得多的資源就能訓(xùn)練出新的模型。

除了以上介紹的幾種思路之外,很多其它用于優(yōu)化的方法也都出現(xiàn)在結(jié)構(gòu)搜索的應(yīng)用中,比如前面提到過的進(jìn)化算法 [5],基于模型的迭代式搜索 [13] 等。

2.3 適用于寬表數(shù)據(jù)的自動深度學(xué)習(xí)

目前的自動深度學(xué)習(xí)訓(xùn)練和網(wǎng)絡(luò)結(jié)構(gòu)搜索,主要集中在語音、圖像和文本等領(lǐng)域,尚未見到針對寬表業(yè)務(wù)數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索,然而這正是工業(yè)界最迫切的需求之一,其對應(yīng)的自動深度學(xué)習(xí)價值較大。

針對寬表業(yè)務(wù)數(shù)據(jù)對應(yīng)的大規(guī)模離散特征數(shù)據(jù)集,我們研發(fā)了深度稀疏網(wǎng)絡(luò)(Deep Sparse Network,DSN)及其自動版本 Auto-DSN。

DSN 采用多層級網(wǎng)絡(luò)架構(gòu),綜合利用數(shù)據(jù)采樣、注意力機(jī)制和動態(tài)維度表達(dá)等方法,能夠有效的對寬表數(shù)據(jù)進(jìn)行建模。

Auto-DSN 綜合利用上述各種技術(shù),使得用戶配置一個和資源相關(guān)的參數(shù),即可在合理時間內(nèi),搜索到對寬表業(yè)務(wù)數(shù)據(jù)最佳的模型結(jié)構(gòu)及超參數(shù)。我們在一些實(shí)際業(yè)務(wù)中驗(yàn)證了它的有效性。

3. 模型評估

自動機(jī)器學(xué)習(xí)根據(jù)評估指標(biāo)來優(yōu)化模型,在這次分享的最后,我們再探討一下怎樣對模型的評估是可靠的。

首先評估指標(biāo)的選擇應(yīng)該和具體業(yè)務(wù)相結(jié)合,根據(jù)業(yè)務(wù)目標(biāo)來制定對模型的評估方式,如果不考慮業(yè)務(wù)相關(guān)指標(biāo),機(jī)器學(xué)習(xí)中我們常用的指標(biāo)有 AUC、logloss、MSE、MAE 等,關(guān)于其定義和用法網(wǎng)上有很多資料解釋,這里就不贅述了。我想主要分享的是關(guān)于如何對抗過擬合的一些經(jīng)驗(yàn)。

這里的過擬合是指,在優(yōu)化模型的配置或者參數(shù)的過程中,我們找到一組配置可能在我們的驗(yàn)證集上表現(xiàn)效果很好,然而使用這個模型生產(chǎn)卻并未得到最好的效果。

原因是多方面的,可能我們使用固定的驗(yàn)證集來優(yōu)化配置,導(dǎo)致這個配置僅僅在當(dāng)前驗(yàn)證集上的效果最好,沒有普遍性;也可能是訓(xùn)練模型時由于一定的隨機(jī)性把某個次優(yōu)的配置當(dāng)成了最優(yōu)配置。

為解決以上的問題,我們分別做了些嘗試。對于固定驗(yàn)證集導(dǎo)致的過擬合,標(biāo)準(zhǔn)的做法是使用交叉驗(yàn)證來計(jì)算指標(biāo),然而帶來的問題是交叉驗(yàn)證所需的資源是固定驗(yàn)證集的折數(shù)倍。

比如常用的五折交叉驗(yàn)證就需要五倍于固定驗(yàn)證集的資源來優(yōu)化。當(dāng)模型訓(xùn)練時間很長時,我們沒有足夠的資源計(jì)算完整的交叉驗(yàn)證,于是我們會依然按照交叉驗(yàn)證的方式來切分?jǐn)?shù)據(jù)。

但每次驗(yàn)證時我們只會隨機(jī)選取其中一份驗(yàn)證集來計(jì)算驗(yàn)證指標(biāo),這樣指標(biāo)的期望值就是無偏的。

當(dāng)然這又引入一個新的問題,雖然期望是無偏的,卻由于我們的隨機(jī)選取導(dǎo)致方差變大了,也就是我們把次優(yōu)選擇當(dāng)成最優(yōu)選擇的風(fēng)險(xiǎn)變大了。

這里我們引用 [14] 的“intensification mechanism”來解決這個問題,這個過程是我們將第一組搜索的配置用完整的交叉驗(yàn)證計(jì)算出平均指標(biāo),并記為“最優(yōu)配置”,后續(xù)搜索到的新配置都會和“最優(yōu)配置”比較,比的方式是計(jì)算新配置在某一折驗(yàn)證集上的指標(biāo)。

如果當(dāng)前新配置的平均指標(biāo)低于“最優(yōu)配置”,則放棄這個新配置并開始新的搜索,反之則再選一折驗(yàn)證集計(jì)算指標(biāo),如果所有驗(yàn)證集都已經(jīng)計(jì)算完,新配置的平均指標(biāo)還是更優(yōu)的,便把這個配置作為新的“最優(yōu)配置”。

這樣一來,我們只會把更多的計(jì)算量放在有潛力成為最優(yōu)配置的配置上,總體消耗還是低于標(biāo)準(zhǔn)的交叉驗(yàn)證的。

根據(jù)我們目前在推薦業(yè)務(wù)中的嘗試,上述方法中:自動特征離散化會給模型帶來最明顯的泛化能力提升和 AUC 明顯升高、自動特征組合可以最有效地提高模型對物料和人群的精準(zhǔn)刻畫能力和精準(zhǔn)個性化推薦效果、采樣優(yōu)化和模型超參數(shù)優(yōu)化功能對機(jī)器資源和訓(xùn)練時間的優(yōu)化效果最為明顯,給業(yè)務(wù)方留下了深刻的印象,歡迎大家進(jìn)行嘗試。

上述內(nèi)容便是我們在實(shí)際應(yīng)用 AutoML 中的感想和經(jīng)驗(yàn),希望能對大家有用。我們也希望更多的人開始了解和運(yùn)用這個領(lǐng)域的方法,幫助他們加快機(jī)器學(xué)習(xí)系統(tǒng)的研發(fā)和生產(chǎn)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:AutoML 在推薦系統(tǒng)中的應(yīng)用

文章出處:【微信號:AI_Thinker,微信公眾號:人工智能頭條】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    【智能檢測】基于AI深度學(xué)習(xí)與飛拍技術(shù)的影像測量系統(tǒng):實(shí)現(xiàn)高效精準(zhǔn)的全自動光學(xué)檢測與智能制造數(shù)據(jù)閉環(huán)

    內(nèi)容概要:文檔內(nèi)容介紹了圖儀器(Chotest)影像測量儀融合人工智能深度學(xué)習(xí)與飛拍技術(shù)自動化檢測解決方案。系統(tǒng)通過AI深度
    發(fā)表于 03-31 17:11

    服務(wù)機(jī)器人線圈人形機(jī)器人核心系統(tǒng)技術(shù)價值

    的配套元件升級為影響整機(jī)性能的核心部件。 驅(qū)動系統(tǒng)主要承擔(dān)電能與機(jī)械能轉(zhuǎn)換的重要角色。人形服務(wù)機(jī)器人通常配置多關(guān)節(jié)伺服電機(jī)或力矩電機(jī),每一個關(guān)節(jié)內(nèi)部都集成了高密度繞制的電機(jī)線圈,這
    的頭像 發(fā)表于 03-02 16:22 ?210次閱讀

    Siemens 工業(yè)電纜與線束自動系統(tǒng)技術(shù)與選型指南

    化解決方案,Siemens(西門子)工業(yè)電纜/線束組件憑借成熟的技術(shù)標(biāo)準(zhǔn)和系統(tǒng)兼容性,工業(yè)控制領(lǐng)域中被廣泛采用。 Siemens 工業(yè)電纜/線束組件的
    的頭像 發(fā)表于 01-29 19:50 ?1043次閱讀
    Siemens 工業(yè)電纜與線束<b class='flag-5'>在</b><b class='flag-5'>自動</b>化<b class='flag-5'>系統(tǒng)</b><b class='flag-5'>中</b>的<b class='flag-5'>技術(shù)</b>與選型指南

    SICK工業(yè)線纜自動系統(tǒng)的應(yīng)用與選型

    工業(yè)自動系統(tǒng),傳感器和執(zhí)行器的穩(wěn)定信號傳輸是系統(tǒng)可靠運(yùn)行的基礎(chǔ)。作為全球領(lǐng)先的傳感器與自動
    的頭像 發(fā)表于 01-29 17:28 ?834次閱讀

    「RT-Thread廿周年 | 工業(yè)與機(jī)器人分論壇:與智元機(jī)器人等一線力量,共探智能體工業(yè)落地

    當(dāng)具身智能的浪潮席卷而來,工業(yè)與機(jī)器人領(lǐng)域正站在從“自動機(jī)器”邁向“智能體”的關(guān)鍵拐點(diǎn)。這一轉(zhuǎn)變不僅需要算法的革新,更對底層嵌入式系統(tǒng)的實(shí)時性、可靠性及開放協(xié)同提出了前所未有的要求。2026年1月
    的頭像 發(fā)表于 01-14 17:10 ?1512次閱讀
    「RT-Thread廿周年 | 工業(yè)與<b class='flag-5'>機(jī)器</b>人分論壇:與智元<b class='flag-5'>機(jī)器</b>人等一線力量,共探智能體工業(yè)落地

    UWB技術(shù)機(jī)器人領(lǐng)域的創(chuàng)新應(yīng)用與前景

    本文系統(tǒng)闡述了UWB技術(shù)機(jī)器人領(lǐng)域的應(yīng)用價值。針對傳統(tǒng)機(jī)器人定位精度低、環(huán)境適應(yīng)性差、協(xié)同困難等問題,UWB憑借厘米級定位、毫秒級延遲和強(qiáng)
    的頭像 發(fā)表于 01-12 17:54 ?1738次閱讀
    UWB<b class='flag-5'>技術(shù)</b><b class='flag-5'>在</b><b class='flag-5'>機(jī)器</b>人領(lǐng)域的創(chuàng)新應(yīng)用與前景

    穿孔機(jī)頂頭檢測儀 機(jī)器視覺深度學(xué)習(xí)

    LX01Z-DG626穿孔機(jī)頂頭檢測儀采用深度學(xué)習(xí)技術(shù),能夠?qū)崿F(xiàn)頂頭狀態(tài)的在線實(shí)時檢測,頂頭丟失報(bào)警,頂頭異常狀態(tài)報(bào)警等功能,響應(yīng)迅速,異常狀態(tài)視頻回溯,檢測頂頭溫度,配備吹掃清潔系統(tǒng),維護(hù)周期長
    發(fā)表于 12-22 14:33

    探索RISC-V機(jī)器人領(lǐng)域的潛力

    SLAM等輕量級算法時表現(xiàn)出了不錯的性能,CPU占用率可接受范圍內(nèi)。整個系統(tǒng)響應(yīng)及時,證明了MUSE Pi Pro完全有能力作為小型移動機(jī)器人的“大腦”。 四、 其他功能淺嘗 ? AI模型部署
    發(fā)表于 12-03 14:40

    動機(jī)器技術(shù)的發(fā)展歷程

    本白皮書聚焦于移動機(jī)器人領(lǐng)域的進(jìn)展與挑戰(zhàn),重點(diǎn)探討三個核心主題:機(jī)器人運(yùn)動控制、復(fù)雜環(huán)境的感知與導(dǎo)航,以及適應(yīng)新任務(wù)時的模塊化與靈活性。此外,文中還重點(diǎn)介紹了
    的頭像 發(fā)表于 09-29 16:46 ?3446次閱讀

    恩智浦自主移動機(jī)器人設(shè)計(jì)要點(diǎn)

    長期以來,自動機(jī)器人一直被視為科幻小說中的概念,而如今這一技術(shù)已成為現(xiàn)實(shí),并正在大規(guī)模部署。機(jī)器
    的頭像 發(fā)表于 09-03 15:01 ?4431次閱讀
    恩智浦自主移<b class='flag-5'>動機(jī)器</b>人設(shè)計(jì)要點(diǎn)

    語音機(jī)器人交互系統(tǒng):核心技術(shù)與應(yīng)用挑戰(zhàn)

    : 一、核心技術(shù)模塊 1. 自動語音識別(ASR):這是系統(tǒng)的“耳朵”。它負(fù)責(zé)將用戶輸入的模擬語音信號轉(zhuǎn)換為計(jì)算機(jī)可處理的文本信息。當(dāng)前,基于深度學(xué)習(xí)的端到端模型大幅提升了
    的頭像 發(fā)表于 09-02 11:08 ?1032次閱讀

    富唯智能復(fù)合機(jī)器人力控技術(shù):重新定義精準(zhǔn)自動

    工業(yè)自動化和智能醫(yī)療快速發(fā)展的今天,富唯智能憑借先進(jìn)的復(fù)合機(jī)器人力控技術(shù),推出了新一代復(fù)合機(jī)器人解決方案。該方案深度融合協(xié)作
    的頭像 發(fā)表于 08-26 16:54 ?916次閱讀

    FPGA機(jī)器學(xué)習(xí)的具體應(yīng)用

    ,越來越多地被應(yīng)用于機(jī)器學(xué)習(xí)任務(wù)。本文將探討 FPGA 機(jī)器學(xué)習(xí)
    的頭像 發(fā)表于 07-16 15:34 ?3123次閱讀

    輪式移動機(jī)器人電機(jī)驅(qū)動系統(tǒng)的研究與開發(fā)

    系統(tǒng),開發(fā)了一套二輪差速驅(qū)動轉(zhuǎn)向移動機(jī)器人電機(jī)驅(qū)動系統(tǒng),完成了系統(tǒng)各部件的整體裝配和調(diào)試。試驗(yàn)結(jié)果表明,該設(shè)計(jì)方案可行、系統(tǒng)運(yùn)行穩(wěn)定可靠、成
    發(fā)表于 06-11 14:30
    秭归县| 偏关县| 新郑市| 罗定市| 康定县| 安溪县| 固镇县| 芜湖县| 长兴县| 广丰县| 大理市| 基隆市| 崇仁县| 双流县| 灵台县| 新邵县| 怀化市| 斗六市| 昆山市| 甘南县| 民县| 基隆市| 巴彦县| 正镶白旗| 介休市| 兴海县| 大英县| 绩溪县| 西乡县| 西平县| 兰坪| 祁东县| 荃湾区| 青岛市| 大厂| 收藏| 中卫市| 乌鲁木齐市| 泌阳县| 乐安县| 大新县|