日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)從社交媒體中為你發(fā)掘最美穿搭

nlfO_thejiangme ? 來源:lq ? 2019-10-01 16:45 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

穿衣搭配不僅反映個(gè)人的審美同時(shí)也與出席的場合、文化傳統(tǒng)息息相關(guān)。在一個(gè)時(shí)尚場景中,通常會包含三個(gè)要素:場合、個(gè)體和衣著。這些時(shí)尚信息和知識對于衣著推薦搭配等應(yīng)用十分重要。而當(dāng)今高度發(fā)展的社交媒體為時(shí)尚知識提供了豐富的資源,從朋友圈到微博從推特到Ins,人們在不同場合的穿搭圖像、文字和多媒體信息構(gòu)成了龐大的信息資源。

來自新加坡國立大學(xué)的研究人員們利用深度學(xué)習(xí)集成多種方法來從社交媒體中抽取時(shí)尚三要素,以實(shí)現(xiàn)時(shí)尚知識的自動(dòng)化抽取和學(xué)習(xí),同時(shí)還構(gòu)建了以用戶為中心時(shí)尚知識抽取數(shù)據(jù)集FashionKE。

時(shí)尚時(shí)尚最時(shí)尚

隨著生活水平的不斷提高,人們的時(shí)尚需求不斷增加,對于不同場合的衣著搭配也有著更為精細(xì)化的需求。面對這個(gè)萬億級的時(shí)尚市場,如何將機(jī)器學(xué)習(xí)與深度學(xué)習(xí)更有效的應(yīng)用于時(shí)尚知識的學(xué)習(xí)、穿搭推薦甚至是知識級別的構(gòu)建是科技巨頭和研究人員們的研究熱點(diǎn)。

目前對于時(shí)尚知識級別的研究工作還比較有限,如何有效的穿衣搭配涉及到場景、主體和衣著三個(gè)關(guān)鍵因素。在日常生活有很多固定的經(jīng)驗(yàn)和模式幫助人們進(jìn)行有效的穿搭,但研究人員希望將這些模式總結(jié)成更為凝練的知識以指導(dǎo)不同的人在對應(yīng)的場合進(jìn)行最適宜的穿搭。在這一過程中,需要面對的第一個(gè)問題就是,從哪里去獲取這些知識呢?如何獲取這些知識呢?新加坡國立大學(xué)的研究人員給出了自己的答案。

他們將目光放到了各大社交媒體平臺,從中進(jìn)行以用戶為中心的自動(dòng)化時(shí)尚知識抽取,來幫助實(shí)現(xiàn)這一目標(biāo)。為什么呢?社交媒體的龐大用戶規(guī)模保證了多模態(tài)數(shù)據(jù)的豐富和質(zhì)量,不僅包含了世界各地、各個(gè)場景中用戶的照片,同時(shí)也包含了包括性別在內(nèi)的個(gè)人屬性,而且還緊跟時(shí)尚潮流更新迅速。但有些利用這些數(shù)據(jù)還面臨著一系列挑戰(zhàn)。

首先時(shí)尚知識的抽取很大程度上決定于時(shí)尚概念和屬性抽取器的表現(xiàn),包括對于場景、衣著和飾品的識別檢測。雖然現(xiàn)在在學(xué)術(shù)界有很多研究成果,但大多集中于簡單干凈的背景上,而現(xiàn)實(shí)中面對的卻是豐富多樣的自然場景,使得屬性檢測變得十分困難。第一個(gè)需要解決的挑戰(zhàn)就是需要實(shí)現(xiàn)自然場景和背景的時(shí)尚概念和屬性檢測。

其次社交媒體雖然豐富,但基本上缺乏時(shí)尚概念的標(biāo)注,但這對時(shí)尚知識的構(gòu)建十分重要。時(shí)尚知識自動(dòng)獲取的質(zhì)量極大地依賴于語義級的時(shí)尚概念學(xué)習(xí)。手工標(biāo)記如此龐大的數(shù)據(jù)是不現(xiàn)實(shí)的,而現(xiàn)存的電子商務(wù)數(shù)據(jù)主要集中于衣著屬性,缺乏人物和場景屬性的標(biāo)注。 如何解決這兩個(gè)問題成為了實(shí)現(xiàn)知識抽取的關(guān)鍵。

時(shí)尚知識自動(dòng)化抽取

為了解決這兩個(gè)問題,研究人員提出了一種基于弱標(biāo)記數(shù)據(jù)的時(shí)尚概念聯(lián)合檢測方法。這種基于上下文的時(shí)尚概念學(xué)習(xí)模塊可以有效捕捉不同時(shí)尚概念間的聯(lián)系和相關(guān)性,通過場景、衣著分類和屬性來輔助時(shí)尚知識抽取。其中弱標(biāo)記數(shù)據(jù)則有效應(yīng)對了缺乏標(biāo)記數(shù)據(jù)的困擾,在標(biāo)記遷移矩陣幫助下,通過機(jī)器標(biāo)記數(shù)據(jù)和干凈數(shù)據(jù)的結(jié)合可有效控制學(xué)習(xí)過程中的噪聲。

這一研究的目標(biāo)在于從社交媒體中抽取用戶為中心的時(shí)尚知識數(shù)據(jù),得到場景對應(yīng)穿著的結(jié)構(gòu)化數(shù)據(jù)為下游任務(wù)提供應(yīng)用基礎(chǔ)。

研究人員將時(shí)尚知識定義為個(gè)體、衣著和場合三元組合K={P,C,O},其中個(gè)體包括了人的屬性:性別、年齡、身材;服裝則包括了衣著的屬性和分類,用于定義特定類型的服飾,例如:一條深藍(lán)色的露肩長裙;場景則包含了各種主體出席的場合、包括舞會、約會、會議、聚會等等及其相關(guān)的時(shí)間地點(diǎn)元數(shù)據(jù)。

研究人員的任務(wù)就是要從某個(gè)po出的社交媒體信息{V(圖像),T(文字),M(元數(shù)據(jù))}中抽取出上面的信息構(gòu)成時(shí)尚知識{P,C.Q}。這一任務(wù)自然包含了三個(gè)子任務(wù):人體屬性檢測、衣著分類和屬性檢測、場景檢測。

人體檢測框架目前很成熟,所以研究人員致力于后兩個(gè)子任務(wù)的開發(fā),從社交媒體數(shù)據(jù)中聯(lián)合檢測出主體所處的場景和服裝分類屬性。

為了有效檢測場景及其主體的衣著分類屬性,研究人員設(shè)計(jì)了一套統(tǒng)一的框架來獲取其屬性及相關(guān)性。這套基于上下文時(shí)尚概念的學(xué)習(xí)模型包含了兩個(gè)雙邊回歸神經(jīng)網(wǎng)絡(luò)來捕捉場景、衣著間的聯(lián)系。

對于某篇包含圖像V和文字T社交媒體來說,這一模型首先將衣著檢測模型檢測圖像中一系列的服飾區(qū)域。隨后針對圖像預(yù)測出對應(yīng)的場景標(biāo)簽,針對每個(gè)服裝區(qū)域預(yù)測出對應(yīng)的服裝類別和屬性標(biāo)簽。為了有效的預(yù)測出這三者之間的相關(guān)性,研究人員利用基于上下文的方式來從中得到不同屬性間的關(guān)系以便抽取知識。為了有效抽取知識,需要對服裝分類、場景和服裝屬性的表示進(jìn)行學(xué)習(xí)。

分類表達(dá)。模型的第一步是學(xué)習(xí)服裝區(qū)域的上下文表示用于分類預(yù)測和整幅圖像的場景預(yù)測。研究人員首先利用與訓(xùn)練的CNN來抽取全圖和每個(gè)服裝區(qū)域的特征表示,隨后利用雙邊LSTM來編碼所有服裝區(qū)域間的相關(guān)性,并最終得到服裝區(qū)域的分類表達(dá)。

場景表達(dá)。為了更好的表達(dá)整幅圖像,研究人員將第一步中整幅圖像的CNN特征、上一步Bi-LSTM的最后隱含狀態(tài)及TextCNN抽取文字描述特征結(jié)合為新的特征,來實(shí)現(xiàn)場景表達(dá)學(xué)習(xí);

屬性表達(dá)。最后,由于每種服裝有包括顏色、長短、外形等多個(gè)不同特征,所以需要屬性預(yù)測模塊來預(yù)測屬性。研究人員利用多分支的結(jié)構(gòu)來對不同種類的服飾進(jìn)行屬性預(yù)測,每個(gè)分支輸出層的神經(jīng)元數(shù)量代表了對應(yīng)的屬性數(shù)目。

隨后為了捕捉不同服飾屬性和服飾分類間的依賴關(guān)系,研究人員使用了第二個(gè)雙邊LSTM來編碼屬性和分類間的依賴關(guān)系,并最終通過全連接轉(zhuǎn)換為屬性表達(dá)。最終通過標(biāo)準(zhǔn)的分類器將得到場景、服裝分類和屬性的預(yù)測分?jǐn)?shù)。

為了對這一模型進(jìn)行訓(xùn)練,研究人員構(gòu)建自己的數(shù)據(jù)集FashionKE,其中包含了80629張圖像,可以容易辨認(rèn)出時(shí)尚知識的三要素。同時(shí)對每張圖片進(jìn)行了場景標(biāo)注(十種主要場景);而針對服裝屬性和分類標(biāo)注,由于社交媒體數(shù)據(jù)過于龐大,對于每一個(gè)圖像和文字?jǐn)?shù)據(jù)進(jìn)行多種屬性的手工標(biāo)注是不現(xiàn)實(shí)的。只有30%的數(shù)據(jù)進(jìn)行了人工核對,其他數(shù)據(jù)都利用時(shí)尚標(biāo)簽工具進(jìn)行機(jī)器標(biāo)注。

機(jī)器標(biāo)注的數(shù)據(jù)很廉價(jià),但是卻包含很多的噪聲,使得模型的訓(xùn)練容易出現(xiàn)過擬合。為了充分利用機(jī)器標(biāo)注的數(shù)據(jù)和少量人類標(biāo)記數(shù)據(jù),研究人員引入了弱標(biāo)記建模的方法來處理機(jī)器標(biāo)記數(shù)據(jù)中的噪聲。其基本思想是在模型中添加一個(gè)標(biāo)簽校正層,在預(yù)測層后利用估計(jì)出的標(biāo)簽轉(zhuǎn)換矩陣來實(shí)現(xiàn),使得預(yù)測與弱標(biāo)記的數(shù)據(jù)分布相匹配。這一轉(zhuǎn)換矩陣將通過與主干任務(wù)協(xié)同訓(xùn)練的線性層來得到。

實(shí)驗(yàn)和結(jié)果

研究人員在實(shí)驗(yàn)中發(fā)現(xiàn)新提出的框架和策略有效的實(shí)現(xiàn)了時(shí)尚概念的預(yù)測。通過與DARN、FashionNet和EITree的比較本文的方法在多個(gè)指標(biāo)上都超過了先前的方法。

一方面,由于本方法充分使用了機(jī)器標(biāo)注的模型并通過弱標(biāo)記建模模塊抑制了標(biāo)注噪聲的影響,從而得到了額外的增益。這一模型將場景、服裝分類和屬性間的依賴性和相關(guān)性進(jìn)行了考量,為時(shí)尚概念的識別提供了額外辨別能力。這些依賴性和相關(guān)性表明時(shí)尚知識的存在以及對于相關(guān)應(yīng)用的積極作用。

另一方面,這一方法還通過文字信息進(jìn)一步提升了性能,特別是在場景分類中很多社交媒體的問題信息包含了豐富的場景信息,有助于時(shí)尚信息的抽取。

此外通過消融性分析,研究人員發(fā)現(xiàn)第一個(gè)Bi-LSTM通過學(xué)習(xí)出不同服裝區(qū)域間的相關(guān)性來提升了分類性能,并通過將隱含層的加入來替身了場景預(yù)測性能;第二個(gè)Bi-LSTM則通過不同屬性表達(dá)和分類表達(dá)間的依賴性建模來提升性能;同時(shí)兩個(gè)LSTM間的協(xié)同作用也將顯著加強(qiáng)模型知識抽取能力。

最后通過不同比例的噪聲數(shù)據(jù)對模型訓(xùn)練也顯示出弱標(biāo)記建模對于知識抽取能力的提升。

最后研究人員們還展示了基于這一模型在不同領(lǐng)域的應(yīng)用。

從時(shí)尚概念抽取時(shí)尚知識,圖中展示了一部分結(jié)構(gòu)化的時(shí)尚知識

不同場景下人們的穿著服飾分析,包括國家、場合和季節(jié)都有著明顯的區(qū)分。

時(shí)尚知識分析,包含了不同季節(jié)和不同地區(qū)不同場合的穿著。

下圖還顯示了不同場合中最流行的服飾,包括了其中縱軸是男性女性對應(yīng)的十種場景、橫軸是對應(yīng)的流行穿著??梢钥吹綍h中男性傾向于穿著夾克外套、舞會中女性則喜愛各種連衣裙。

同時(shí)研究人員們還分析了不同屬性和分類間的相關(guān)性,圖中的節(jié)點(diǎn)大小代表了服飾的數(shù)量,邊的寬度代表了相關(guān)性的強(qiáng)弱。可以看到牛仔褲和襯衫T恤都是大家的最愛搭配。而不同屬性間的相關(guān)性中可以看到長款衣服還是主流,長袖長褲是主流搭配。

在未來研究人員們還將探索包括時(shí)尚穿搭推薦的不同領(lǐng)域的應(yīng)用,并對更加細(xì)粒度的知識進(jìn)行抽取,同時(shí)加入不同的視覺概念來實(shí)現(xiàn)包括交叉模態(tài)檢索和人體檢索等更多的檢索任務(wù)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 模塊
    +關(guān)注

    關(guān)注

    7

    文章

    2850

    瀏覽量

    53476
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4844

    瀏覽量

    108272
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5612

    瀏覽量

    124695

原文標(biāo)題:對面的女孩看過來,深度學(xué)習(xí)從社交媒體中為你發(fā)掘最美穿搭

文章出處:【微信號:thejiangmen,微信公眾號:將門創(chuàng)投】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    深度學(xué)習(xí)為什么還是無法處理邊緣場景?

    [首發(fā)于智駕最前沿微信公眾號]雖然自動(dòng)駕駛車輛已經(jīng)完成了數(shù)百萬公里的行駛測試,深度學(xué)習(xí)也已被普遍應(yīng)用,但依然會在一些看似簡單的場景犯下低級錯(cuò)誤。比如在遇到一些從未見到過的邊緣場景時(shí),系統(tǒng)可能會
    的頭像 發(fā)表于 05-04 10:16 ?2213次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>為什么還是無法處理邊緣場景?

    機(jī)器學(xué)習(xí)的數(shù)據(jù)質(zhì)量雙保障:“驗(yàn)證”到“標(biāo)記”

    至關(guān)重要的環(huán)節(jié)——數(shù)據(jù)驗(yàn)證與數(shù)據(jù)標(biāo)記,前者數(shù)據(jù)“守門”,后者模型“立標(biāo)”,共同筑牢機(jī)器學(xué)習(xí)的根基。數(shù)據(jù)驗(yàn)證:管道裝上“過濾網(wǎng)”是否遇
    的頭像 發(fā)表于 04-24 15:48 ?142次閱讀
    機(jī)器<b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>中</b>的數(shù)據(jù)質(zhì)量雙保障:<b class='flag-5'>從</b>“驗(yàn)證”到“標(biāo)記”

    人工智能-Python深度學(xué)習(xí)進(jìn)階與應(yīng)用技術(shù):工程師高培解讀

    深度學(xué)習(xí)的工程化落地,早已不是紙上談兵的事。卷積神經(jīng)網(wǎng)絡(luò)到Transformer,目標(biāo)檢測到大模型私有化部署,技術(shù)棧不斷延伸,工程師面臨的知識體系也越來越龐雜?,F(xiàn)根據(jù)
    的頭像 發(fā)表于 04-21 11:01 ?433次閱讀
    人工智能-Python<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>進(jìn)階與應(yīng)用技術(shù):工程師高培解讀

    汽中心融媒體中心正式揭牌成立

    2026年1月15-16日,汽中心在首屆媒體開放日活動(dòng)期間,正式揭牌啟動(dòng)融媒體中心,標(biāo)志著汽中心在“十五五”開局之際邁入“數(shù)智融媒”全新發(fā)展階段,
    的頭像 發(fā)表于 01-20 13:13 ?674次閱讀

    機(jī)器學(xué)習(xí)深度學(xué)習(xí)需避免的 7 個(gè)常見錯(cuò)誤與局限性

    無論是剛?cè)腴T還是已經(jīng)從事人工智能模型相關(guān)工作一段時(shí)間,機(jī)器學(xué)習(xí)深度學(xué)習(xí)中都存在一些我們需要時(shí)刻關(guān)注并銘記的常見錯(cuò)誤。如果對這些錯(cuò)誤置之不理,日后可能會引發(fā)諸多麻煩!只要我們密切關(guān)注
    的頭像 發(fā)表于 01-07 15:37 ?378次閱讀
    機(jī)器<b class='flag-5'>學(xué)習(xí)</b>和<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>中</b>需避免的 7 個(gè)常見錯(cuò)誤與局限性

    穿孔機(jī)頂頭檢測儀 機(jī)器視覺深度學(xué)習(xí)

    ,能適用惡劣工況,在粉塵、高溫、氧化皮等惡劣環(huán)境均可正常工作。 測量原理 利用頂頭與周圍的物質(zhì)(水、空氣、導(dǎo)盤等)紅外輻射能量的差異,用熱成像相機(jī)拍攝出清晰的圖片,再通過深度學(xué)習(xí)短時(shí)間內(nèi)深度
    發(fā)表于 12-22 14:33

    【團(tuán)購】獨(dú)家全套珍藏!龍哥LabVIEW視覺深度學(xué)習(xí)實(shí)戰(zhàn)課(11大系列課程,共5000+分鐘)

    ,形成\"傳統(tǒng)視覺算法→深度學(xué)習(xí)建?!I(yè)級部署\"的完整技術(shù)鏈,幫助學(xué)員掌握0到1搭建缺陷檢測系統(tǒng)的能力,響應(yīng)制造業(yè)\"提質(zhì)降本增效\"的核心需求。 團(tuán)購課程
    發(fā)表于 12-04 09:28

    【社區(qū)之星】歐小龍——保護(hù)的好奇心:它是所有創(chuàng)造力的源泉

    技術(shù),更是鍛煉了分析問題、排查故障、追求極致的方法論。這種“深潛”的能力是可以遷移到其他領(lǐng)域的。當(dāng)你未來學(xué)習(xí)新技術(shù)時(shí),會自然而然地用這種深度思維去
    發(fā)表于 11-26 16:31

    學(xué)習(xí)強(qiáng)國深度報(bào)道 RT-Thread“1+X+N”戰(zhàn)略,國產(chǎn)操作系統(tǒng)賦能高端制造引關(guān)注|媒體視角

    近日,國產(chǎn)嵌入式操作系統(tǒng)領(lǐng)軍企業(yè)RT-Thread睿賽德在工博會發(fā)布的“1+X+N”戰(zhàn)略體系,獲得了國家級權(quán)威媒體平臺“學(xué)習(xí)強(qiáng)國”的重點(diǎn)報(bào)道。該報(bào)道產(chǎn)業(yè)高度深入剖析了RT-Thread睿賽德以自主
    的頭像 發(fā)表于 09-29 17:37 ?1405次閱讀
    <b class='flag-5'>學(xué)習(xí)</b>強(qiáng)國<b class='flag-5'>深度</b>報(bào)道 RT-Thread“1+X+N”戰(zhàn)略,國產(chǎn)操作系統(tǒng)賦能高端制造引關(guān)注|<b class='flag-5'>媒體</b>視角

    如何在機(jī)器視覺中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    人士而言往往難以理解,人們也常常誤以為需要扎實(shí)的編程技能才能真正掌握并合理使用這項(xiàng)技術(shù)。事實(shí)上,這種印象忽視了該技術(shù)機(jī)器視覺(乃至生產(chǎn)自動(dòng)化)帶來的潛力,因?yàn)?b class='flag-5'>深度學(xué)習(xí)并非只屬于計(jì)算機(jī)科學(xué)家或程序員。 從頭開始:什么
    的頭像 發(fā)表于 09-10 17:38 ?1099次閱讀
    如何在機(jī)器視覺中部署<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>神經(jīng)網(wǎng)絡(luò)

    深度學(xué)習(xí)對工業(yè)物聯(lián)網(wǎng)有哪些幫助

    深度學(xué)習(xí)作為人工智能的核心分支,通過模擬人腦神經(jīng)網(wǎng)絡(luò)的層級結(jié)構(gòu),能夠自動(dòng)海量工業(yè)數(shù)據(jù)中提取復(fù)雜特征,工業(yè)物聯(lián)網(wǎng)(IIoT)提供了數(shù)據(jù)感
    的頭像 發(fā)表于 08-20 14:56 ?1286次閱讀

    自動(dòng)駕駛Transformer大模型會取代深度學(xué)習(xí)嗎?

    持續(xù)討論。特別是在自動(dòng)駕駛領(lǐng)域,部分廠商開始嘗試將多模態(tài)大模型(MLLM)引入到感知、規(guī)劃與決策系統(tǒng),引發(fā)了“傳統(tǒng)深度學(xué)習(xí)是否已過時(shí)”的激烈爭論。然而,技術(shù)原理、算力成本、安全需求與實(shí)際落地路徑等維度來看,Transforme
    的頭像 發(fā)表于 08-13 09:15 ?4418次閱讀
    自動(dòng)駕駛<b class='flag-5'>中</b>Transformer大模型會取代<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>嗎?

    明達(dá)MR30分布式IO在紡織行業(yè)穿經(jīng)機(jī)的應(yīng)用

    在紡織行業(yè)的織造前道工序,穿經(jīng)機(jī)如同一位精密的 “紡織裁縫”,將數(shù)百至數(shù)千根纖細(xì)經(jīng)紗精準(zhǔn)穿入停經(jīng)片、綜絲和鋼筘,后續(xù)織造環(huán)節(jié)奠定基礎(chǔ)。然而,傳統(tǒng)穿經(jīng)機(jī)的控制方式常因信號傳輸距離遠(yuǎn)、
    的頭像 發(fā)表于 08-01 16:27 ?970次閱讀
    明達(dá)MR30分布式IO在紡織行業(yè)<b class='flag-5'>穿</b>經(jīng)機(jī)的應(yīng)用

    當(dāng)深度學(xué)習(xí)遇上嵌入式資源困境,特征空間如何破局?

    近年來,隨著人工智能(AI)技術(shù)的迅猛發(fā)展,深度學(xué)習(xí)(Deep Learning)成為最熱門的研究領(lǐng)域之一。在語音識別、圖像識別、自然語言處理等領(lǐng)域,深度學(xué)習(xí)取得了顯著成果。
    發(fā)表于 07-14 14:50 ?1334次閱讀
    當(dāng)<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>遇上嵌入式資源困境,特征空間如何破局?

    解鎖多軸直線電機(jī)模組的高效接方法

    在自動(dòng)化設(shè)備領(lǐng)域,多軸直線模組憑借其高精度、高速度和高靈活性的特點(diǎn),成為實(shí)現(xiàn)復(fù)雜運(yùn)動(dòng)控制的核心組件。3C產(chǎn)品組裝到數(shù)控機(jī)床加工,物流分揀到醫(yī)療設(shè)備運(yùn)作,再到半導(dǎo)體制造設(shè)備,多軸直線模組
    的頭像 發(fā)表于 06-27 11:21 ?1098次閱讀
    解鎖多軸直線電機(jī)模組的高效<b class='flag-5'>搭</b>接方法
    大荔县| 汉源县| 永兴县| 门源| 思南县| 元氏县| 乐山市| 怀远县| 文化| 辛集市| 兴文县| 闽清县| 潜山县| 凌云县| 蒙自县| 郧西县| 新平| 延寿县| 华安县| 宕昌县| 双桥区| 沙雅县| 聂荣县| 渝北区| 庄浪县| 云浮市| 游戏| 大荔县| 壤塘县| 黄陵县| 湾仔区| 石渠县| 高尔夫| 建湖县| 长葛市| 汝阳县| 贵州省| 威宁| 福鼎市| 铁岭市| 镇赉县|