日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

小樣本學(xué)習(xí)領(lǐng)域的研究進(jìn)展

5b9O_deeplearni ? 來(lái)源:未知 ? 作者:胡薇 ? 2018-06-15 09:11 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

編者按:子曰:“舉一隅不以三隅反,則不復(fù)也”。

人類(lèi)從少量樣本中去思考,還能用這個(gè)做什么;而機(jī)器則是見(jiàn)到了上億的數(shù)據(jù),卻希望下一個(gè)與之前的相似。

機(jī)器學(xué)習(xí)領(lǐng)域中,隨著更多應(yīng)用場(chǎng)景的涌現(xiàn),我們?cè)絹?lái)越面臨著樣本數(shù)量不足的問(wèn)題。因此,如何通過(guò)舉一反三的方式進(jìn)行小樣本學(xué)習(xí),成為了一個(gè)重要的研究方向。

本文中,復(fù)旦大學(xué)的付彥偉教授,將介紹過(guò)去一年中小樣本學(xué)習(xí)領(lǐng)域的研究進(jìn)展。

文末,大講堂提供文中提到參考文獻(xiàn)的下載鏈接。

本次報(bào)告主要回顧one-shot learning,也可以稱(chēng)為few-shot learning或low-shot learning領(lǐng)域最近的進(jìn)展。

首先,one-shot learning產(chǎn)生的動(dòng)機(jī)大家都比較了解?,F(xiàn)在在互聯(lián)網(wǎng),我們主要用large-scale方法處理數(shù)據(jù),但真實(shí)情況下,大部分類(lèi)別我們沒(méi)有數(shù)據(jù)積累,large-scale方法不完全適用。所以我們希望在學(xué)習(xí)了一定類(lèi)別的大量數(shù)據(jù)后,對(duì)于新的類(lèi)別,我們只需要少量的樣本就能快速學(xué)習(xí)。

存在的問(wèn)題一方面是知識(shí)缺失,另一方面是需要大量的訓(xùn)練樣本。第一點(diǎn)在本文中不做討論。

對(duì)于第二點(diǎn),目前考慮的解決方法主要有兩個(gè):

第一個(gè)是人能夠識(shí)別一個(gè)從沒(méi)有見(jiàn)過(guò)的物體,也就是zero-shot learning;

第二個(gè)是從已有任務(wù)中學(xué)習(xí)知識(shí),將其應(yīng)用到未來(lái)模型訓(xùn)練中,可以認(rèn)為是一個(gè)遷移學(xué)習(xí)的問(wèn)題。

那么我們?nèi)绾味xone-shot learning呢? 它的目的是從一個(gè)或幾個(gè)圖像樣本中學(xué)習(xí)類(lèi)別信息。但我們這里的one-shot learning并不限于一般圖像,也可以在文本,醫(yī)療圖像等特殊圖像,或者物理化學(xué)中的掃描圖像上進(jìn)行應(yīng)用。

One-shot learning的研究主要分為如下幾類(lèi):

第一類(lèi)方法是直接基于有監(jiān)督學(xué)習(xí)的方法,這是指沒(méi)有其他的數(shù)據(jù)源,不將其作為一個(gè)遷移學(xué)習(xí)的問(wèn)題看待,只利用這些小樣本,在現(xiàn)有信息上訓(xùn)練模型,然后做分類(lèi);

第二個(gè)是基于遷移學(xué)習(xí)的方法,是指有其他數(shù)據(jù)源時(shí),利用這些輔助數(shù)據(jù)集去做遷移學(xué)習(xí)。這是我今年一篇綜述里提到的模型分類(lèi)。

對(duì)于第一類(lèi)直接進(jìn)行有監(jiān)督學(xué)習(xí)的方法,可以做基于實(shí)例的學(xué)習(xí),比如KNN,以及非參數(shù)方法。

而基于遷移學(xué)習(xí)的one-shot learning,首先是基于屬性的學(xué)習(xí),比如我們最早在做zero-shot learning的時(shí)候,會(huì)順便做one-shot learning,把特征投影到一個(gè)屬性空間,然后在這個(gè)屬性空間中既可以做one-shot learning,又可以做zero-shot learning,但是每個(gè)類(lèi)別都需要屬性標(biāo)注,也就是需要額外的信息。最近的機(jī)器學(xué)習(xí)領(lǐng)域里,所討論one-shot learning一般不假設(shè)我們知道這些額外信息,大體上可以被分為meta-learning,或者metric-learning。 Meta-learning從數(shù)據(jù)中學(xué)習(xí)一種泛化的表示,這種泛化的表示可以被直接用于目標(biāo)數(shù)據(jù)上,小樣本的類(lèi)別學(xué)習(xí)過(guò)程。Metric-learning從數(shù)據(jù)源中構(gòu)建一個(gè)空間。但是本質(zhì)上meta-learning和metric-learning還是有很多相似的地方。

接下來(lái)是數(shù)據(jù)增強(qiáng),這其實(shí)是很重要也很容易被忽視的一點(diǎn),可以有很多方法來(lái)實(shí)現(xiàn):

第一,利用流信息學(xué)習(xí)one-shot模型,常見(jiàn)的有半監(jiān)督學(xué)習(xí)和transductive learning,探討的是如何用無(wú)標(biāo)簽數(shù)據(jù)去做one-shot learning。

第二,在有預(yù)訓(xùn)練模型時(shí),用這些預(yù)訓(xùn)練模型進(jìn)行數(shù)據(jù)增強(qiáng)。

第三,從相近的類(lèi)別借用數(shù)據(jù),來(lái)增強(qiáng)訓(xùn)練數(shù)據(jù)集。

第四,合成新的有標(biāo)簽訓(xùn)練數(shù)據(jù),用一些遙感里的方法,可以合成一些圖像,或者3d物體。

第五,用GAN來(lái)學(xué)習(xí)合成模型,比如最近用GAN來(lái)做personal ID和人臉相關(guān)研究。

第六,屬性引導(dǎo)的增強(qiáng)方法。具體大家可以在文章里進(jìn)行詳細(xì)了解。

首先基于遷移學(xué)習(xí)的方法,我們目前的實(shí)驗(yàn)結(jié)果顯示:大部分已經(jīng)發(fā)表的one-shot learning方法在miniImageNet數(shù)據(jù)集上的結(jié)果,比不過(guò)resnet-18的結(jié)果,這也是很微妙的一點(diǎn)。我們的代碼已經(jīng)放到github上,大家有興趣可以看一下。(如果我們的實(shí)驗(yàn)在什么地方有問(wèn)題,歡迎大家給我發(fā)郵件)

下面簡(jiǎn)單介紹相關(guān)文章。首先是Wang Yuxiong的文章Learning to Learn: Model Regression Networks for Easy Small Sample Learning,他們用原數(shù)據(jù)構(gòu)建了很多模型庫(kù),然后目標(biāo)數(shù)據(jù)直接回歸這些模型庫(kù)。具體就是在source class上訓(xùn)練一個(gè)regression network。對(duì)于大量樣本我們可以得到一個(gè)比較好的分類(lèi)器。對(duì)于少量樣本我們可以得到一個(gè)沒(méi)那么好的分類(lèi)器。這個(gè)regression network的目的就是把沒(méi)那么好的分類(lèi)器映射成比較好的分類(lèi)器。即,把一個(gè)分類(lèi)器的權(quán)重映射到另一個(gè)分類(lèi)器。

第二個(gè)是Matching Networks for One Shot Learning,這個(gè)文章很有意思,從標(biāo)題中就能讀出大概做了什么工作。對(duì)于一張圖片,我們訓(xùn)練一個(gè)matching network來(lái)提取它的feature。然后用一個(gè)簡(jiǎn)單的數(shù)學(xué)公式來(lái)判斷feature之間的距離。對(duì)于新的圖片,根據(jù)它與已知圖片的距離來(lái)進(jìn)行分類(lèi)。這篇文章精巧地設(shè)計(jì)了訓(xùn)練的過(guò)程,來(lái)使得這個(gè)過(guò)程與測(cè)試時(shí)的過(guò)程一致。

第三是MAML,是與模型無(wú)關(guān)的meta-learning的方法,它主要側(cè)重于深度網(wǎng)絡(luò)的快速適應(yīng)。這篇文章的思想就是找到一個(gè)網(wǎng)絡(luò)最好的初始位置,這個(gè)初始位置被定義為:經(jīng)過(guò)幾個(gè)小樣本的調(diào)整后可以得到最好的表現(xiàn)。

第四個(gè)是Optimization as a model for few-shot learning,也是meta-learning的方法,將任務(wù)組織成一個(gè)最優(yōu)化的問(wèn)題。這篇文章將梯度下降的過(guò)程與LSTM的更新相對(duì)比,發(fā)現(xiàn)它們非常相似。所以可以用LSTM來(lái)學(xué)習(xí)梯度下降的過(guò)程,以此使用LSTM來(lái)做梯度下降的工作。

第五個(gè)是meta networks,也是meta-learning方法。其中利用了少量樣本在基礎(chǔ)網(wǎng)絡(luò)中產(chǎn)生的梯度,來(lái)快速生成新的參數(shù)權(quán)重。

今年NIPS一篇prototypical network,主要是在matching networks的基礎(chǔ)上做了一些更改。它們給每一個(gè)類(lèi)一個(gè)原型,樣本與類(lèi)的距離就是樣本與原型的距離。然后選用歐氏距離替代了matching network的余弦距離。

今年CVPR的Learning to compare: Relation network for few-shot learning。簡(jiǎn)單來(lái)說(shuō)就是用embedding module來(lái)提取feature。然后用relation module來(lái)輸出兩個(gè)feature之間的距離。一次來(lái)通過(guò)距離進(jìn)行分類(lèi)選擇。

關(guān)于on-shot learning,還有其他參考文獻(xiàn),可在文末的鏈接中下載。

下面簡(jiǎn)單介紹一下數(shù)據(jù)增強(qiáng)的相關(guān)文章。

上圖是我們今年的提交到ECCV的一個(gè)工作,用左邊的encoder-trinet把視覺(jué)特征映射到語(yǔ)義空間。因?yàn)檎Z(yǔ)義空間上有更豐富的信息,可以在語(yǔ)義空間上做數(shù)據(jù)擴(kuò)充(添加高斯噪聲和尋找最近鄰),再映射回視覺(jué)空間來(lái)得到更多的擴(kuò)充樣例。

ICCV2017這篇文章根據(jù)已有的圖像去生成新的圖像,然后做low-shot 視覺(jué)識(shí)別。具體來(lái)說(shuō),比如說(shuō)你有三張圖片:一張是鳥(niǎo),一張是鳥(niǎo)站在樹(shù)枝上,一張是猴子。那么你可以學(xué)習(xí)一個(gè)網(wǎng)絡(luò)讓它生成猴子站在樹(shù)枝上的圖片。本質(zhì)上是,想把一個(gè)類(lèi)的變化遷移到另一個(gè)類(lèi)上,以此來(lái)做數(shù)據(jù)擴(kuò)充。

這是去年在CVPR上發(fā)表的文章AGA,主要針對(duì)3D數(shù)據(jù),把圖像投影到一個(gè)屬性空間做數(shù)據(jù)增強(qiáng)。這是一個(gè)few-shot learning方法。具體就是,給定幾張距離觀測(cè)者不同距離的桌子的照片,以及一張凳子的照片,讓機(jī)器學(xué)會(huì)如何去生成不同距離的凳子的照片,以此來(lái)做數(shù)據(jù)擴(kuò)充。

最后在 one-shot learning之上,我們還可能遇到一個(gè)問(wèn)題,one-shot learning只關(guān)注目標(biāo)類(lèi)別上的分類(lèi)問(wèn)題,我們希望學(xué)習(xí)到的模型對(duì)源數(shù)據(jù)類(lèi)別也適用,否則將帶來(lái)一個(gè)問(wèn)題,被稱(chēng)為災(zāi)難性遺忘。

發(fā)表在PNAS的文章提出EWC 模型來(lái)解決這個(gè)問(wèn)題。災(zāi)難性遺忘往往源于我們學(xué)習(xí)任務(wù)B的時(shí)候更新網(wǎng)絡(luò),使得任務(wù)A做的沒(méi)那么好了。EWC提供了一種方法來(lái)計(jì)算權(quán)重對(duì)于任務(wù)A的重要性,把重要性引入到損失函數(shù)中,來(lái)避免更改會(huì)影響A效果的權(quán)重。

還有l(wèi)earning without forgetting這篇文章,也是側(cè)重于解決這個(gè)問(wèn)題。簡(jiǎn)單來(lái)說(shuō)就是拿到一個(gè)新任務(wù)后,我們會(huì)更新網(wǎng)絡(luò)。我們希望在更新網(wǎng)絡(luò)前后網(wǎng)絡(luò)沒(méi)有太大變化,所以我們添加一個(gè)loss來(lái)限制網(wǎng)絡(luò)更新前后對(duì)于這個(gè)新的任務(wù)輸出的特征不能有太大變化,也就是一個(gè)distill loss。

最后,小樣本學(xué)習(xí)還有很多可以研究的東西。目前的成果主要還是基于把已知類(lèi)別的一些信息遷移到新的類(lèi)別上。可能未來(lái)可以嘗試下更多的方向,比如利用無(wú)監(jiān)督的信息或者是半監(jiān)督的方法。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:【領(lǐng)域報(bào)告】小樣本學(xué)習(xí)年度進(jìn)展|VALSE2018

文章出處:【微信號(hào):deeplearningclass,微信公眾號(hào):深度學(xué)習(xí)大講堂】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    紫光展銳亮相2026全球6G技術(shù)與產(chǎn)業(yè)生態(tài)大會(huì)

    4月21日-23日,2026全球6G技術(shù)與產(chǎn)業(yè)生態(tài)大會(huì)(簡(jiǎn)稱(chēng)“全球6G大會(huì)”)在南京召開(kāi)。紫光展銳應(yīng)邀出席,圍繞AI驅(qū)動(dòng)通信與終端通感一體化方向,全面展示了公司在6G關(guān)鍵技術(shù)領(lǐng)域研究進(jìn)展與技術(shù)成果。
    的頭像 發(fā)表于 04-28 10:17 ?2071次閱讀

    科學(xué)島團(tuán)隊(duì)在高重頻及大能量混合腔Innoslab構(gòu)型激光器領(lǐng)域取得研究進(jìn)展

    干涉實(shí)驗(yàn)裝置圖 近日,中國(guó)科學(xué)院合肥物質(zhì)院安光所張?zhí)焓?b class='flag-5'>研究員團(tuán)隊(duì),在高能量激光器核心組件研發(fā)領(lǐng)域取得突破,成功開(kāi)發(fā)出基于大尺寸板條狀β-BBO晶體的低應(yīng)力電光開(kāi)關(guān),并將其成功應(yīng)用于Nd:YAG混合腔
    的頭像 發(fā)表于 01-30 08:49 ?200次閱讀
    科學(xué)島團(tuán)隊(duì)在高重頻及大能量混合腔Innoslab構(gòu)型激光器<b class='flag-5'>領(lǐng)域</b>取得<b class='flag-5'>研究進(jìn)展</b>

    科學(xué)島團(tuán)隊(duì)在高增益光纖固體混合單頻Innoslab激光放大技術(shù)方面取得研究進(jìn)展

    圖?1?光纖固體混合Innoslab放大器示意圖 近期,中國(guó)科學(xué)院合肥物質(zhì)院安光所張?zhí)焓?b class='flag-5'>研究員課題組在光纖固體混合單頻Innoslab激光放大技術(shù)研究方面取得新進(jìn)展,相關(guān)成果發(fā)表在國(guó)際知名光學(xué)
    的頭像 發(fā)表于 12-05 06:44 ?299次閱讀
    科學(xué)島團(tuán)隊(duì)在高增益光纖固體混合單頻Innoslab激光放大技術(shù)方面取得<b class='flag-5'>研究進(jìn)展</b>

    應(yīng)用多光譜數(shù)字圖像區(qū)分苗期作物與雜草的研究進(jìn)展

    處理與機(jī)器學(xué)習(xí)算法,為自動(dòng)化、智能化的雜草管理提供了新思路。本文綜述該技術(shù)的研究現(xiàn)狀、核心方法、挑戰(zhàn)及未來(lái)發(fā)展方向。 技術(shù)原理與方法 1. 多光譜成像技術(shù) 多光譜成像(Multispectral Imaging)通過(guò)同時(shí)采集可見(jiàn)光(400-700 n
    的頭像 發(fā)表于 10-21 15:25 ?504次閱讀

    多光譜圖像顏色特征用于茶葉分類(lèi)的研究進(jìn)展

    多光譜成像技術(shù)結(jié)合顏色特征分析為茶葉分類(lèi)提供了高效、非破壞性的解決方案。本文系統(tǒng)綜述了該技術(shù)的原理、方法、應(yīng)用案例及挑戰(zhàn),探討了其在茶葉品質(zhì)分級(jí)、品種識(shí)別和產(chǎn)地溯源中的研究進(jìn)展,并展望了未來(lái)發(fā)展方向
    的頭像 發(fā)表于 10-17 17:09 ?794次閱讀
    多光譜圖像顏色特征用于茶葉分類(lèi)的<b class='flag-5'>研究進(jìn)展</b>

    高光譜成像在作物長(zhǎng)勢(shì)監(jiān)測(cè)和產(chǎn)量預(yù)估的研究進(jìn)展

    參數(shù)的非接觸式、高精度監(jiān)測(cè)。近年來(lái),隨著遙感技術(shù)和人工智能算法的發(fā)展,高光譜成像系統(tǒng) (SKY機(jī)載高光譜相機(jī)+中達(dá)瑞和 云平臺(tái)) 已成為作物長(zhǎng)勢(shì)監(jiān)測(cè)和產(chǎn)量預(yù)估的重要工具。本文系統(tǒng)梳理該技術(shù)的原理、應(yīng)用進(jìn)展,為相關(guān)研究提供參考。 高光譜成像技術(shù)原理與優(yōu)勢(shì) 1. 技術(shù)原理
    的頭像 發(fā)表于 10-16 16:31 ?684次閱讀
    高光譜成像在作物長(zhǎng)勢(shì)監(jiān)測(cè)和產(chǎn)量預(yù)估的<b class='flag-5'>研究進(jìn)展</b>

    高光譜成像在作物病蟲(chóng)害監(jiān)測(cè)的研究進(jìn)展

    特性會(huì)發(fā)生顯著變化,例如: 葉綠素含量下降 :導(dǎo)致可見(jiàn)光波段(400-700 nm)反射率異常 細(xì)胞結(jié)構(gòu)破壞 :引起近紅外波段(700-1300 nm)散射特征改變 水分與糖分異常 :影響短波紅外波段(1300-2500 nm)吸收峰分布 研究進(jìn)展與關(guān)鍵技術(shù)突破 (一)光譜特征提取方法 植被指數(shù)優(yōu)
    的頭像 發(fā)表于 10-16 15:53 ?715次閱讀
    高光譜成像在作物病蟲(chóng)害監(jiān)測(cè)的<b class='flag-5'>研究進(jìn)展</b>

    高光譜成像技術(shù)在指紋提取的研究和應(yīng)用

    ,高光譜成像技術(shù)(Hyperspectral Imaging, HSI)因其在非接觸式、無(wú)損檢測(cè)和多波段信息獲取方面的優(yōu)勢(shì),成為指紋提取領(lǐng)域研究熱點(diǎn)。本文系統(tǒng)梳理高光譜成像技術(shù)在指紋提取中的原理、研究進(jìn)展、應(yīng)用場(chǎng)景及挑戰(zhàn)。 ?
    的頭像 發(fā)表于 09-26 17:55 ?1553次閱讀
    高光譜成像技術(shù)在指紋提取的<b class='flag-5'>研究</b>和應(yīng)用

    模板驅(qū)動(dòng) 無(wú)需訓(xùn)練數(shù)據(jù) SmartDP解決小樣本AI算法模型開(kāi)發(fā)難題

    。但是這個(gè)平臺(tái)不適用于小樣本AI模型開(kāi)發(fā),特別是一些特殊行業(yè),數(shù)據(jù)本來(lái)就不多,但又有著需求,因此陷于兩難。面臨這種市場(chǎng)困境,慧視光電推出了一個(gè)全新的AI平臺(tái)Sma
    的頭像 發(fā)表于 09-09 17:57 ?1580次閱讀
    模板驅(qū)動(dòng)  無(wú)需訓(xùn)練數(shù)據(jù)  SmartDP解決<b class='flag-5'>小樣本</b>AI算法模型開(kāi)發(fā)難題

    NVIDIA展示機(jī)器人領(lǐng)域研究成果

    在今年的機(jī)器人科學(xué)與系統(tǒng)會(huì)議 (RSS) 上,NVIDIA 研究中心展示了一系列推動(dòng)機(jī)器人學(xué)習(xí)研究成果,展示了在仿真、現(xiàn)實(shí)世界遷移和決策制定領(lǐng)域的突破。
    的頭像 發(fā)表于 07-23 10:43 ?1695次閱讀

    微雙重驅(qū)動(dòng)的新型直線電機(jī)研究

    摘罷:大行程、高精度,同時(shí)易于小型化的移動(dòng)機(jī)構(gòu)是先進(jìn)制造業(yè)等領(lǐng)域要解決的關(guān)鍵問(wèn)題之一,綜述了現(xiàn)有宏/微雙重驅(qū)動(dòng)機(jī)構(gòu)和直線超聲電機(jī)的研究進(jìn)展和存在問(wèn)題,提出了一種宏微雙重驅(qū)動(dòng)新型直線壓電電機(jī),使其既能
    發(fā)表于 06-24 14:17

    氧化鎵射頻器件研究進(jìn)展

    ,首先介紹了 Ga2O3在射頻器件領(lǐng)域的優(yōu)勢(shì)和面臨的挑戰(zhàn),然后綜述了近年來(lái) Ga2O3射頻器件在體摻雜溝道、AlGaO/Ga2O3調(diào)制 摻雜異質(zhì)結(jié)以及與高導(dǎo)熱襯底異質(zhì)集成方面取得的進(jìn)展,并對(duì)研究結(jié)果進(jìn)行了討論,最后展望了未來(lái) G
    的頭像 發(fā)表于 06-11 14:30 ?2788次閱讀
    氧化鎵射頻器件<b class='flag-5'>研究進(jìn)展</b>

    中國(guó)科學(xué)院西安光機(jī)所在計(jì)算成像可解釋性深度學(xué)習(xí)重建方法取得進(jìn)展

    圖1 MDFP-Net網(wǎng)絡(luò)結(jié)構(gòu) 近日,中國(guó)科學(xué)院西安光機(jī)所空間光學(xué)技術(shù)研究室在計(jì)算成像可解釋性深度學(xué)習(xí)重建方法研究取得創(chuàng)新性進(jìn)展。相關(guān)研究
    的頭像 發(fā)表于 06-09 09:27 ?844次閱讀
    中國(guó)科學(xué)院西安光機(jī)所在計(jì)算成像可解釋性深度<b class='flag-5'>學(xué)習(xí)</b>重建方法取得<b class='flag-5'>進(jìn)展</b>

    NVMe協(xié)議研究掃盲

    的不斷完善,越來(lái)越多的系統(tǒng)和應(yīng)用采用NVMe存儲(chǔ)接口的SSD,這種技術(shù)將成為未來(lái)存儲(chǔ)領(lǐng)域的主流。 NVMe研究進(jìn)展 目前,一些國(guó)內(nèi)外學(xué)者將NVMe SSD應(yīng)用于嵌入式存儲(chǔ)設(shè)備。例如Opsero公司的Jeff
    發(fā)表于 06-02 23:28

    射頻系統(tǒng)先進(jìn)封裝技術(shù)研究進(jìn)展

    通信、雷達(dá)和微波測(cè)量等領(lǐng)域電子信息裝備迅速發(fā)展, 對(duì)射頻系統(tǒng)提出了微型化、集成化和多樣化等迫切需求。先進(jìn)封裝技術(shù)可以將不同材料、不同工藝和不同功能的器件進(jìn)行異質(zhì)集成, 極大提升了電子產(chǎn)品的功能、集成度和可靠性等方面, 成為推動(dòng)射頻系統(tǒng)發(fā)展的關(guān)鍵引擎。
    的頭像 發(fā)表于 05-21 09:37 ?2429次閱讀
    射頻系統(tǒng)先進(jìn)封裝技術(shù)<b class='flag-5'>研究進(jìn)展</b>
    罗平县| 清徐县| 茂名市| 攀枝花市| 湛江市| 棋牌| 马尔康县| 陵水| 利津县| 海口市| 丹凤县| 工布江达县| 石门县| 麻阳| 武山县| 建平县| 漳平市| 锡林郭勒盟| 定结县| 清水县| 巴中市| 红安县| 惠安县| 靖西县| 廉江市| 抚州市| 姜堰市| 元谋县| 颍上县| 长沙市| 永川市| 巩留县| 达孜县| 澄江县| 堆龙德庆县| 县级市| 金山区| 高安市| 桦甸市| 射洪县| 大石桥市|