日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

圖深度學(xué)習(xí)與曾經(jīng)風(fēng)靡一時的流形學(xué)習(xí)有何關(guān)系?

智能感知與物聯(lián)網(wǎng)技術(shù)研究所 ? 來源:通信信號處理研究所 ? 作者:通信信號處理研究 ? 2020-10-30 17:23 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

如今引領(lǐng)風(fēng)潮的圖深度學(xué)習(xí)與曾經(jīng)風(fēng)靡一時的流形學(xué)習(xí)有何關(guān)系?請看本文娓娓道來。

神經(jīng)網(wǎng)絡(luò)利用關(guān)系的歸納偏置獲取以圖的形式存在的數(shù)據(jù)。然而,在很多情況下,我們并沒有現(xiàn)成的可用的圖。

那么,在這種情況下,是否還仍然還可以應(yīng)用圖深度學(xué)習(xí)呢?在本文中,倫敦帝國理工學(xué)院和盧加諾大學(xué)的教授Michael Bronstein對近期關(guān)于隱圖學(xué)習(xí)的工作和以前的流形學(xué)習(xí)技術(shù)進行了比較。

在過去的幾年里,人們對用于圖結(jié)構(gòu)數(shù)據(jù)的機器學(xué)習(xí)方法的研究興趣大增。這類數(shù)據(jù)自然而然地出現(xiàn)在社會科學(xué)(例如,Twitter 或 Facebook 上的用戶關(guān)注圖)、化學(xué)(分子可以被建模為原子通過化學(xué)鍵相連的圖)、生物(不同生物分子之間的交互作用通常被建模為一個被稱為「相互作用組」的圖)等應(yīng)用場景下。

圖神經(jīng)網(wǎng)絡(luò)(GNN)是一類當(dāng)下非常流行的方法,它們通過共享參數(shù)的局部操作對圖進行學(xué)習(xí),這些操作會在相鄰節(jié)點之間交換信息。然而,在某些場景下,我們并不能奢求擁有一個作為輸入的圖。這種情況在許多生物學(xué)問題中屢見不鮮,在最好的情況下,由于發(fā)現(xiàn)交互作用的實驗開銷相當(dāng)大并且充滿噪聲,「蛋白質(zhì)-蛋白質(zhì)」交互網(wǎng)絡(luò)等圖往往也只有部分數(shù)據(jù)被觀測到。

因此,我們對于根據(jù)數(shù)據(jù)推理出圖并且將圖神經(jīng)網(wǎng)絡(luò)應(yīng)用在該圖上十分感興趣,在本文中,我們將這一過程稱為「隱圖學(xué)習(xí)」(latent graph learning)。

隱圖可能是面向特定應(yīng)用的,并且針對下游任務(wù)進行了優(yōu)化。此外,由于這樣的圖可能會傳達關(guān)于數(shù)據(jù)的重要理解并提供解釋某些結(jié)論的方式,有時它們可能甚至?xí)热蝿?wù)本身更加重要。我們可以將隱圖學(xué)習(xí)看做學(xué)習(xí)一個帶有空邊集的圖。

在這種情況下,輸入為一些高維特征空間中的點云。

與 PointNet 等針對集合的深度學(xué)習(xí)方法(它們將一些共享的、可學(xué)習(xí)的點層面函數(shù)應(yīng)用于每個節(jié)點上)不同,我們還試圖在點之間傳遞信息。這是通過在一個根據(jù)點特征本身構(gòu)建的圖上傳遞消息實現(xiàn)的。

本文介紹的第一種此類架構(gòu)為 MIT 的 Yue Wang 研發(fā)的「動態(tài)圖卷積網(wǎng)絡(luò)」(DGCNN,這篇論文在計算圖形學(xué)研究社區(qū)十分有名,并常常被用作點云方法的對比基線)。

受到計算圖形學(xué)領(lǐng)域中進行 3D 點云分析的工作的啟發(fā),DGCNN 試圖將圖用作點云底層的局部平滑流形結(jié)構(gòu)的一種粗糙的表征。

Yue Wang 觀察到的一個關(guān)鍵結(jié)論是,在整個神經(jīng)網(wǎng)絡(luò)的處理過程中,該圖并不需要保持不變。而且事實上,顧名思義,「動態(tài)圖卷積網(wǎng)絡(luò)」可以、也應(yīng)該被動態(tài)地更新。圖 1 說明了 DGCNN 在計算圖形學(xué)中十分有用的原因:

圖 1:動態(tài)圖卷積網(wǎng)絡(luò)利用飛機圖像構(gòu)建了一個被用于特征傳播的 K 最近鄰圖。這種圖依賴于特定的任務(wù),會被每一層網(wǎng)絡(luò)更新。

圖中的不同顏色表明了點距離紅點的距離(黃色表示與紅點距離較近的點)。

本圖說明在分割任務(wù)中,較深的層中的圖捕獲了語義關(guān)系(例如,一對翅膀、飛機引擎等)而不是幾何關(guān)系。

DGCNN 其中的一個不足之處在于,它使用了同一個空間構(gòu)建圖以及圖上的特征。如圖 2 所示,在慕尼黑工業(yè)大學(xué)的 Anees Kazi 與 Luca Cosmo 近期發(fā)表的工作中,作者提出了一種名為「可微圖模塊」(DGM)的新型架構(gòu),它通過將構(gòu)建圖和構(gòu)建特征的過程解耦對 DGCNN 進行了擴展:

圖 2:可微圖模塊(DGM)提出了一種構(gòu)建圖及其特征的機制,從而利用輸入數(shù)據(jù)在圖上進行信息傳播。

在被用于醫(yī)學(xué)領(lǐng)域的問題(例如,根據(jù)腦成像數(shù)據(jù)預(yù)測疾?。r,DGM 表現(xiàn)出了非常優(yōu)異的性能。在這些任務(wù)中,我們擁有包括人口統(tǒng)計學(xué)特征(例如,年齡、性別等)、腦成像特征在內(nèi)的多個病人的電子病歷數(shù)據(jù),并試圖預(yù)測某個病人是否患有神經(jīng)系統(tǒng)疾病。

論文「Disease prediction using graph convolutional networks: application to autism spectrum disorder and Alzheimer’s disease 」使用在一個根據(jù)人口統(tǒng)計學(xué)特征手動構(gòu)建的「患者圖」上的信息傳播將 GNN 應(yīng)用于此類任務(wù)。

DGM 在學(xué)習(xí)圖的任務(wù)上具有一定優(yōu)勢,它可能傳達了對于某些特征如何在特定的診斷任務(wù)中互相依賴的理解。除此之外,DGM 還在點云分類任務(wù)中稍稍優(yōu)于 DGCNN。

DGCNN 和 DGM 在概念上與一類被稱為「流形學(xué)習(xí)」或「非線性降維」相似,這類方法在 2000 年代時是機器學(xué)習(xí)領(lǐng)域中非常流行的課題,并且至今仍然被用于數(shù)據(jù)可視化。

流形學(xué)習(xí)的基本假設(shè)是:數(shù)據(jù)有一種內(nèi)在的低維結(jié)構(gòu)。

如下圖所示,盡管我們可以在某個空間中使用數(shù)百個甚至數(shù)千個維度表征數(shù)據(jù),但數(shù)據(jù)的自由度實際上也許是十分有限的:

圖 3:盡管在這個數(shù)據(jù)集中的手的圖像是高維的(64*64=4,096 維),但是他們本質(zhì)上是低維的,而且可以通過僅僅兩個自由度來解釋:手腕的旋轉(zhuǎn)和手指的延伸情況。

流形學(xué)習(xí)算法可以捕獲數(shù)據(jù)集的這種低維的內(nèi)在結(jié)構(gòu),并且在歐氏空間中表征它。該圖取自論文「A Global Geometric Framework for Nonlinear Dimensionality Reduction」的補充材料。

流形學(xué)習(xí)旨在通過底層的「流形」(嚴格地說,這里指的并不是微分幾何意義上的術(shù)語「流形」,例如不同的點上的局部維度可能不同。

然而,使用這種比喻較為方便。)捕獲這些自由度,并且將數(shù)據(jù)的維度降到其本質(zhì)的維度上。

流形學(xué)習(xí)與 PCA 等線性降維方式的重要區(qū)別在于,由于數(shù)據(jù)的非歐結(jié)構(gòu),用線性投影的方式恢復(fù)出流形是不可能的:

圖 4:線性降維(左圖)vs 流形學(xué)習(xí)。Joshua Tenenbaum 創(chuàng)造的「Swiss roll」曲面及其 1D 展開形式在流形學(xué)習(xí)論文中經(jīng)常被用作示例。

各種流形學(xué)習(xí)算法的不同之處在于它們恢復(fù)「流形」的方式,但它們的大致框架相同。首先,它們會創(chuàng)建一種數(shù)據(jù)的表征,通常這是通過構(gòu)建一個捕獲了局部結(jié)構(gòu)的 k 最近鄰圖完成的。接著,它們會計算一種數(shù)據(jù)的低維表征(嵌入),并試圖保留原始數(shù)據(jù)的結(jié)構(gòu)。

而這一步正是大多數(shù)流形學(xué)習(xí)方法各不相同的地方。

例如,Isomap試圖保留圖的測地線距離;局部線性嵌入找到了一種鄰接點的局部表征;而拉普拉斯特征映射使用了圖拉普拉斯算子的特征函數(shù)作為低維嵌入。這種新的表征將原始的非歐結(jié)構(gòu)「展平」到了一個易于處理的歐氏空間中。

最后,一旦我們計算出表征,就可以將某種機器學(xué)習(xí)算法(通常為聚類算法)應(yīng)用于該表征上。

圖 5:流形學(xué)習(xí)方法的框架:首先,將數(shù)據(jù)表征為一個圖。接著,計算出該圖的低維嵌入。最后,將某種機器學(xué)習(xí)算法應(yīng)用于該低維表征上。

該過程也存在著一些挑戰(zhàn),例如:構(gòu)建圖的過程與應(yīng)用機器學(xué)習(xí)算法的過程是解耦的,有時還需要進行精細的參數(shù)調(diào)優(yōu)(如近鄰節(jié)點的數(shù)量或鄰域半徑),從而確定如何構(gòu)建圖,使得下游任務(wù)表現(xiàn)優(yōu)異。

也許,流形學(xué)習(xí)算法的一個更為嚴重的缺點是,數(shù)據(jù)很少表現(xiàn)為低維的原始形式。

例如,當(dāng)我們處理圖像時,需要在預(yù)處理步驟中使用各種手動構(gòu)造的特征提取技術(shù)。

圖深度學(xué)習(xí)通過使用一個圖神經(jīng)網(wǎng)絡(luò)代替這個三階段的過程為其提供了一種現(xiàn)代化的視角。

例如,在動態(tài)圖卷積網(wǎng)絡(luò)或 DGM 中,構(gòu)建圖和學(xué)習(xí)的過程都是同一個架構(gòu)中的某一部分:

圖 6:可以將隱圖學(xué)習(xí)看做一種現(xiàn)代環(huán)境下的流形學(xué)習(xí)問題,其中將圖作為一個端到端的 GNN 工作流程的一部分進行學(xué)習(xí),并為某些下游任務(wù)對其進行優(yōu)化。

這類方法吸引人的地方在于,它們可以將處理單個數(shù)據(jù)點的過程與處理它們所在空間的過程在同一個工作流程中結(jié)合起來。

以圖像為例,我們可以使用傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)從每張圖像中提取視覺特征,并且使用圖神經(jīng)網(wǎng)絡(luò)建模它們之間的關(guān)系。

Jan Svoboda 在論文「 PeerNets: Exploiting peer wisdom against adversarial attacks」中用到了這種方法,他為卷積神經(jīng)網(wǎng)絡(luò)提出了一種基于圖的正則化層「PeerNet」,它可以實現(xiàn)在多張圖像之間交換信息。

PeerNet 與非局部(Non-local)均值濾波器在它們從多個位置聚合信息的方式上有一些相似之處,而 PeerNet 的不同之處在于它從多張圖像而不是單張圖像中聚合信息。

這種正則化技術(shù)顯著地降低了對抗性干擾的影響,而標準的卷積神經(jīng)網(wǎng)絡(luò)則很容易受其影響。

圖 7:PeerNet 是一種標準的卷積神經(jīng)網(wǎng)絡(luò)中的基于圖的正則化層,它從多張圖像中聚合相似的像素,從而降低對于對抗性干擾的敏感度。隱圖學(xué)習(xí)還有許多其它有趣的應(yīng)用,小樣本學(xué)習(xí)便是其中之一。

在小樣本學(xué)習(xí)中,基于圖的技術(shù)可以幫助使用少量示例訓(xùn)練的模型泛化。如今,由于數(shù)據(jù)標注的開銷十分巨大,小樣本學(xué)習(xí)在計算機視覺領(lǐng)域變得越來越重要。生物學(xué)是隱圖學(xué)習(xí)另一個重要的應(yīng)用場景,人們通常通過實驗觀察蛋白質(zhì)等生物分子的表達水平,并試圖重建它們的相互作用和信息傳遞網(wǎng)絡(luò)。

此外,隱圖學(xué)習(xí)還可以被用于對物理系統(tǒng)的分析,其中圖可以描述多個物體之間的相互作用。具體而言,研究復(fù)雜粒子相互作用的高能物理學(xué)家們近期對基于圖的方法展現(xiàn)出了濃厚的興趣。最后,隱圖學(xué)習(xí)在自然語言處理(NLP)領(lǐng)域中也得到了重要的應(yīng)用,其中圖神經(jīng)網(wǎng)絡(luò)可以被看做 Transformer 架構(gòu)的拓展。

許多上述的任務(wù)也提出了引入圖結(jié)構(gòu)的先驗知識的問題,這仍然是一個有待解決的開放性問題:例如,我們也許會希望迫使圖遵循某些特定的構(gòu)建規(guī)則,或者與某些統(tǒng)計模型兼容。

在論文「Learning deep generative models of graphs」中,作者在嚴格遵循某些構(gòu)建規(guī)則的情況下,生成化學(xué)鍵的分子結(jié)構(gòu)圖。我們相信,盡管隱圖學(xué)習(xí)并不是一個完全新穎的概念,但是它為一些老的問題提供了新的視角。

它肯定是一種有趣的圖機器學(xué)習(xí)問題,為圖神經(jīng)網(wǎng)絡(luò)的研究者們提供了新的舞臺。

責(zé)任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標題:“看不見”的圖深度學(xué)習(xí)=流形學(xué)習(xí) 2.0?

文章出處:【微信號:tyutcsplab,微信公眾號:智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    深度學(xué)習(xí)為什么還是無法處理邊緣場景?

    [首發(fā)于智駕最前沿微信公眾號]雖然自動駕駛車輛已經(jīng)完成了數(shù)百萬公里的行駛測試,深度學(xué)習(xí)也已被普遍應(yīng)用,但依然會在些看似簡單的場景中犯下低級錯誤。比如在遇到些從未見到過的邊緣場景時,
    的頭像 發(fā)表于 05-04 10:16 ?2152次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>為什么還是無法處理邊緣場景?

    人工智能-Python深度學(xué)習(xí)進階與應(yīng)用技術(shù):工程師高培解讀

    深度學(xué)習(xí)的工程化落地,早已不是紙上談兵的事。從卷積神經(jīng)網(wǎng)絡(luò)到Transformer,從目標檢測到大模型私有化部署,技術(shù)棧不斷延伸,工程師面臨的知識體系也越來越龐雜。現(xiàn)根據(jù)中際賽威工程師培訓(xùn)老師的
    的頭像 發(fā)表于 04-21 11:01 ?393次閱讀
    人工智能-Python<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>進階與應(yīng)用技術(shù):工程師高培解讀

    人工智能與機器學(xué)習(xí)在這些行業(yè)的深度應(yīng)用

    自人工智能和機器學(xué)習(xí)問世以來,多個在線領(lǐng)域的數(shù)字化格局迎來了翻天覆地的變化。這些技術(shù)從誕生之初就為企業(yè)賦予了競爭優(yōu)勢,而在線行業(yè)正是受其影響最為顯著的領(lǐng)域。人工智能(AI)與機器學(xué)習(xí)(ML)的深度應(yīng)用,徹底重塑了整個行業(yè)的發(fā)展模
    的頭像 發(fā)表于 02-04 14:44 ?713次閱讀

    強化學(xué)習(xí)會讓自動駕駛模型學(xué)習(xí)更快嗎?

    [首發(fā)于智駕最前沿微信公眾號]在談及自動駕駛大模型訓(xùn)練時,有的技術(shù)方案會采用模仿學(xué)習(xí),而有些會采用強化學(xué)習(xí)。同樣作為大模型的訓(xùn)練方式,強化學(xué)習(xí)何不同?又有什么特點呢? 什么是強化
    的頭像 發(fā)表于 01-31 09:34 ?861次閱讀
    強化<b class='flag-5'>學(xué)習(xí)</b>會讓自動駕駛模型<b class='flag-5'>學(xué)習(xí)</b>更快嗎?

    機器學(xué)習(xí)深度學(xué)習(xí)中需避免的 7 個常見錯誤與局限性

    無論你是剛?cè)腴T還是已經(jīng)從事人工智能模型相關(guān)工作段時間,機器學(xué)習(xí)深度學(xué)習(xí)中都存在些我們需要時刻關(guān)注并銘記的常見錯誤。如果對這些錯誤置之不
    的頭像 發(fā)表于 01-07 15:37 ?370次閱讀
    機器<b class='flag-5'>學(xué)習(xí)</b>和<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>中需避免的 7 個常見錯誤與局限性

    穿孔機頂頭檢測儀 機器視覺深度學(xué)習(xí)

    頂頭狀態(tài)。 檢測頂頭算法 引入人工智深度學(xué)習(xí)技術(shù),通過Keras實現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)(CNN),用Numpy實現(xiàn)采集數(shù)據(jù)的訓(xùn)練,得到符合現(xiàn)場需求的模型,進步提升檢測的準確性和現(xiàn)場的適應(yīng)性。 應(yīng)用范圍
    發(fā)表于 12-22 14:33

    【團購】獨家全套珍藏!龍哥LabVIEW視覺深度學(xué)習(xí)實戰(zhàn)課(11大系列課程,共5000+分鐘)

    的亮點及優(yōu)勢? 、課程亮點 工業(yè)級案例:包含雙CCD光學(xué)分選轉(zhuǎn)盤、機械手手眼協(xié)調(diào)等12個完整項目 源碼交付:所有案例提供LabVIEW源代碼,包含深度學(xué)習(xí)模型DLL 硬件聯(lián)動:支持工業(yè)相機硬觸發(fā)
    發(fā)表于 12-04 09:28

    【團購】獨家全套珍藏!龍哥LabVIEW視覺深度學(xué)習(xí)實戰(zhàn)課程(11大系列課程,共5000+分鐘)

    的亮點及優(yōu)勢? 、課程亮點 工業(yè)級案例:包含雙CCD光學(xué)分選轉(zhuǎn)盤、機械手手眼協(xié)調(diào)等12個完整項目 源碼交付:所有案例提供LabVIEW源代碼,包含深度學(xué)習(xí)模型DLL 硬件聯(lián)動:支持工業(yè)相機硬觸發(fā)
    發(fā)表于 12-03 13:50

    如何深度學(xué)習(xí)機器視覺的應(yīng)用場景

    深度學(xué)習(xí)視覺應(yīng)用場景大全 工業(yè)制造領(lǐng)域 復(fù)雜缺陷檢測:處理傳統(tǒng)算法難以描述的非標準化缺陷模式 非標產(chǎn)品分類:對形狀、顏色、紋理多變的產(chǎn)品進行智能分類 外觀質(zhì)量評估:基于學(xué)習(xí)的外觀質(zhì)量標準判定 精密
    的頭像 發(fā)表于 11-27 10:19 ?354次閱讀

    如何在機器視覺中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    1:基于深度學(xué)習(xí)的目標檢測可定位已訓(xùn)練的目標類別,并通過矩形框(邊界框)對其進行標識。 在討論人工智能(AI)或深度學(xué)習(xí)時,經(jīng)常會出現(xiàn)“
    的頭像 發(fā)表于 09-10 17:38 ?1079次閱讀
    如何在機器視覺中部署<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>神經(jīng)網(wǎng)絡(luò)

    深度學(xué)習(xí)對工業(yè)物聯(lián)網(wǎng)哪些幫助

    、實施路徑三個維度展開分析: 、深度學(xué)習(xí)如何突破工業(yè)物聯(lián)網(wǎng)的技術(shù)瓶頸? 1. 非結(jié)構(gòu)化數(shù)據(jù)處理:解鎖“沉睡數(shù)據(jù)”價值 傳統(tǒng)困境 :工業(yè)物聯(lián)網(wǎng)中70%以上的數(shù)據(jù)為非結(jié)構(gòu)化數(shù)據(jù)(如設(shè)備振動波形、紅外圖像、日志文本),傳統(tǒng)方法難以
    的頭像 發(fā)表于 08-20 14:56 ?1253次閱讀

    自動駕駛中Transformer大模型會取代深度學(xué)習(xí)嗎?

    [首發(fā)于智駕最前沿微信公眾號]近年來,隨著ChatGPT、Claude、文心言等大語言模型在生成文本、對話交互等領(lǐng)域的驚艷表現(xiàn),“Transformer架構(gòu)是否正在取代傳統(tǒng)深度學(xué)習(xí)”這
    的頭像 發(fā)表于 08-13 09:15 ?4396次閱讀
    自動駕駛中Transformer大模型會取代<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>嗎?

    當(dāng)深度學(xué)習(xí)遇上嵌入式資源困境,特征空間如何破局?

    近年來,隨著人工智能(AI)技術(shù)的迅猛發(fā)展,深度學(xué)習(xí)(Deep Learning)成為最熱門的研究領(lǐng)域之。在語音識別、圖像識別、自然語言處理等領(lǐng)域,深度
    發(fā)表于 07-14 14:50 ?1331次閱讀
    當(dāng)<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>遇上嵌入式資源困境,特征空間如何破局?

    使用MATLAB進行無監(jiān)督學(xué)習(xí)

    無監(jiān)督學(xué)習(xí)種根據(jù)未標注數(shù)據(jù)進行推斷的機器學(xué)習(xí)方法。無監(jiān)督學(xué)習(xí)旨在識別數(shù)據(jù)中隱藏的模式和關(guān)系,無需任何監(jiān)督或關(guān)于結(jié)果的先驗知識。
    的頭像 發(fā)表于 05-16 14:48 ?1639次閱讀
    使用MATLAB進行無監(jiān)督<b class='flag-5'>學(xué)習(xí)</b>
    谢通门县| 武义县| 永善县| 沾益县| 柳江县| 阿拉善左旗| 贵州省| 仁怀市| 林口县| 沈阳市| 改则县| 涟源市| 普安县| 兴隆县| 巴塘县| 焦作市| 乾安县| 神农架林区| 莱西市| 津市市| 辉南县| 澄迈县| 密山市| 昆明市| 武山县| 延边| 林甸县| 鹿泉市| 沛县| 灵宝市| 双流县| 烟台市| 乌拉特中旗| 通河县| 禹州市| 于田县| 凤台县| 重庆市| 新和县| 达拉特旗| 洞口县|