日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

探析從貝葉斯到深度學(xué)習(xí)及各自優(yōu)缺點(diǎn)

mK5P_AItists ? 來源:cc ? 2019-02-17 09:56 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

目錄

正則化算法(Regularization Algorithms)

集成算法(Ensemble Algorithms)

決策樹算法(Decision Tree Algorithm)

回歸(Regression)

人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Network)

深度學(xué)習(xí)(Deep Learning)

支持向量機(jī)(Support Vector Machine)

降維算法(Dimensionality Reduction Algorithms)

聚類算法(Clustering Algorithms)

基于實(shí)例的算法(Instance-based Algorithms)

貝葉斯算法(Bayesian Algorithms)

關(guān)聯(lián)規(guī)則學(xué)習(xí)算法(Association Rule Learning Algorithms)

圖模型(Graphical Models)

正則化算法(Regularization Algorithms)

它是另一種方法(通常是回歸方法)的拓展,這種方法會基于模型復(fù)雜性對其進(jìn)行懲罰,它喜歡相對簡單能夠更好的泛化的模型。

例子:

嶺回歸(Ridge Regression)

最小絕對收縮與選擇算子(LASSO)

GLASSO

彈性網(wǎng)絡(luò)(Elastic Net)

最小角回歸(Least-Angle Regression)

優(yōu)點(diǎn):

其懲罰會減少過擬合

總會有解決方法

缺點(diǎn):

懲罰會造成欠擬合

很難校準(zhǔn)

集成算法(Ensemble algorithms)

集成方法是由多個(gè)較弱的模型集成模型組,其中的模型可以單獨(dú)進(jìn)行訓(xùn)練,并且它們的預(yù)測能以某種方式結(jié)合起來去做出一個(gè)總體預(yù)測。

該算法主要的問題是要找出哪些較弱的模型可以結(jié)合起來,以及結(jié)合的方法。這是一個(gè)非常強(qiáng)大的技術(shù)集,因此廣受歡迎。

Boosting

Bootstrapped Aggregation(Bagging)

AdaBoost

層疊泛化(Stacked Generalization)(blending)

梯度推進(jìn)機(jī)(Gradient Boosting Machines,GBM)

梯度提升回歸樹(Gradient Boosted Regression Trees,GBRT)

隨機(jī)森林(Random Forest)

優(yōu)點(diǎn):

當(dāng)先最先進(jìn)的預(yù)測幾乎都使用了算法集成。它比使用單個(gè)模型預(yù)測出來的結(jié)果要精確的多

缺點(diǎn):

需要大量的維護(hù)工作

決策樹算法(Decision Tree Algorithm)

決策樹學(xué)習(xí)使用一個(gè)決策樹作為一個(gè)預(yù)測模型,它將對一個(gè) item(表征在分支上)觀察所得映射成關(guān)于該 item 的目標(biāo)值的結(jié)論(表征在葉子中)。

樹模型中的目標(biāo)是可變的,可以采一組有限值,被稱為分類樹;在這些樹結(jié)構(gòu)中,葉子表示類標(biāo)簽,分支表示表征這些類標(biāo)簽的連接的特征。

例子:

分類和回歸樹(Classification and Regression Tree,CART)

Iterative Dichotomiser 3(ID3)

C4.5 和 C5.0(一種強(qiáng)大方法的兩個(gè)不同版本)

優(yōu)點(diǎn):

容易解釋

非參數(shù)型

缺點(diǎn):

趨向過擬合

可能或陷于局部最小值中

沒有在線學(xué)習(xí)

回歸(Regression)算法

回歸是用于估計(jì)兩種變量之間關(guān)系的統(tǒng)計(jì)過程。當(dāng)用于分析因變量和一個(gè) 多個(gè)自變量之間的關(guān)系時(shí),該算法能提供很多建模和分析多個(gè)變量的技巧。具體一點(diǎn)說,回歸分析可以幫助我們理解當(dāng)任意一個(gè)自變量變化,另一個(gè)自變量不變時(shí),因變量變化的典型值。最常見的是,回歸分析能在給定自變量的條件下估計(jì)出因變量的條件期望。

回歸算法是統(tǒng)計(jì)學(xué)中的主要算法,它已被納入統(tǒng)計(jì)機(jī)器學(xué)習(xí)。

例子:

普通最小二乘回歸(Ordinary Least Squares Regression,OLSR)

線性回歸(Linear Regression)

邏輯回歸(Logistic Regression)

逐步回歸(Stepwise Regression)

多元自適應(yīng)回歸樣條(Multivariate Adaptive Regression Splines,MARS

本地散點(diǎn)平滑估計(jì)(Locally Estimated Scatterplot Smoothing,LOESS)

優(yōu)點(diǎn):

直接、快速

知名度高

缺點(diǎn):

要求嚴(yán)格的假設(shè)

需要處理異常值

人工神經(jīng)網(wǎng)絡(luò)

人工神經(jīng)網(wǎng)絡(luò)是受生物神經(jīng)網(wǎng)絡(luò)啟發(fā)而構(gòu)建的算法模型。

它是一種模式匹配,常被用于回歸和分類問題,但擁有龐大的子域,由數(shù)百種算法和各類問題的變體組成。

例子:

感知器

反向傳播

Hopfield 網(wǎng)絡(luò)

徑向基函數(shù)網(wǎng)絡(luò)(Radial Basis Function Network,RBFN)

優(yōu)點(diǎn):

在語音、語義、視覺、各類游戲(如圍棋)的任務(wù)中表現(xiàn)極好。

算法可以快速調(diào)整,適應(yīng)新的問題。

缺點(diǎn):

需要大量數(shù)據(jù)進(jìn)行訓(xùn)練

訓(xùn)練要求很高的硬件配置

模型處于「黑箱狀態(tài)」,難以理解內(nèi)部機(jī)制

元參數(shù)(Metaparameter)與網(wǎng)絡(luò)拓?fù)溥x擇困難。

深度學(xué)習(xí)(Deep Learning)

深度學(xué)習(xí)是人工神經(jīng)網(wǎng)絡(luò)的最新分支,它受益于當(dāng)代硬件的快速發(fā)展。

眾多研究者目前的方向主要集中于構(gòu)建更大、更復(fù)雜的神經(jīng)網(wǎng)絡(luò),目前有許多方法正在聚焦半監(jiān)督學(xué)習(xí)問題,其中用于訓(xùn)練的大數(shù)據(jù)集只包含很少的標(biāo)記。

例子:

深玻耳茲曼機(jī)(Deep Boltzmann Machine,DBM)

Deep Belief Networks(DBN)

卷積神經(jīng)網(wǎng)絡(luò)(CNN)

Stacked Auto-Encoders

優(yōu)點(diǎn)/缺點(diǎn):見神經(jīng)網(wǎng)絡(luò)

支持向量機(jī)(Support Vector Machines)

給定一組訓(xùn)練事例,其中每個(gè)事例都屬于兩個(gè)類別中的一個(gè),支持向量機(jī)(SVM)訓(xùn)練算法可以在被輸入新的事例后將其分類到兩個(gè)類別中的一個(gè),使自身成為非概率二進(jìn)制線性分類器。

SVM 模型將訓(xùn)練事例表示為空間中的點(diǎn),它們被映射到一幅圖中,由一條明確的、盡可能寬的間隔分開以區(qū)分兩個(gè)類別。

隨后,新的示例會被映射到同一空間中,并基于它們落在間隔的哪一側(cè)來預(yù)測它屬于的類別。

優(yōu)點(diǎn):

在非線性可分問題上表現(xiàn)優(yōu)秀

缺點(diǎn):

非常難以訓(xùn)練

很難解釋

降維算法(Dimensionality Reduction Algorithms)

和集簇方法類似,降維追求并利用數(shù)據(jù)的內(nèi)在結(jié)構(gòu),目的在于使用較少的信息總結(jié)或描述數(shù)據(jù)。

這一算法可用于可視化高維數(shù)據(jù)或簡化接下來可用于監(jiān)督學(xué)習(xí)中的數(shù)據(jù)。許多這樣的方法可針對分類和回歸的使用進(jìn)行調(diào)整。

例子:

主成分分析(Principal Component Analysis (PCA))

主成分回歸(Principal Component Regression (PCR))

偏最小二乘回歸(Partial Least Squares Regression (PLSR))

Sammon 映射(Sammon Mapping)

多維尺度變換(Multidimensional Scaling (MDS))

投影尋蹤(Projection Pursuit)

線性判別分析(Linear Discriminant Analysis (LDA))

混合判別分析(Mixture Discriminant Analysis (MDA))

二次判別分析(Quadratic Discriminant Analysis (QDA))

靈活判別分析(Flexible Discriminant Analysis (FDA))

優(yōu)點(diǎn):

可處理大規(guī)模數(shù)據(jù)集

無需在數(shù)據(jù)上進(jìn)行假設(shè)

缺點(diǎn):

難以搞定非線性數(shù)據(jù)

難以理解結(jié)果的意義

聚類算法(Clustering Algorithms)

聚類算法是指對一組目標(biāo)進(jìn)行分類,屬于同一組(亦即一個(gè)類,cluster)的目標(biāo)被劃分在一組中,與其他組目標(biāo)相比,同一組目標(biāo)更加彼此相似(在某種意義上)。

例子:

K-均值(k-Means)

k-Medians 算法

Expectation Maximi 封層 ation (EM)

最大期望算法(EM)

分層集群(Hierarchical Clstering)

優(yōu)點(diǎn):

讓數(shù)據(jù)變得有意義

缺點(diǎn):

結(jié)果難以解讀,針對不尋常的數(shù)據(jù)組,結(jié)果可能無用。

基于實(shí)例的算法(Instance-based Algorithms)

基于實(shí)例的算法(有時(shí)也稱為基于記憶的學(xué)習(xí))是這樣學(xué) 習(xí)算法,不是明確歸納,而是將新的問題例子與訓(xùn)練過程中見過的例子進(jìn)行對比,這些見過的例子就在存儲器中。

之所以叫基于實(shí)例的算法是因?yàn)樗苯訌挠?xùn)練實(shí)例中建構(gòu)出假設(shè)。這意味這,假設(shè)的復(fù)雜度能隨著數(shù)據(jù)的增長而變化:最糟的情況是,假設(shè)是一個(gè)訓(xùn)練項(xiàng)目列表,分類一個(gè)單獨(dú)新實(shí)例計(jì)算復(fù)雜度為 O(n)

例子:

K 最近鄰(k-Nearest Neighbor (kNN))

學(xué)習(xí)向量量化(Learning Vector Quantization (LVQ))

自組織映射(Self-Organizing Map (SOM))

局部加權(quán)學(xué)習(xí)(Locally Weighted Learning (LWL))

優(yōu)點(diǎn):

算法簡單、結(jié)果易于解讀

缺點(diǎn):

內(nèi)存使用非常高

計(jì)算成本高

不可能用于高維特征空間

貝葉斯算法(Bayesian Algorithms)

貝葉斯方法是指明確應(yīng)用了貝葉斯定理來解決如分類和回歸等問題的方法。

例子:

樸素貝葉斯(Naive Bayes)

高斯樸素貝葉斯(Gaussian Naive Bayes)

多項(xiàng)式樸素貝葉斯(Multinomial Naive Bayes)

平均一致依賴估計(jì)器(Averaged One-Dependence Estimators (AODE))

貝葉斯信念網(wǎng)絡(luò)(Bayesian Belief Network (BBN))

貝葉斯網(wǎng)絡(luò)(Bayesian Network (BN))

優(yōu)點(diǎn):

快速、易于訓(xùn)練、給出了它們所需的資源能帶來良好的表現(xiàn)

缺點(diǎn):

如果輸入變量是相關(guān)的,則會出現(xiàn)問題

關(guān)聯(lián)規(guī)則學(xué)習(xí)算法(Association Rule Learning Algorithms)

關(guān)聯(lián)規(guī)則學(xué)習(xí)方法能夠提取出對數(shù)據(jù)中的變量之間的關(guān)系的最佳解釋。比如說一家超市的銷售數(shù)據(jù)中存在規(guī)則 {洋蔥,土豆}=> {漢堡},那說明當(dāng)一位客戶同時(shí)購買了洋蔥和土豆的時(shí)候,他很有可能還會購買漢堡肉。

例子:

Apriori 算法(Apriori algorithm)

Eclat 算法(Eclat algorithm)

FP-growth

圖模型(Graphical Models)

圖模型或概率圖模型(PGM/probabilistic graphical model)是一種概率模型,一個(gè)圖(graph)可以通過其表示隨機(jī)變量之間的條件依賴結(jié)構(gòu)(conditional dependence structure)。

例子:

貝葉斯網(wǎng)絡(luò)(Bayesian network)

馬爾可夫隨機(jī)域(Markov random field)

鏈圖(Chain Graphs)

祖先圖(Ancestral graph)

優(yōu)點(diǎn):

模型清晰,能被直觀地理解

缺點(diǎn):

確定其依賴的拓?fù)浜芾щy,有時(shí)候也很模糊

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:機(jī)器學(xué)習(xí)算法集錦:從貝葉斯到深度學(xué)習(xí)及各自優(yōu)缺點(diǎn)

文章出處:【微信號:AItists,微信公眾號:人工智能學(xué)家】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    降壓穩(wěn)壓器中展頻實(shí)現(xiàn)方法的優(yōu)缺點(diǎn)

    本期為大家?guī)淼氖恰督祲悍€(wěn)壓器中展頻實(shí)現(xiàn)方法的優(yōu)缺點(diǎn)》,本文介紹芯片設(shè)計(jì)人員在降壓轉(zhuǎn)換器中實(shí)現(xiàn)展頻時(shí)所采用的流程,以及如何將這一方法擴(kuò)展其他系統(tǒng)。此外還將介紹常見的現(xiàn)代展頻實(shí)現(xiàn)方法及其優(yōu)缺點(diǎn)
    的頭像 發(fā)表于 04-22 14:32 ?7119次閱讀
    降壓穩(wěn)壓器中展頻實(shí)現(xiàn)方法的<b class='flag-5'>優(yōu)缺點(diǎn)</b>

    人工智能-Python深度學(xué)習(xí)進(jìn)階與應(yīng)用技術(shù):工程師高培解讀

    深度學(xué)習(xí)的工程化落地,早已不是紙上談兵的事。卷積神經(jīng)網(wǎng)絡(luò)Transformer,目標(biāo)檢測到大模型私有化部署,技術(shù)棧不斷延伸,工程師面臨
    的頭像 發(fā)表于 04-21 11:01 ?432次閱讀
    人工智能-Python<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>進(jìn)階與應(yīng)用技術(shù):工程師高培解讀

    模組服務(wù)器,邊緣集群 達(dá)電子攜多款品線亮相CITE 2026

    ,打造覆蓋電子信息全產(chǎn)業(yè)鏈的頂級盛會。作為國產(chǎn)AI算力領(lǐng)域的領(lǐng)軍企業(yè),深圳市達(dá)電子有限公司確認(rèn)參展,將分別在9號館核心先導(dǎo)元器件館與8號館特種電子元器件館設(shè)立雙展位,攜全棧國產(chǎn)化AI算力布局與三大核心產(chǎn)品線強(qiáng)勢亮相,向業(yè)界呈現(xiàn)從芯片
    的頭像 發(fā)表于 04-07 16:03 ?332次閱讀

    摩爾微電子任命喬·德維(Joe Bedewi)為首席財(cái)務(wù)官

    今日宣布,正式任命喬·德維(Joe Bedewi)為首席財(cái)務(wù)官(CFO)。此次任命旨在強(qiáng)化公司核心領(lǐng)導(dǎo)團(tuán)隊(duì),為企業(yè)下一階段的全球增長注入新動(dòng)能。 摩爾微電子首席財(cái)務(wù)官喬·德維(Joe Bedewi) 喬擁有超過30年的高管
    的頭像 發(fā)表于 03-20 10:28 ?427次閱讀
    摩爾<b class='flag-5'>斯</b>微電子任命喬·<b class='flag-5'>貝</b>德維(Joe Bedewi)為首席財(cái)務(wù)官

    PLA尼龍:5種常見3D打印材料應(yīng)用與避坑指南

    本文深度解析了PLA、ABS、PETG、TPU與尼龍等主流3D打印耗材的優(yōu)缺點(diǎn)及應(yīng)用場景。易生PLA+的抗摔改良尼龍的極致性能,幫助創(chuàng)客與工程師根據(jù)項(xiàng)目需求精準(zhǔn)匹配材料,輕松攻克打
    的頭像 發(fā)表于 03-13 14:50 ?370次閱讀
    <b class='flag-5'>從</b>PLA<b class='flag-5'>到</b>尼龍:5種常見3D打印材料應(yīng)用與避坑指南

    電芯分選成品檢測:比特半自動(dòng)生產(chǎn)線全流程解析

    電池制造的效率與質(zhì)量成為行業(yè)競爭的加分項(xiàng),深圳比特自動(dòng)化設(shè)備有限公司憑借其半自動(dòng)電池生產(chǎn)線,以“人機(jī)協(xié)作”模式實(shí)現(xiàn)了高效生產(chǎn)與精確控制的平衡。本文將深度解析該產(chǎn)線電芯分選成品檢測
    的頭像 發(fā)表于 12-15 14:59 ?1420次閱讀

    對比分析電能質(zhì)量在線監(jiān)測裝置支持的斷點(diǎn)續(xù)傳文件傳輸協(xié)議的優(yōu)缺點(diǎn)

    優(yōu)缺點(diǎn)對比分析: 一、各協(xié)議優(yōu)缺點(diǎn)逐一拆解 1. FTP(文件傳輸協(xié)議) 優(yōu)點(diǎn) 斷點(diǎn)續(xù)傳機(jī)制成熟 :依托REST命令可精準(zhǔn)定位字節(jié)偏移量,支持大文件分塊續(xù)傳,且內(nèi)置 CRC 校驗(yàn)保障數(shù)據(jù)完整性,是裝置的基礎(chǔ)標(biāo)配功能,適配性強(qiáng)。 傳輸效率高 :無加密運(yùn)算損耗,傳輸速率
    的頭像 發(fā)表于 12-05 17:49 ?3788次閱讀
    對比分析電能質(zhì)量在線監(jiān)測裝置支持的斷點(diǎn)續(xù)傳文件傳輸協(xié)議的<b class='flag-5'>優(yōu)缺點(diǎn)</b>

    各位大佬給指點(diǎn)一下,感激不盡,前級DI效果器上的插件元件

    我是新人 各位見笑了 各位大佬給看看這是什么原件這個(gè)一個(gè)前級DI效果器上的一個(gè)插試原件兩排插針上面也沒有絲印型號不知道如何測量與購買請各位指點(diǎn)
    發(fā)表于 09-04 20:14

    CPU GPU,渲染技術(shù)如何重塑游戲、影視與設(shè)計(jì)?

    渲染技術(shù)是計(jì)算機(jī)圖形學(xué)的核心內(nèi)容之一,它是將三維場景轉(zhuǎn)換為二維圖像的過程。渲染技術(shù)一直在不斷演進(jìn),最初的CPU渲染后來的GPU渲染,性能和質(zhì)量都有了顯著提升。CPUGPU:技術(shù)
    的頭像 發(fā)表于 09-01 12:16 ?1181次閱讀
    <b class='flag-5'>從</b> CPU <b class='flag-5'>到</b> GPU,渲染技術(shù)如何重塑游戲、影視與設(shè)計(jì)?

    深度學(xué)習(xí)對工業(yè)物聯(lián)網(wǎng)有哪些幫助

    深度學(xué)習(xí)作為人工智能的核心分支,通過模擬人腦神經(jīng)網(wǎng)絡(luò)的層級結(jié)構(gòu),能夠自動(dòng)海量工業(yè)數(shù)據(jù)中提取復(fù)雜特征,為工業(yè)物聯(lián)網(wǎng)(IIoT)提供了數(shù)據(jù)感知
    的頭像 發(fā)表于 08-20 14:56 ?1283次閱讀

    自動(dòng)駕駛中Transformer大模型會取代深度學(xué)習(xí)嗎?

    持續(xù)討論。特別是在自動(dòng)駕駛領(lǐng)域,部分廠商開始嘗試將多模態(tài)大模型(MLLM)引入感知、規(guī)劃與決策系統(tǒng),引發(fā)了“傳統(tǒng)深度學(xué)習(xí)是否已過時(shí)”的激烈爭論。然而,技術(shù)原理、算力成本、安全需求與
    的頭像 發(fā)表于 08-13 09:15 ?4417次閱讀
    自動(dòng)駕駛中Transformer大模型會取代<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>嗎?

    AI+能源數(shù)字化破局者故事5:謝 x IBM 咨詢之 “全球化經(jīng)營與本地化適配”

    謝與 IBM 的合作建立在技術(shù)專長、交付能力及本地化支持的基礎(chǔ)上,IBM 的強(qiáng)大技術(shù)實(shí)力和本地經(jīng)驗(yàn),使其成為謝推動(dòng)數(shù)字化轉(zhuǎn)型的重要合作伙伴
    的頭像 發(fā)表于 07-17 19:02 ?1640次閱讀

    超級電容對比鋰電池的優(yōu)缺點(diǎn)

    本文探討了超級電容和鋰電池在儲能領(lǐng)域的優(yōu)缺點(diǎn)。超級電容以高能量密度著稱,但充電速度較慢;鋰電池則具有快充和壽命長的優(yōu)勢,但成本較高。在新能源汽車和電網(wǎng)調(diào)頻等高頻次應(yīng)用中,兩者可以互補(bǔ)。
    的頭像 發(fā)表于 06-30 09:37 ?3159次閱讀
    超級電容對比鋰電池的<b class='flag-5'>優(yōu)缺點(diǎn)</b>

    思必馳與上海交大聯(lián)合實(shí)驗(yàn)室兩篇論文入選ICML 2025

    會議。會議涵蓋了機(jī)器學(xué)習(xí)的各個(gè)前沿方向,包括但不限于深度學(xué)習(xí)、強(qiáng)化學(xué)習(xí)、自然語言處理、計(jì)算機(jī)視覺、
    的頭像 發(fā)表于 06-16 09:23 ?1650次閱讀
    思必馳與上海交大聯(lián)合實(shí)驗(yàn)室兩篇論文入選ICML 2025

    商業(yè)云手機(jī)核心優(yōu)缺點(diǎn)分析

    商業(yè)云手機(jī)核心優(yōu)缺點(diǎn)分析,綜合技術(shù)性能、成本效率及場景適配性等多維度對比: 核心優(yōu)勢? 成本革命? 硬件零投入?:免除實(shí)體手機(jī)采購(旗艦機(jī)均價(jià)6000元),企業(yè)百臺規(guī)??墒?0萬+ CAPEX
    的頭像 發(fā)表于 06-16 08:11 ?1254次閱讀
    商業(yè)云手機(jī)核心<b class='flag-5'>優(yōu)缺點(diǎn)</b>分析
    津南区| 麻栗坡县| 吉林省| 甘德县| 茶陵县| 诸暨市| 永城市| 金昌市| 滦平县| 安福县| 彰武县| 茶陵县| 威海市| 崇阳县| 台中市| 广丰县| 全南县| 沾益县| 托里县| 思南县| 海兴县| 师宗县| 兰州市| 上高县| 惠安县| 贞丰县| 盐津县| 苏尼特右旗| 郓城县| 江陵县| 那曲县| 曲阜市| 荣昌县| 台北市| 林西县| 成都市| 日照市| 揭东县| 甘孜| 腾冲县| 望都县|