日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

關(guān)于深度學(xué)習(xí)被濫用的調(diào)查淺析

新機(jī)器視覺 ? 來(lái)源:InfoQ 中文站 ? 作者:Michael Grogan ? 2021-04-26 14:23 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在某些情況下,神經(jīng)網(wǎng)絡(luò)之類模型的表現(xiàn)可能會(huì)勝過更簡(jiǎn)單的模型,但很多情況下事情并不是這樣的。

打個(gè)比方:假設(shè)你需要購(gòu)買某種交通工具來(lái)跑運(yùn)輸,如果你經(jīng)常需要長(zhǎng)距離運(yùn)輸大型物品,那么, 購(gòu)買卡車是很劃算的投資;但如果你只是要去本地超市買點(diǎn)牛奶,那么買一輛卡車就太浪費(fèi)了。一輛汽車(如果你關(guān)心氣候變化的話,甚至可以買一輛自行車)也足以完成上述任務(wù)。

深度學(xué)習(xí)的使用場(chǎng)景也開始遇到這種問題了:我們假設(shè)它們的性能優(yōu)于簡(jiǎn)單模型,然后把相關(guān)數(shù)據(jù)一股腦兒地塞給它們。此外,我們?cè)趹?yīng)用這些模型時(shí)往往并沒有對(duì)相關(guān)數(shù)據(jù)有適當(dāng)?shù)睦斫?;比如說(shuō)我們沒有意識(shí)到,如果對(duì)數(shù)據(jù)有直觀的了解,就不必進(jìn)行深度學(xué)習(xí)。

任何模型被裝在黑匣子里來(lái)分析數(shù)據(jù)時(shí),總是會(huì)存在危險(xiǎn),深度學(xué)習(xí)家族的模型也不例外。

時(shí)間序列分析我最常用的是時(shí)間序列分析,因此我們來(lái)考慮一個(gè)這方面的例子。

假設(shè)一家酒店希望預(yù)測(cè)其在整個(gè)客戶群中收取的平均每日費(fèi)用(或每天的平均費(fèi)用)——ADR。每位客戶的平均每日費(fèi)用是每周開銷的平均值。

LSTM 模型的配置如下:

model = tf.keras.Sequential()

model.add(LSTM(4, input_shape=(1, lookback)))

model.add(Dense(1))

model.compile(loss=‘mean_squared_error’, optimizer=‘a(chǎn)dam’)

history=model.fit(X_train, Y_train, validation_split=0.2, epochs=100, batch_size=1, verbose=2)

下面是預(yù)測(cè)與實(shí)際的每周 ADR:

2ada365c-a648-11eb-aece-12bb97331649.jpg

獲得的 RMSE 為 31,均值 160。RMSE(均方根誤差)的大小是平均 ADR 大小的 20%。誤差并不算高,但不得不承認(rèn),神經(jīng)網(wǎng)絡(luò)的目的是盡可能獲得比其他模型更高的準(zhǔn)確度,所以這個(gè)結(jié)果還是有些令人失望。

此外,這個(gè) LSTM 模型是一個(gè)一步預(yù)測(cè)——意味著如果沒有可用的時(shí)間 t 之前的所有數(shù)據(jù),該模型就無(wú)法進(jìn)行長(zhǎng)期預(yù)測(cè)。

也就是說(shuō),我們是不是太急著對(duì)數(shù)據(jù)應(yīng)用 LSTM 模型了呢?

我們先回到出發(fā)點(diǎn),首先對(duì)數(shù)據(jù)做一個(gè)全面的分析。

下面是 ADR 波動(dòng)的 7 周移動(dòng)平均值:

2b066ee8-a648-11eb-aece-12bb97331649.jpg

當(dāng)數(shù)據(jù)通過 7 周的移動(dòng)平均值進(jìn)行平滑處理后,我們可以清楚地看到季節(jié)性模式的證據(jù)。

我們來(lái)仔細(xì)看看數(shù)據(jù)的自相關(guān)函數(shù)。

2b3c6f7a-a648-11eb-aece-12bb97331649.jpg

我們可以看到,峰值相關(guān)性(在一系列負(fù)相關(guān)性之后)滯后 52,表明數(shù)據(jù)中存在年度季節(jié)屬性。

有了這一信息后,我們可以使用 pmdarima 配置 ARIMA 模型來(lái)預(yù)測(cè) ADR 波動(dòng)的最后 15 周,并自動(dòng)選擇 p、d、q 坐標(biāo)以最小化赤池量信息準(zhǔn)則。

》》》 Arima_model=pm.auto_arima(train_df, start_p=0, start_q=0, max_p=10, max_q=10, start_P=0, start_Q=0, max_P=10, max_Q=10, m=52, stepwise=True, seasonal=True, information_criterion=‘a(chǎn)ic’, trace=True, d=1, D=1, error_action=‘warn’, suppress_warnings=True, random_state = 20, n_fits=30)Performing stepwise search to minimize aic

ARIMA(0,1,0)(0,1,0)[52] : AIC=422.399, Time=0.27 sec

ARIMA(1,1,0)(1,1,0)[52] : AIC=inf, Time=16.12 sec

ARIMA(0,1,1)(0,1,1)[52] : AIC=inf, Time=19.08 sec

ARIMA(0,1,0)(1,1,0)[52] : AIC=inf, Time=14.55 sec

ARIMA(0,1,0)(0,1,1)[52] : AIC=inf, Time=11.94 sec

ARIMA(0,1,0)(1,1,1)[52] : AIC=inf, Time=16.47 sec

ARIMA(1,1,0)(0,1,0)[52] : AIC=414.708, Time=0.56 sec

ARIMA(1,1,0)(0,1,1)[52] : AIC=inf, Time=15.98 sec

ARIMA(1,1,0)(1,1,1)[52] : AIC=inf, Time=20.41 sec

ARIMA(2,1,0)(0,1,0)[52] : AIC=413.878, Time=1.01 sec

ARIMA(2,1,0)(1,1,0)[52] : AIC=inf, Time=22.19 sec

ARIMA(2,1,0)(0,1,1)[52] : AIC=inf, Time=25.80 sec

ARIMA(2,1,0)(1,1,1)[52] : AIC=inf, Time=28.23 sec

ARIMA(3,1,0)(0,1,0)[52] : AIC=414.514, Time=1.13 sec

ARIMA(2,1,1)(0,1,0)[52] : AIC=415.165, Time=2.18 sec

ARIMA(1,1,1)(0,1,0)[52] : AIC=413.365, Time=1.11 sec

ARIMA(1,1,1)(1,1,0)[52] : AIC=415.351, Time=24.93 sec

ARIMA(1,1,1)(0,1,1)[52] : AIC=inf, Time=21.92 sec

ARIMA(1,1,1)(1,1,1)[52] : AIC=inf, Time=30.36 sec

ARIMA(0,1,1)(0,1,0)[52] : AIC=411.433, Time=0.59 sec

ARIMA(0,1,1)(1,1,0)[52] : AIC=413.422, Time=11.57 sec

ARIMA(0,1,1)(1,1,1)[52] : AIC=inf, Time=23.39 sec

ARIMA(0,1,2)(0,1,0)[52] : AIC=413.343, Time=0.82 sec

ARIMA(1,1,2)(0,1,0)[52] : AIC=415.196, Time=1.63 sec

ARIMA(0,1,1)(0,1,0)[52] intercept : AIC=413.377, Time=1.04 sec

Best model: ARIMA(0,1,1)(0,1,0)[52]

Total fit time: 313.326 seconds

根據(jù)上面的輸出,ARIMA(0,1,1)(0,1,0)[52] 是 AIC 的最佳擬合模型。使用這個(gè)模型,對(duì)于 160 的平均 ADR,可獲得 10 的 RMSE。

這比 LSTM 實(shí)現(xiàn)的 RMSE 要低得多(這是一件好事),僅占均值大小的 6%多。

對(duì)數(shù)據(jù)進(jìn)行適當(dāng)?shù)姆治龊?,人們?huì)認(rèn)識(shí)到,數(shù)據(jù)中存在的年度季節(jié)屬性可以讓時(shí)間序列更具可預(yù)測(cè)性,而使用深度學(xué)習(xí)模型來(lái)嘗試預(yù)測(cè)這種屬性在很大程度上是多余的。

回歸分析:預(yù)測(cè)客戶 ADR 值我們換個(gè)角度來(lái)討論上述問題。

現(xiàn)在我們不再嘗試預(yù)測(cè)平均每周 ADR,而是嘗試預(yù)測(cè)每個(gè)客戶的 ADR 值。

為此我們使用兩個(gè)基于回歸的模型:

線性 SVM(支持向量機(jī))

基于回歸的神經(jīng)網(wǎng)絡(luò)

兩種模型均使用以下特征來(lái)預(yù)測(cè)每個(gè)客戶的 ADR 值:

IsCanceled:客戶是否取消預(yù)訂

country:客戶的原籍國(guó)

marketsegment:客戶的細(xì)分市場(chǎng)

deposittype:客戶是否已支付訂金

customertype:客戶類型

rcps:所需的停車位

arrivaldateweekno:到達(dá)的星期數(shù)

我們使用平均絕對(duì)誤差作為效果指標(biāo),來(lái)對(duì)比兩個(gè)模型相對(duì)于平均值獲得的 MAE。

線性支持向量機(jī)這里定義了 epsilon 為 0.5 的 LinearSVR,并使用訓(xùn)練數(shù)據(jù)進(jìn)行了訓(xùn)練:

svm_reg_05 = LinearSVR(epsilon=0.5)

svm_reg_05.fit(X_train, y_train)

現(xiàn)在使用測(cè)試集中的特征值進(jìn)行預(yù)測(cè):

》》》 svm_reg_05.predict(atest)array([ 81.7431138 , 107.46098525, 107.46098525, 。.., 94.50144931,

94.202052 , 94.50144931])

這是相對(duì)于均值的均值絕對(duì)誤差:

》》》 mean_absolute_error(btest, bpred)

30.332614341027753》》》 np.mean(btest)

105.30446539770578

MAE 是均值大小的 28%。讓我們看看基于回歸的神經(jīng)網(wǎng)絡(luò)是否可以做得更好。

基于回歸的神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)的定義如下:

model = Sequential()

model.add(Dense(8, input_dim=8, kernel_initializer=‘normal’, activation=‘elu’))

model.add(Dense(2670, activation=‘elu’))

model.add(Dense(1, activation=‘linear’))

model.summary()

使用的批大小是 150,用 30 個(gè) epoch 訓(xùn)練模型:

model.compile(loss=‘mse’, optimizer=‘a(chǎn)dam’, metrics=[‘mse’,‘mae’])

history=model.fit(xtrain_scale, ytrain_scale, epochs=30, batch_size=150, verbose=1, validation_split=0.2)

predictions = model.predict(xval_scale)

現(xiàn)在將測(cè)試集的特征輸入到模型中,以下是 MAE 和平均值:

》》》 mean_absolute_error(btest, bpred)

28.908454264679218》》》 np.mean(btest)

105.30446539770578

我們看到,MAE 僅僅比使用 SVM 所獲得的 MAE 低一點(diǎn)。因此,當(dāng)線性 SVM 模型顯示出幾乎相同的準(zhǔn)確度時(shí),很難證明使用神經(jīng)網(wǎng)絡(luò)來(lái)預(yù)測(cè)客戶 ADR 是合適的選項(xiàng)。

無(wú)論如何,用于“解釋”ADR 的特征選擇之類的因素比模型本身有著更大的相關(guān)性。俗話說(shuō),“進(jìn)垃圾,出垃圾”。如果特征選取很爛,模型輸出也會(huì)很差。

在上面這個(gè)例子里,盡管兩個(gè)回歸模型都顯示出一定程度的預(yù)測(cè)能力,但很可能要么 1)選擇數(shù)據(jù)集中的其他特征可以進(jìn)一步提高準(zhǔn)確性,要么 2)ADR 的變量太多,對(duì)數(shù)據(jù)集中特征的影響太大。例如,數(shù)據(jù)集沒有告訴我們關(guān)于每個(gè)客戶收入水平的任何信息,這些因素將極大地影響他們每天的平均支出。

結(jié)論

在上面的兩個(gè)示例中我們已經(jīng)看到,使用“更輕”的模型已經(jīng)能夠匹配(或超過)深度學(xué)習(xí)模型所實(shí)現(xiàn)的準(zhǔn)確性。

在某些情況下,數(shù)據(jù)可能非常復(fù)雜,需要“從頭開始”在數(shù)據(jù)中使用算法學(xué)習(xí)模式,但這往往是例外,而不是規(guī)則。

對(duì)于任何數(shù)據(jù)科學(xué)問題,關(guān)鍵是首先要了解我們正在使用的數(shù)據(jù),模型的選擇往往是次要的。

可以在此處找到上述示例的數(shù)據(jù)集和 Jupyter 筆記本。
編輯:lyn

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:深度學(xué)習(xí)正在被濫用

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    突發(fā)!大疆遭調(diào)查!

    電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)10月31日,意大利反壟斷監(jiān)管機(jī)構(gòu)AGCM對(duì)中國(guó)無(wú)人機(jī)制造商大疆創(chuàng)新的歐洲子公司及其意大利進(jìn)口商展開調(diào)查。此次調(diào)查源于大疆指施壓零售商并操控產(chǎn)品價(jià)格。 AGCM收到
    的頭像 發(fā)表于 11-01 08:17 ?1.3w次閱讀

    深度學(xué)習(xí)為什么還是無(wú)法處理邊緣場(chǎng)景?

    [首發(fā)于智駕最前沿微信公眾號(hào)]雖然自動(dòng)駕駛車輛已經(jīng)完成了數(shù)百萬(wàn)公里的行駛測(cè)試,深度學(xué)習(xí)也已被普遍應(yīng)用,但依然會(huì)在一些看似簡(jiǎn)單的場(chǎng)景中犯下低級(jí)錯(cuò)誤。比如在遇到一些從未見到過的邊緣場(chǎng)景時(shí),系統(tǒng)可能會(huì)
    的頭像 發(fā)表于 05-04 10:16 ?2152次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>為什么還是無(wú)法處理邊緣場(chǎng)景?

    人工智能-Python深度學(xué)習(xí)進(jìn)階與應(yīng)用技術(shù):工程師高培解讀

    深度學(xué)習(xí)的工程化落地,早已不是紙上談兵的事。從卷積神經(jīng)網(wǎng)絡(luò)到Transformer,從目標(biāo)檢測(cè)到大模型私有化部署,技術(shù)棧不斷延伸,工程師面臨的知識(shí)體系也越來(lái)越龐雜?,F(xiàn)根據(jù)中際賽威工程師培訓(xùn)老師的一份
    的頭像 發(fā)表于 04-21 11:01 ?393次閱讀
    人工智能-Python<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>進(jìn)階與應(yīng)用技術(shù):工程師高培解讀

    深度學(xué)習(xí)驅(qū)動(dòng)的超構(gòu)表面設(shè)計(jì)進(jìn)展及其在全息成像中的應(yīng)用

    可實(shí)現(xiàn)高質(zhì)量圖像的獲取?;谏窠?jīng)網(wǎng)絡(luò)深度學(xué)習(xí)方法進(jìn)行超構(gòu)表面設(shè)計(jì)的文章數(shù)量日益增多,但關(guān)于該主題的綜述仍較為匱乏。據(jù)麥姆斯咨詢報(bào)道,近期,中國(guó)計(jì)量大學(xué)田穎教授等人
    的頭像 發(fā)表于 04-09 13:55 ?175次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>驅(qū)動(dòng)的超構(gòu)表面設(shè)計(jì)進(jìn)展及其在全息成像中的應(yīng)用

    機(jī)器學(xué)習(xí)深度學(xué)習(xí)中需避免的 7 個(gè)常見錯(cuò)誤與局限性

    無(wú)論你是剛?cè)腴T還是已經(jīng)從事人工智能模型相關(guān)工作一段時(shí)間,機(jī)器學(xué)習(xí)深度學(xué)習(xí)中都存在一些我們需要時(shí)刻關(guān)注并銘記的常見錯(cuò)誤。如果對(duì)這些錯(cuò)誤置之不理,日后可能會(huì)引發(fā)諸多麻煩!只要我們密切關(guān)注數(shù)據(jù)、模型架構(gòu)
    的頭像 發(fā)表于 01-07 15:37 ?370次閱讀
    機(jī)器<b class='flag-5'>學(xué)習(xí)</b>和<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>中需避免的 7 個(gè)常見錯(cuò)誤與局限性

    穿孔機(jī)頂頭檢測(cè)儀 機(jī)器視覺深度學(xué)習(xí)

    LX01Z-DG626穿孔機(jī)頂頭檢測(cè)儀采用深度學(xué)習(xí)技術(shù),能夠?qū)崿F(xiàn)頂頭狀態(tài)的在線實(shí)時(shí)檢測(cè),頂頭丟失報(bào)警,頂頭異常狀態(tài)報(bào)警等功能,響應(yīng)迅速,異常狀態(tài)視頻回溯,檢測(cè)頂頭溫度,配備吹掃清潔系統(tǒng),維護(hù)周期長(zhǎng)
    發(fā)表于 12-22 14:33

    如何深度學(xué)習(xí)機(jī)器視覺的應(yīng)用場(chǎng)景

    深度學(xué)習(xí)視覺應(yīng)用場(chǎng)景大全 工業(yè)制造領(lǐng)域 復(fù)雜缺陷檢測(cè):處理傳統(tǒng)算法難以描述的非標(biāo)準(zhǔn)化缺陷模式 非標(biāo)產(chǎn)品分類:對(duì)形狀、顏色、紋理多變的產(chǎn)品進(jìn)行智能分類 外觀質(zhì)量評(píng)估:基于學(xué)習(xí)的外觀質(zhì)量標(biāo)準(zhǔn)判定 精密
    的頭像 發(fā)表于 11-27 10:19 ?354次閱讀

    高通立案調(diào)查 高通罰款金額或達(dá)17.9億美元 高通回應(yīng)正積極配合有關(guān)調(diào)查

    據(jù)央視新聞報(bào)道美國(guó)芯片巨頭高通中方立案調(diào)查,原因是高通在收購(gòu)以色列芯片企業(yè)Autotalks時(shí)未依法申報(bào)經(jīng)營(yíng)者集中,這涉嫌違反了《中華人民共和國(guó)反壟斷法》,市場(chǎng)監(jiān)管總局依法對(duì)高通公司開展立案調(diào)查
    的頭像 發(fā)表于 10-11 11:11 ?1087次閱讀

    高通立案調(diào)查 美國(guó)芯片巨頭高通中方立案調(diào)查

    據(jù)央視新聞報(bào)道美國(guó)芯片巨頭高通中方立案調(diào)查,原因是高通在收購(gòu)以色列芯片企業(yè)Autotalks時(shí)未依法申報(bào)經(jīng)營(yíng)者集中,這涉嫌違反了《中華人民共和國(guó)反壟斷法》,市場(chǎng)監(jiān)管總局依法對(duì)高通公司開展立案調(diào)查。
    的頭像 發(fā)表于 10-10 17:49 ?1072次閱讀

    如何在機(jī)器視覺中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    圖 1:基于深度學(xué)習(xí)的目標(biāo)檢測(cè)可定位已訓(xùn)練的目標(biāo)類別,并通過矩形框(邊界框)對(duì)其進(jìn)行標(biāo)識(shí)。 在討論人工智能(AI)或深度學(xué)習(xí)時(shí),經(jīng)常會(huì)出現(xiàn)“神經(jīng)網(wǎng)絡(luò)”、“黑箱”、“標(biāo)注”等術(shù)語(yǔ)。這些概
    的頭像 發(fā)表于 09-10 17:38 ?1079次閱讀
    如何在機(jī)器視覺中部署<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>神經(jīng)網(wǎng)絡(luò)

    深度學(xué)習(xí)對(duì)工業(yè)物聯(lián)網(wǎng)有哪些幫助

    深度學(xué)習(xí)作為人工智能的核心分支,通過模擬人腦神經(jīng)網(wǎng)絡(luò)的層級(jí)結(jié)構(gòu),能夠自動(dòng)從海量工業(yè)數(shù)據(jù)中提取復(fù)雜特征,為工業(yè)物聯(lián)網(wǎng)(IIoT)提供了從數(shù)據(jù)感知到智能決策的全鏈路升級(jí)能力。以下從技術(shù)賦能、場(chǎng)景突破
    的頭像 發(fā)表于 08-20 14:56 ?1253次閱讀

    自動(dòng)駕駛中Transformer大模型會(huì)取代深度學(xué)習(xí)嗎?

    [首發(fā)于智駕最前沿微信公眾號(hào)]近年來(lái),隨著ChatGPT、Claude、文心一言等大語(yǔ)言模型在生成文本、對(duì)話交互等領(lǐng)域的驚艷表現(xiàn),“Transformer架構(gòu)是否正在取代傳統(tǒng)深度學(xué)習(xí)”這一話題一直
    的頭像 發(fā)表于 08-13 09:15 ?4396次閱讀
    自動(dòng)駕駛中Transformer大模型會(huì)取代<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>嗎?

    當(dāng)深度學(xué)習(xí)遇上嵌入式資源困境,特征空間如何破局?

    近年來(lái),隨著人工智能(AI)技術(shù)的迅猛發(fā)展,深度學(xué)習(xí)(Deep Learning)成為最熱門的研究領(lǐng)域之一。在語(yǔ)音識(shí)別、圖像識(shí)別、自然語(yǔ)言處理等領(lǐng)域,深度學(xué)習(xí)取得了顯著成果。從原理上看
    發(fā)表于 07-14 14:50 ?1331次閱讀
    當(dāng)<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>遇上嵌入式資源困境,特征空間如何破局?

    同步電機(jī)失步淺析

    純分享帖,需要者可點(diǎn)擊附件免費(fèi)獲取完整資料~~~*附件:同步電機(jī)失步淺析.pdf【免責(zé)聲明】本文系網(wǎng)絡(luò)轉(zhuǎn)載,版權(quán)歸原作者所有。本文所用視頻、圖片、文字如涉及作品版權(quán)問題,請(qǐng)第一時(shí)間告知,刪除內(nèi)容!
    發(fā)表于 06-20 17:42
    平定县| 昆山市| 襄汾县| 都江堰市| 通山县| 马龙县| 昆明市| 武山县| 沾化县| 蓬溪县| 扶余县| 孝昌县| 平和县| 伊金霍洛旗| 开平市| 安溪县| 西青区| 通州市| 济南市| 永和县| 盘山县| 苍南县| 北辰区| 石景山区| 永新县| 怀宁县| 河源市| 日喀则市| 永胜县| 洪雅县| 内黄县| 东安县| 商都县| 连南| 兴隆县| 将乐县| 华池县| 勃利县| 石柱| 长宁区| 河南省|