日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

YOLOv8 來啦!一文帶你解讀 YOLO"內(nèi)卷"期的模型選型以及在 NGC 飛槳容器中快速體驗!

NVIDIA英偉達 ? 來源:未知 ? 2023-02-18 01:50 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本次為大家?guī)?YOLOv8、PP-YOLOE+等 YOLO 全系列體驗。歡迎廣大開發(fā)者使用 NVIDIA 與飛槳聯(lián)合深度適配的 NGC 飛槳容器,在 NVIDIA GPU 上體驗 PaddleDetection v2.5 的新特性。

PaddleDetection 快速體驗 YOLO 全系列模型

回顧整個虎年,堪稱 YOLO 內(nèi)卷元年,各路 YOLO 系列神仙打架,各顯神通。一開始大部分用戶做項目做實驗還是使用的 YOLOv5,然后 YOLOv6、YOLOv7、PP-YOLOE+、DAMO-YOLO、RTMDet 就接踵而至,于是就在自己的數(shù)據(jù)集逐一嘗試,好不容易把這些下餃子式的 YOLO 模型訓(xùn)練完測試完,忙完工作準(zhǔn)備回家過年時,YOLOv8 又閃電發(fā)布,YOLOv6 又更新了 3.0 版本...用戶還得跟進繼續(xù)訓(xùn)練測試,其實很多時候就是重復(fù)工作。此外換模型訓(xùn)練調(diào)參也會引入更多的不確定性,而且往往業(yè)務(wù)數(shù)據(jù)集大則幾十萬張圖片,重訓(xùn)成本很高,但訓(xùn)完了新的精度不一定更高,速度指標(biāo)在特定機器環(huán)境上也未必可觀,參數(shù)量、計算量的變化尤其在邊緣設(shè)備上也不能忽視。所以在這樣的內(nèi)卷期,作為開發(fā)者我們應(yīng)該怎么選擇一個適合自己的模型呢?

41ebb9c2-aeea-11ed-bfe3-dac502259ad0.png

為了方便統(tǒng)一 YOLO 系列模型的開發(fā)測試基準(zhǔn),以及模型選型,百度飛槳推出了 PaddleYOLO 開源模型庫,支持 YOLO 系列模型一鍵快速切換,并提供對應(yīng) ONNX 模型文件,充分滿足各類部署需求。此外 YOLOv5、YOLOv6、YOLOv7 和 YOLOv8 在評估和部署過程中使用了不同的后處理配置,因而可能造成評估結(jié)果虛高,而這些模型在 PaddleYOLO 中實現(xiàn)了統(tǒng)一,保證實際部署效果和模型評估指標(biāo)的一致性,并對這幾類模型的代碼進行了重構(gòu),統(tǒng)一了代碼風(fēng)格,提高了代碼易讀性。下面的講解內(nèi)容也將圍繞 PaddleYOLO 相關(guān)測試數(shù)據(jù)進行分析。

完整教程文檔及模型下載鏈接

https://github.com/PaddlePaddle/PaddleDetection/blob/release/2.5/docs/feature_models/PaddleYOLO_MODEL.md

YOLO 系列多硬件部署示例下載鏈接

https://github.com/PaddlePaddle/FastDeploy/blob/develop/examples/vision/detection/paddledetection

總體來說,選擇合適的模型,要明確自己項目的要求和標(biāo)準(zhǔn),精度和速度一般是最重要的兩個指標(biāo),但還有模型參數(shù)量、FLOPs 計算量等也需要考慮。接下來就具體講一講這幾個關(guān)鍵點。

42216536-aeea-11ed-bfe3-dac502259ad0.jpg424e6a4a-aeea-11ed-bfe3-dac502259ad0.jpg

STEP1. 看精度

首先是精度,從上圖 YOLO 系列 Benchmark 圖可以看出,幾乎每個模型的目標(biāo)都是希望自己的模型折線在坐標(biāo)軸上是最高的,這也是各個模型的主要競爭點。各家都會訓(xùn)練業(yè)界權(quán)威的 COCO 數(shù)據(jù)集去刷高精度,但是遷移到實際業(yè)務(wù)數(shù)據(jù)集上時,效果哪個高并不一定,各個模型的泛化能力并不和 COCO 數(shù)據(jù)集上的精度正相關(guān)。COCO 數(shù)據(jù)集精度差距在 1.0 以內(nèi)的模型,其實業(yè)務(wù)數(shù)據(jù)集上差別不會很大,而且實際業(yè)務(wù)項目一般也不會只看 mAP 這一個指標(biāo),也可能需要關(guān)注 AP50、AP75、Recall 等指標(biāo)。

要想在業(yè)務(wù)數(shù)據(jù)集達到較高精度,最重要是一點其實是加載一個較強的預(yù)訓(xùn)練(pre-trained)權(quán)重。COCO 預(yù)訓(xùn)練權(quán)重可以極快收斂,精度也會遠高于用 ImageNet 預(yù)訓(xùn)練權(quán)重訓(xùn)的。一個較強的預(yù)訓(xùn)練在下游任務(wù)中的效果會優(yōu)于絕大多數(shù)的調(diào)參和算法優(yōu)化。在 2022 年 9 月份,飛槳官方將 PP-YOLOE 模型升級為 PP-YOLOE+,最重要的一點就是提供了 Objects365 大規(guī)模數(shù)據(jù)集的預(yù)訓(xùn)練權(quán)重,Objects365 數(shù)據(jù)集含有的數(shù)據(jù)量可達百萬級,在大數(shù)據(jù)量下的訓(xùn)練可以使模型獲得更強大的特征提取能力、更好的泛化能力,在下游任務(wù)上的訓(xùn)練可以達到更好的效果?;?Objects365 的 PP-YOLOE+預(yù)訓(xùn)練模型,將學(xué)習(xí)率調(diào)整為原始的十分之一,在 COCO 數(shù)據(jù)集上訓(xùn)練的 epoch 數(shù)從300減少到了只需 80,大大縮短了訓(xùn)練時間的同時,獲得了精度上的顯著提升。實際業(yè)務(wù)場景中,在遇到比 COCO 更大規(guī)模數(shù)據(jù)集的情況下,傳統(tǒng)的基于 COCO 預(yù)訓(xùn)練的模型就顯得杯水車薪了,無論訓(xùn)練 200 epoch還是80 epoch,模型收斂都會非常慢,而使用 Objects365 預(yù)訓(xùn)練模型可以在較少的訓(xùn)練輪次 epoch 數(shù)如只 30 個 epoch,就實現(xiàn)快速收斂并且最終精度更高。

此外還有一些自監(jiān)督或半監(jiān)督策略可以繼續(xù)提升檢測精度,但是對于開發(fā)者來講,時間資源、硬件資源消耗極大,以及目前的開發(fā)體驗還不是很友好,需要持續(xù)優(yōu)化。

STEP2. 看速度

速度不像精度很快就能復(fù)現(xiàn)證明的,鑒于各大 YOLO 模型發(fā)布的測速環(huán)境也不同,還是得統(tǒng)一測試環(huán)境進行實測。上圖是飛槳團隊在飛槳框架對齊各大模型精度的基礎(chǔ)上,統(tǒng)一在 Tesla T4 上開啟 TensorRT 以 FP16 進行的測試。

另外需要注意的是,各大 YOLO 模型發(fā)布的速度只是純模型速度,是去除 NMS(非極大值抑制)的后處理和圖片前處理的,實際應(yīng)用端到端的耗時還是要加上 NMS 后處理和圖片前處理的時間,以及將數(shù)據(jù)從 CPU 拷貝到 GPU/XPU 等加速卡上和將數(shù)據(jù)從加速卡拷貝到 CPU 的時間。通常 NMS 的參數(shù)對速度影響極大,尤其是 score threshold(置信度閾值) 、NMS 的 IoU 閾值、top-k 框數(shù)(參與 NMS 的最多框數(shù))以及 max_dets(每張圖保留的最多框數(shù)) 等參數(shù)。

比如最常用的是調(diào) score threshold,一般為了提高 Recall(召回率)都會設(shè)置成 0.001、0.01 之類的,但其實這種置信度范圍的低分框?qū)嶋H應(yīng)用來說意義不大;如果設(shè)置成 0.1、0.2 則會提前過濾掉眾多的低分框,這樣 NMS 速度和整個端到端部署的速度就會顯著上升,代價是掉一些 mAP,但對于結(jié)果可視化在視覺效果上其實影響很小。

STEP3. 看參數(shù)量、計算量

這方面在學(xué)術(shù)研究場景中一般不會著重考慮,但是在產(chǎn)業(yè)應(yīng)用場景中就非常重要,需要注意設(shè)備的硬件限制。例如堆疊一些模塊結(jié)構(gòu)來改造原模型,增加了 2~3 倍參數(shù)量提高了一點點 mAP,這是 AI 競賽常用的“套路”,精度雖然有少許提升,但速度變慢了很多,參數(shù)量和 FLOPs 也都變大了很多,對于產(chǎn)業(yè)應(yīng)用來說意義不大,又如一些特殊模塊,例如 ConvNeXt,參數(shù)量極大但是 FLOPs 很小,雖然可以提升精度,但也會降低速度,參數(shù)量也可能受設(shè)備容量限制。

在對資源、顯存及其敏感的場景,除了選擇參數(shù)量較小的模型,也需要考慮和壓縮工具聯(lián)合使用。如下圖所示,在 YOLO 系列模型上,使用 PaddleSlim 自動壓縮工具(ACT)壓縮后,可以在盡量保證精度的同時,降低模型大小和顯存占用,并且該能力已經(jīng)在飛槳全場景高性能 AI 部署工具 FastDeploy 中集成,實現(xiàn)一鍵壓縮。

426eebe4-aeea-11ed-bfe3-dac502259ad0.png

FastDeploy 快速部署

基于產(chǎn)業(yè)落地部署需求,全場景高性能 AI 部署工具 FastDeploy 統(tǒng)一了飛槳的推理引擎和生態(tài)推理引擎(包括 Paddle Inference、Paddle Lite、TensorRT、Poros 等多推理后端),并融合高性能 NLP 加速庫 FastTokenizer、CV 高新能加速庫 CV-CUDA,實現(xiàn)了 AI 模型端到端的推理性能優(yōu)化,支持 YOLOv5、YOLOv8、PP-YOLOE+等在內(nèi)的 160 多個產(chǎn)業(yè)級特色模型。支持 NVIDIA Jetson、NVIDIA GPU 等全系列硬件,同時支持高性能服務(wù)化部署,助力企業(yè)用戶快速完成 AI 模型部署。

4297be8e-aeea-11ed-bfe3-dac502259ad0.png

加入 PaddleDetection 技術(shù)交流群,體驗 NVIDIA NGC + PaddleDetection

入群方式:微信掃描下方二維碼,關(guān)注公眾號,填寫問卷后進入微信群隨時進行技術(shù)交流,獲取 PaddleDetection 學(xué)習(xí)大禮包

42cb08e8-aeea-11ed-bfe3-dac502259ad0.jpg

NGC 飛槳容器介紹

如果您希望體驗 PaddleDetection v2.5 的新特性,歡迎使用 NGC 飛槳容器。NVIDIA 與百度飛槳聯(lián)合開發(fā)了 NGC 飛槳容器,將最新版本的飛槳與最新的 NVIDIA 的軟件棧(如 CUDA)進行了無縫的集成與性能優(yōu)化,最大程度的釋放飛槳框架在 NVIDIA 最新硬件上的計算能力。這樣,用戶不僅可以快速開啟 AI 應(yīng)用,專注于創(chuàng)新和應(yīng)用本身,還能夠在 AI 訓(xùn)練和推理任務(wù)上獲得飛槳+NVIDIA 帶來的飛速體驗。

最佳的開發(fā)環(huán)境搭建工具 - 容器技術(shù)

  1. 容器其實是一個開箱即用的服務(wù)器。極大降低了深度學(xué)習(xí)開發(fā)環(huán)境的搭建難度。例如你的開發(fā)環(huán)境中包含其他依賴進程(redis,MySQL,Ngnix,selenium-hub 等等),或者你需要進行跨操作系統(tǒng)級別的遷移

  2. 容器鏡像方便了開發(fā)者的版本化管理

  3. 容器鏡像是一種易于復(fù)現(xiàn)的開發(fā)環(huán)境載體

  4. 容器技術(shù)支持多容器同時運行

42f12744-aeea-11ed-bfe3-dac502259ad0.png

最好的 PaddlePaddle 容器

NGC 飛槳容器針對 NVIDIA GPU 加速進行了優(yōu)化,并包含一組經(jīng)過驗證的庫,可啟用和優(yōu)化 NVIDIA GPU 性能。此容器還可能包含對 PaddlePaddle 源代碼的修改,以最大限度地提高性能和兼容性。此容器還包含用于加速 ETL (DALI, RAPIDS),、訓(xùn)練(cuDNN, NCCL)和推理(TensorRT)工作負載的軟件。

PaddlePaddle 容器具有以下優(yōu)點:

  1. 適配最新版本的 NVIDIA 軟件棧(例如最新版本 CUDA),更多功能,更高性能

  2. 更新的 Ubuntu 操作系統(tǒng),更好的軟件兼容性

  3. 按月更新

  4. 滿足 NVIDIA NGC 開發(fā)及驗證規(guī)范,質(zhì)量管理

通過飛槳官網(wǎng)快速獲取

43132d30-aeea-11ed-bfe3-dac502259ad0.png

環(huán)境準(zhǔn)備

使用 NGC 飛槳容器需要主機系統(tǒng)(Linux)安裝以下內(nèi)容:

  • Docker 引擎

  • NVIDIA GPU 驅(qū)動程序

  • NVIDIA 容器工具包

有關(guān)支持的版本,請參閱 NVIDIA 框架容器支持矩陣NVIDIA 容器工具包文檔。

不需要其他安裝、編譯或依賴管理。無需安裝 NVIDIA CUDA Toolkit。

NGC 飛槳容器正式安裝:

要運行容器,請按照 NVIDIA Containers For Deep Learning Frameworks User’s Guide 中 Running A Container 一章中的說明發(fā)出適當(dāng)?shù)拿?,并指定注冊表、存儲庫?a target="_blank">標(biāo)簽。有關(guān)使用 NGC 的更多信息,請參閱 NGC 容器用戶指南。如果您有 Docker 19.03 或更高版本,啟動容器的典型命令是:

dockerrun--gpusall--shm-size=1g--ulimitmemlock=-1-it--rm
nvcr.io/nvidia/paddlepaddle:22.08-py3

*詳細安裝介紹 《NGC 飛槳容器安裝指南》

https://www.paddlepaddle.org.cn/documentation/docs/zh/install/install_NGC_PaddlePaddle_ch.html

*詳細產(chǎn)品介紹視頻

【飛槳開發(fā)者說|NGC飛槳容器全新上線 NVIDIA產(chǎn)品專家全面解讀】

https://www.bilibili.com/video/BV16B4y1V7ue?share_source=copy_web&vd_source=266ac44430b3656de0c2f4e58b4daf82

飛槳與 NVIDIA NGC 合作介紹

NVIDIA 非常重視中國市場,特別關(guān)注中國的生態(tài)伙伴,而當(dāng)前飛槳擁有超過 470 萬的開發(fā)者。在過去五年里我們緊密合作,深度融合,做了大量適配工作,如下圖所示。

43508b3a-aeea-11ed-bfe3-dac502259ad0.png

今年,我們將飛槳列為 NVIDIA 全球前三的深度學(xué)習(xí)框架合作伙伴。我們在中國已經(jīng)設(shè)立了專門的工程團隊支持,賦能飛槳生態(tài)。

為了讓更多的開發(fā)者能用上基于 NVIDIA 最新的高性能硬件和軟件棧。當(dāng)前,我們正在進行全新一代NVIDIA GPU H100的適配工作,以及提高飛槳對 CUDA Operation API 的使用率,讓飛槳的開發(fā)者擁有優(yōu)秀的用戶體驗及極致性能。

以上的各種適配,僅僅是讓飛槳的開發(fā)者擁有高性能的推理訓(xùn)練成為可能。但是,這些離行業(yè)開發(fā)者還很遠,門檻還很高,難度還很大。

為此,我們將剛剛這些集成和優(yōu)化工作,整合到三大產(chǎn)品線中。其中 NGC 飛槳容器最為閃亮。

NVIDIA NGC Container – 最佳的飛槳開發(fā)環(huán)境,集成最新的 NVIDIA 工具包(例如 CUDA)

43897c7e-aeea-11ed-bfe3-dac502259ad0.png ? ? ? ?

點擊“閱讀原文”掃描下方海報二維碼,即可免費注冊 GTC 23,切莫錯過這場 AI 和元宇宙時代的技術(shù)大會!


原文標(biāo)題:YOLOv8 來啦!一文帶你解讀 YOLO"內(nèi)卷"期的模型選型以及在 NGC 飛槳容器中快速體驗!

文章出處:【微信公眾號:NVIDIA英偉達】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 英偉達
    +關(guān)注

    關(guān)注

    23

    文章

    4119

    瀏覽量

    99676

原文標(biāo)題:YOLOv8 來啦!一文帶你解讀 YOLO"內(nèi)卷"期的模型選型以及在 NGC 飛槳容器中快速體驗!

文章出處:【微信號:NVIDIA_China,微信公眾號:NVIDIA英偉達】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    凌嵌入式RV1126B開發(fā)板試用體驗】+ 5. YOLOv8目標(biāo)識別部署

    和測試https://bbs.elecfans.com/jishu_2512474_1_1.html 6 YOLOv8目標(biāo)識別部署 6.1 模型訓(xùn)練 Windows上使用Anaconda提供訓(xùn)練環(huán)境
    發(fā)表于 03-23 20:19

    BL450實測:YOLOv8產(chǎn)線端能跑多快?

    實時YOLOv8? 不僅要跑模型,還得接傳感器/控制器/執(zhí)行器,IO怎么接? 現(xiàn)場部署多臺設(shè)備,配置麻煩,遠程維護難? 針對這些痛點,我們選用? 鋇錸技術(shù) BL450 AI工業(yè)邊緣計算控制器 ,對 YOLOv8
    的頭像 發(fā)表于 01-23 16:36 ?482次閱讀

    【NPU實戰(zhàn)】迅為RK3588上玩轉(zhuǎn)YOLOv8:目標(biāo)檢測與語義分割站式部署指南

    【NPU實戰(zhàn)】迅為RK3588上玩轉(zhuǎn)YOLOv8:目標(biāo)檢測與語義分割站式部署指南
    的頭像 發(fā)表于 12-12 14:30 ?6446次閱讀
    【NPU實戰(zhàn)】<b class='flag-5'>在</b>迅為RK3588上玩轉(zhuǎn)<b class='flag-5'>YOLOv8</b>:目標(biāo)檢測與語義分割<b class='flag-5'>一</b>站式部署指南

    凌OK-MX9596-C開發(fā)板試用】①開箱圖賞、跑分測試、yolo模型三箭齊發(fā)

    /pip 接下來安裝大名鼎鼎的ultralytics,也就是yolo模型。 pip install ultralytics 安裝ultralytics以及后續(xù)的調(diào)試
    發(fā)表于 10-07 18:53

    使用ROCm?優(yōu)化并部署YOLOv8模型

    作者:AVNET 李鑫杰 ,YOLOv8介紹? YOLOv8 由 Ultralytics 于 2023 年 1 月 10 日發(fā)布,準(zhǔn)確性和速度方面提供了前沿的性能。
    的頭像 發(fā)表于 09-24 18:32 ?1035次閱讀
    使用ROCm?優(yōu)化并部署<b class='flag-5'>YOLOv8</b><b class='flag-5'>模型</b>

    單板挑戰(zhàn)4路YOLOv8!米爾瑞芯微RK3576開發(fā)板性能實測

    運算。使用YOLOv8模型時也是手到擒來,接下來隨著步伐看看它表現(xiàn)如何。YOLO簡介YOLO(You Only Look Once)是當(dāng)前業(yè)界領(lǐng)先的實時目標(biāo)檢測算法系列,以其速度和精度
    發(fā)表于 09-12 17:52

    芯四用”,米爾RK3576如何同時駕馭4路YOLOv8視頻流?

    運算。使用YOLOv8模型時也是手到擒來,接下來隨著步伐看看它表現(xiàn)如何。YOLO簡介YOLO(YouOnlyLookOnce)是當(dāng)前業(yè)界領(lǐng)先的實時目標(biāo)檢測算法系列
    的頭像 發(fā)表于 09-11 08:04 ?5469次閱讀
    “<b class='flag-5'>一</b>芯四用”,米爾RK3576如何同時駕馭4路<b class='flag-5'>YOLOv8</b>視頻流?

    求助,關(guān)于K230部署yolov8時遇到問題求解

    使用yolov8訓(xùn)練出來了個十個類別的模型并且按照要求轉(zhuǎn)換成了.kmodel模型部署到K230時 使用
    發(fā)表于 08-12 07:26

    K230,如何使用AI Demo的object_detect_yolov8n,YOLOV8多目標(biāo)檢測模型?

    K230的AI開發(fā)教程文檔,可以看到有源碼的AI Demo,其中包括yolov8n模型倉庫里可以看到源碼 我想請問各位大佬,如
    發(fā)表于 08-07 06:48

    請問yolov8訓(xùn)練模型如何寫雙線程?

    yolo8訓(xùn)練的模型做送藥小車,看了yolov8的歷程,可以使用,但是不知道輸出時具體用的是什么通道?我看API發(fā)現(xiàn),是用get_frame()獲取幀圖片給AI程序使用,但是返回值
    發(fā)表于 07-30 06:23

    YOLOv8轉(zhuǎn)換到kmodel時出現(xiàn)undefined symbol錯誤怎么解決?

    使用yolo v8訓(xùn)練視覺檢測模型,使用yolov8版本為8.3.159,訓(xùn)練完后windows使用ultralytics
    發(fā)表于 07-28 06:20

    RK3576 Yolov11訓(xùn)練部署教程

    1.Yolo11簡介YOLO11系列是YOLO家族中最先進的(SOTA)、最輕量級、最高效的模型,其表現(xiàn)優(yōu)于其前輩。它由Ultralytics創(chuàng)建,該組織發(fā)布了
    的頭像 發(fā)表于 07-25 15:22 ?1298次閱讀
    RK3576 <b class='flag-5'>Yolov</b>11訓(xùn)練部署教程

    yolov8怎么wsl搭建呢?

    純小白,yolov8怎么wsl搭建呢?直報錯且無法安裝pip包
    發(fā)表于 07-11 07:37

    如何提高yolov8模型k230上運行的幀率?

    libs.YOLO import YOLOv8 import os,sys,gc import ulab.numpy as np import image if name==\"main\"
    發(fā)表于 06-20 06:25

    YOLOv8水果檢測示例代碼換成640輸入圖像出現(xiàn)目標(biāo)框繪制錯誤的原因 ?

    官網(wǎng)YOLOv8 水果檢測關(guān)于圖片推理的示例源代碼: from libs.YOLO import YOLOv8 import os,sys,gc import ulab.numpy
    發(fā)表于 06-18 06:37
    沙河市| 和龙市| 凤阳县| 滦平县| 佛教| 大同县| 华坪县| 天峨县| 巴楚县| 报价| 开平市| 林甸县| 邯郸市| 双牌县| 谢通门县| 上林县| 绍兴市| 常德市| 陈巴尔虎旗| 平定县| 扬州市| 永登县| 子洲县| 敦煌市| 嫩江县| 洪江市| 治县。| 谷城县| 嘉兴市| 海南省| 剑川县| 康乐县| 阿鲁科尔沁旗| 保康县| 奉贤区| 前郭尔| 鱼台县| 泸州市| 新绛县| 富民县| 务川|