日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

漲點(diǎn)!FreeMask:用密集標(biāo)注的合成圖像提升分割模型性能

CVer ? 來(lái)源:CVer ? 2023-11-01 16:09 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在這里分享一下我們NeurIPS 2023的工作"FreeMask: Synthetic Images with Dense Annotations Make Stronger Segmentation Models"。在本工作中,我們從語(yǔ)義分割的mask產(chǎn)生大量的合成圖像,并利用這些合成的訓(xùn)練圖像以及他們對(duì)應(yīng)的mask提升在全量真實(shí)數(shù)據(jù)上訓(xùn)練的語(yǔ)義分割模型的性能, e.g., 在ADE20K上,可以將Mask2Former-Swin-T從48.7提升至52.0(+3.3 mIoU)。

583392b0-7882-11ee-939d-92fbcf53809c.png

代碼:github.com/LiheYoung/FreeMask 論文:https://arxiv.org/abs/2310.15160

在上面的repo中我們也提供了處理過(guò)后的ADE20K-Synthetic數(shù)據(jù)集(包含ADE20K的20倍的訓(xùn)練圖像)和COCO-Synthetic數(shù)據(jù)集(包含COCO-Stuff-164K的6倍的訓(xùn)練圖像),以及結(jié)合合成數(shù)據(jù)訓(xùn)練后更好的Mask2Former、SegFormer、Segmenter模型的checkpoints。

TL;DR

不同于以往的一些工作利用合成數(shù)據(jù)提升few-shot performance(只用少量的真實(shí)數(shù)據(jù)),我們希望利用合成數(shù)據(jù)直接提升fully-supervised performance(用全量的真實(shí)數(shù)據(jù)),這更有挑戰(zhàn)性。

我們利用semantic image synthesis模型來(lái)從semantic mask產(chǎn)生diverse的合成圖像。然而,直接將這些合成圖像加入訓(xùn)練,其實(shí)并不能提升real-image baseline,反而會(huì)損害性能。

因此,我們?cè)O(shè)計(jì)了一個(gè)noise filtering策略以及一個(gè)image re-sampling策略來(lái)更有效地學(xué)習(xí)合成數(shù)據(jù),最終在ADE20K(20,210張真實(shí)圖像)和COCO-Stuff(164K張真實(shí)圖像)的各種模型上都能取得提升。此外,我們發(fā)現(xiàn)結(jié)合我們的策略后,只利用合成數(shù)據(jù)也可以取得和真實(shí)數(shù)據(jù)comparable的效果。

Take-home Messages

在全量真實(shí)數(shù)據(jù)的基礎(chǔ)上,有效地利用合成數(shù)據(jù)并不容易,需要生成模型足夠好以及設(shè)計(jì)合適的學(xué)習(xí)合成數(shù)據(jù)策略。

在初始階段我們嘗試了多個(gè)GAN-based從mask生成image的模型 (e.g., OASIS[1]),盡管他們的FID指標(biāo)還不錯(cuò),但遷移到真實(shí)數(shù)據(jù)集上的表現(xiàn)很差(這里的遷移性能,指在合成數(shù)據(jù)集上訓(xùn)練但在真實(shí)驗(yàn)證集上測(cè)試,ADE20K上的mIoU只有~30%)。

基于Stable Diffusion的mask-to-image synthesis model是更好的選擇,如FreestyleNet[2]。

在生成質(zhì)量比較高以及篩選策略比較合理的情況下,joint train合成數(shù)據(jù)和真實(shí)數(shù)據(jù)會(huì)優(yōu)于先用合成數(shù)據(jù)pre-train再用真實(shí)數(shù)據(jù)fine-tune的效果。

Introduction

584a7c50-7882-11ee-939d-92fbcf53809c.png

FreestyleNet基于semantic mask產(chǎn)生的合成圖像,非常diverse以及逼真

Stable Diffusion (SD)等模型已經(jīng)取得了非常好的text-to-image生成效果,過(guò)去一年里,semantic image synthesis領(lǐng)域的工作也開(kāi)始結(jié)合SD的預(yù)訓(xùn)練來(lái)從semantic mask生成對(duì)應(yīng)的image。其中,我們發(fā)現(xiàn)FreestyleNet[2]的生成效果非常好,如上圖所示。因此,我們希望用這些合成圖像以及他們condition on的semantic mask組成新的合成訓(xùn)練樣本對(duì),加入到原有的真實(shí)訓(xùn)練集中,進(jìn)一步提升模型的性能。

簡(jiǎn)單的失敗嘗試

我們首先檢查了這些合成圖像到真實(shí)圖像的遷移性能,即用合成圖像訓(xùn)練但在真實(shí)圖像的驗(yàn)證集上測(cè)試。我們用SegFormer-B4在真實(shí)圖像上訓(xùn)練可以取得48.5的測(cè)試mIoU,然而用比真實(shí)訓(xùn)練集大20倍的合成數(shù)據(jù)訓(xùn)練后,只得到了43.3 mIoU。此外,我們也嘗試混合真實(shí)數(shù)據(jù)和合成數(shù)據(jù)(會(huì)對(duì)真實(shí)數(shù)據(jù)上采樣到和合成數(shù)據(jù)一樣多,因?yàn)槠滟|(zhì)量更高),然而也只取得了48.2 mIoU,依然落后于僅用真實(shí)圖像訓(xùn)練的結(jié)果。

因此,我們希望能更有效地從這些合成數(shù)據(jù)中進(jìn)行學(xué)習(xí)。

Motivation

由于上述合成數(shù)據(jù)的結(jié)果并不好,我們更仔細(xì)地觀察了一下合成數(shù)據(jù)集,發(fā)現(xiàn)其中存在著很多合成錯(cuò)誤的區(qū)域,如下圖所示的紅色框區(qū)域。這些合成錯(cuò)誤的區(qū)域加入到訓(xùn)練集中后會(huì)嚴(yán)重?fù)p害模型的性能。

5859cfe8-7882-11ee-939d-92fbcf53809c.png

紅色框內(nèi)的合成結(jié)果是錯(cuò)誤的

此外,不同的semantic mask對(duì)應(yīng)著不同的場(chǎng)景,不同的場(chǎng)景的學(xué)習(xí)難度其實(shí)是不一樣的,因此它們所需的合成訓(xùn)練圖像的數(shù)量也是不一樣的。如下圖所示,大體上來(lái)看,從左至右semantic mask對(duì)應(yīng)的場(chǎng)景的難度是逐漸增加的,如果對(duì)每張mask產(chǎn)生同樣數(shù)量的合成圖像去學(xué)習(xí)的話,那么這些簡(jiǎn)單的mask對(duì)應(yīng)的圖像就可能會(huì)主導(dǎo)模型的學(xué)習(xí),模型的學(xué)習(xí)效率就會(huì)很低。

586e2e66-7882-11ee-939d-92fbcf53809c.png

不同的semantic mask對(duì)應(yīng)的場(chǎng)景的難度是不一樣的,大體上來(lái)看,從左至右難度逐漸增加

Method

5876431c-7882-11ee-939d-92fbcf53809c.png

有了上述的兩個(gè)motivation,具體的做法是非常簡(jiǎn)單的。

Filtering Noisy Synthetic Regions

針對(duì)第一點(diǎn)motivation,我們?cè)O(shè)計(jì)了一個(gè)noise filtering的策略,來(lái)忽略掉合成錯(cuò)誤的區(qū)域。具體來(lái)說(shuō),我們利用一個(gè)在真實(shí)圖像上訓(xùn)練好的模型去計(jì)算每張合成圖像和它對(duì)應(yīng)的semantic mask之間的pixel-wise loss,直觀來(lái)看,合成錯(cuò)誤的區(qū)域 (pixels)會(huì)呈現(xiàn)比較大的loss。此外,loss的大小也跟不同類(lèi)別本身的難度有關(guān)。

58949b14-7882-11ee-939d-92fbcf53809c.png

Hardness-aware Re-sampling

針對(duì)第二點(diǎn)motivation,我們?cè)O(shè)計(jì)了一個(gè)hardness-aware re-sampling策略,來(lái)讓我們的數(shù)據(jù)合成以及訓(xùn)練更加偏向比較難的場(chǎng)景 (semantic mask),如下圖所示。

58a42390-7882-11ee-939d-92fbcf53809c.png

為harder的semantic mask產(chǎn)生更多的合成圖像,而減少簡(jiǎn)單的mask的合成圖像

58b0980a-7882-11ee-939d-92fbcf53809c.png

Learning Paradigms

我們探討了兩種從合成圖像中進(jìn)行學(xué)習(xí)的范式,分別是:

Pre-training: 用合成圖像pre-training,然后用真實(shí)圖像進(jìn)一步fine-tuning

Joint training: 混合真實(shí)圖像和合成圖像(會(huì)對(duì)真實(shí)圖像上采樣到與合成圖像同樣的數(shù)量)一起訓(xùn)練

簡(jiǎn)單來(lái)說(shuō),我們發(fā)現(xiàn)在生成質(zhì)量比較高以及篩選策略比較合理的情況下,joint training的表現(xiàn)會(huì)更好一些。

Experiment

對(duì)比合成圖像和真實(shí)圖像遷移到真實(shí)測(cè)試集的性能

58c69be6-7882-11ee-939d-92fbcf53809c.png

用真實(shí)圖像或合成圖像進(jìn)行訓(xùn)練,并在真實(shí)驗(yàn)證集上測(cè)試

可以看到,在多種模型上,用合成圖像遷移到真實(shí)驗(yàn)證集都可以取得和真實(shí)訓(xùn)練集comparable的效果。

用合成圖像進(jìn)一步提升全監(jiān)督的分割模型性能

Joint training on ADE20K

58d35926-7882-11ee-939d-92fbcf53809c.png

當(dāng)加入了合成數(shù)據(jù)后,真實(shí)圖像的全監(jiān)督性能獲得了顯著的提升,特別是對(duì)于Mask2Former-Swin-T,我們將mIoU從48.7提升至了52.0(+3.3);對(duì)于SegFormer-B4,從48.5提升至了50.6 (+2.1)。

Joint training on COCO-Stuff-164K

58e92832-7882-11ee-939d-92fbcf53809c.png

COCO-Stuff-164K由于原本的真實(shí)數(shù)據(jù)量很大,所以更難提升,但我們?cè)贛ask2Former-Swi-T上仍然取得了+1.9 mIoU的提升。

Pre-training with synthetic images on ADE20K

58f10cbe-7882-11ee-939d-92fbcf53809c.png

Ablation Studies

我們的noise filtering和hardness-aware re-sampling的必要性

5939d552-7882-11ee-939d-92fbcf53809c.png

在沒(méi)有filtering和re-sampling的情況下,F(xiàn)reestyleNet產(chǎn)生的合成圖像在ADE20K和COCO的真實(shí)集上只能得到43.3和48.0的遷移性能,遠(yuǎn)遠(yuǎn)劣于真實(shí)訓(xùn)練圖像的遷移性能(ADE20K: 48.5和COCO: 50.5),而應(yīng)用我們的策略后,純合成圖像的遷移性能可以提升至48.3 (ADE20K)和49.3 (COCO),十分接近真實(shí)訓(xùn)練圖像的表現(xiàn)。

5948279c-7882-11ee-939d-92fbcf53809c.png

在joint training下,我們的兩項(xiàng)策略也是十分有效的,如果沒(méi)有這兩個(gè)策略,混合合成圖像和真實(shí)圖像只能取得48.2的mIoU (真實(shí)圖像:48.5),而加入我們的策略后,可以將真實(shí)圖像48.5的baseline提升至50.6。

合成圖像的數(shù)量

594f78c6-7882-11ee-939d-92fbcf53809c.png

Nmax 控制單張mask最多產(chǎn)生多少?gòu)埡铣蓤D像,在沒(méi)有filtering和re-sampling的情況下,增加合成圖像的數(shù)量反而帶來(lái)了更差的遷移性能;而在經(jīng)過(guò)filtering和re-sampling后,Nmax從6增加到20可以帶來(lái)穩(wěn)定的遷移性能的提升。

更多的ablation studies請(qǐng)參考我們的文章。

Conclusion

在本工作中,我們通過(guò)從semantic mask產(chǎn)生合成圖像,組成大量的合成訓(xùn)練數(shù)據(jù)對(duì),在ADE20K和COCO-Stuff-164K上顯著提升了多種語(yǔ)義分割模型在全監(jiān)督設(shè)定下的性能。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 數(shù)據(jù)
    +關(guān)注

    關(guān)注

    8

    文章

    7349

    瀏覽量

    95058
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1096

    瀏覽量

    42448
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1240

    瀏覽量

    26264

原文標(biāo)題:NeurIPS 2023 | 漲點(diǎn)!FreeMask:用密集標(biāo)注的合成圖像提升分割模型性能

文章出處:【微信號(hào):CVer,微信公眾號(hào):CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    《多模態(tài)大模型 前沿算法與實(shí)戰(zhàn)應(yīng)用 第一季》精品課程簡(jiǎn)介

    的關(guān)鍵區(qū)域。例如在視覺(jué)問(wèn)答任務(wù)中,模型會(huì)根據(jù)問(wèn)題中的\"顏色\"一詞,重點(diǎn)關(guān)注圖像中物體的顏色特征。 3. 模態(tài)融合:協(xié)同決策的關(guān)鍵 融合策略直接影響模型性能: 早期融合 :在輸入層
    發(fā)表于 05-01 17:46

    全面掌握ComfyUI系統(tǒng)教程|94節(jié)從入門(mén)到進(jìn)階實(shí)戰(zhàn)清單

    算法四個(gè)層面,系統(tǒng)闡述 ComfyUI 實(shí)現(xiàn)高質(zhì)量背景替換與合成的核心邏輯。 首先,ComfyUI 實(shí)現(xiàn)背景替換的技術(shù)基石在于其模塊化的計(jì)算圖架構(gòu)。傳統(tǒng)的圖像處理軟件往往將分割與生成耦合在一起,而
    發(fā)表于 03-29 16:17

    模型時(shí)代自動(dòng)駕駛標(biāo)注有什么特殊要求?

    的端到端架構(gòu)和占用網(wǎng)絡(luò),標(biāo)注工作已經(jīng)從平面的像素點(diǎn)位,跨越到了四維時(shí)空的深度重建。 空間的立體化與時(shí)間的連貫性挑戰(zhàn) 自動(dòng)駕駛標(biāo)注的難點(diǎn)在于從二維圖像向三維向量空間的躍遷。早期的算法
    的頭像 發(fā)表于 03-01 09:09 ?3202次閱讀
    大<b class='flag-5'>模型</b>時(shí)代自動(dòng)駕駛<b class='flag-5'>標(biāo)注</b>有什么特殊要求?

    SAM(通用圖像分割基礎(chǔ)模型)丨基于BM1684X模型部署指南

    前言SAM是Meta提出的一個(gè)分割一切的提示型模型,其在1100萬(wàn)張圖像上訓(xùn)練了超過(guò)10億個(gè)掩碼,實(shí)現(xiàn)了強(qiáng)大的零樣本泛化,突破了分割界限。本例程對(duì)SAM官方開(kāi)源倉(cāng)庫(kù)的
    的頭像 發(fā)表于 01-12 16:17 ?516次閱讀
    SAM(通用<b class='flag-5'>圖像</b><b class='flag-5'>分割</b>基礎(chǔ)<b class='flag-5'>模型</b>)丨基于BM1684X<b class='flag-5'>模型</b>部署指南

    自動(dòng)駕駛數(shù)據(jù)標(biāo)注是所有信息都要標(biāo)注嗎?

    本身只是像素和點(diǎn)云。標(biāo)注的工作就是人為地給這些信號(hào)貼上語(yǔ)義標(biāo)簽,告訴模型這是一輛車(chē)、這是行人、這是車(chē)道線、這個(gè)區(qū)域不能通行之類(lèi)的明確信息。沒(méi)有這些標(biāo)簽,監(jiān)督學(xué)習(xí)、驗(yàn)證和評(píng)估都無(wú)法進(jìn)行,模型
    的頭像 發(fā)表于 12-04 09:05 ?1232次閱讀
    自動(dòng)駕駛數(shù)據(jù)<b class='flag-5'>標(biāo)注</b>是所有信息都要<b class='flag-5'>標(biāo)注</b>嗎?

    算法工程師不愿做標(biāo)注工作,怎么辦?

    對(duì)于算法而言,圖像標(biāo)注是一項(xiàng)關(guān)鍵性工作,越是大量的新數(shù)據(jù)集標(biāo)注,對(duì)于算法的性能提升越有幫助。但是圖像
    的頭像 發(fā)表于 12-02 17:56 ?720次閱讀
    算法工程師不愿做<b class='flag-5'>標(biāo)注</b>工作,怎么辦?

    淺析多模態(tài)標(biāo)注對(duì)大模型應(yīng)用落地的重要性與標(biāo)注實(shí)例

    ”的關(guān)鍵工序——多模態(tài)標(biāo)注重要性日益凸顯。 一、什么是多模態(tài)標(biāo)注? 多模態(tài)標(biāo)注是指對(duì)文本、圖像、語(yǔ)音、視頻、點(diǎn)云等異構(gòu)數(shù)據(jù)進(jìn)行跨模態(tài)語(yǔ)義關(guān)聯(lián)
    的頭像 發(fā)表于 09-05 13:49 ?2835次閱讀

    小語(yǔ)種OCR標(biāo)注效率提升10+倍:PaddleOCR+ERNIE 4.5自動(dòng)標(biāo)注實(shí)戰(zhàn)解析

    摘要 :小語(yǔ)種OCR研發(fā)的核心瓶頸在于高質(zhì)量標(biāo)注數(shù)據(jù)的稀缺與高昂成本。本文介紹一種創(chuàng)新的自動(dòng)化標(biāo)注方案,利用 PaddleOCR 進(jìn)行文本檢測(cè)與裁剪,并調(diào)用 ERNIE 4.5 大模型進(jìn)行雙重預(yù)測(cè)
    的頭像 發(fā)表于 08-29 11:26 ?3892次閱讀
    小語(yǔ)種OCR<b class='flag-5'>標(biāo)注</b>效率<b class='flag-5'>提升</b>10+倍:PaddleOCR+ERNIE 4.5自動(dòng)<b class='flag-5'>標(biāo)注</b>實(shí)戰(zhàn)解析

    衛(wèi)星圖像智能合成系統(tǒng)全面解析

    衛(wèi)星圖像智能合成系統(tǒng)全面解析
    的頭像 發(fā)表于 08-27 14:49 ?723次閱讀
    衛(wèi)星<b class='flag-5'>圖像</b>智能<b class='flag-5'>合成</b>系統(tǒng)全面解析

    自動(dòng)駕駛數(shù)據(jù)標(biāo)注主要是標(biāo)注什么?

    [首發(fā)于智駕最前沿微信公眾號(hào)]在自動(dòng)駕駛系統(tǒng)的研發(fā)過(guò)程中,數(shù)據(jù)標(biāo)注是實(shí)現(xiàn)高性能感知模型的基礎(chǔ)環(huán)節(jié),其核心目標(biāo)是將車(chē)輛從環(huán)境中采集到的原始感知數(shù)據(jù)(主要包括圖像
    的頭像 發(fā)表于 07-30 11:54 ?1687次閱讀
    自動(dòng)駕駛數(shù)據(jù)<b class='flag-5'>標(biāo)注</b>主要是<b class='flag-5'>標(biāo)注</b>什么?

    什么是自動(dòng)駕駛數(shù)據(jù)標(biāo)注?如何好做數(shù)據(jù)標(biāo)注?

    [首發(fā)于智駕最前沿微信公眾號(hào)]在自動(dòng)駕駛系統(tǒng)的開(kāi)發(fā)過(guò)程中,數(shù)據(jù)標(biāo)注是一項(xiàng)至關(guān)重要的工作。它不僅決定了模型訓(xùn)練的質(zhì)量,也直接影響了車(chē)輛感知、決策與控制的性能表現(xiàn)。隨著傳感器種類(lèi)和數(shù)據(jù)量的劇增,有效
    的頭像 發(fā)表于 07-09 09:19 ?1718次閱讀
    什么是自動(dòng)駕駛數(shù)據(jù)<b class='flag-5'>標(biāo)注</b>?如何好做數(shù)據(jù)<b class='flag-5'>標(biāo)注</b>?

    【正點(diǎn)原子STM32MP257開(kāi)發(fā)板試用】基于 DeepLab 模型圖像分割

    【正點(diǎn)原子STM32MP257開(kāi)發(fā)板試用】圖像分割 本文介紹了正點(diǎn)原子 STM32MP257 開(kāi)發(fā)板基于 DeepLab 模型實(shí)現(xiàn)圖像分割
    發(fā)表于 06-21 21:11

    CPU密集型任務(wù)開(kāi)發(fā)指導(dǎo)

    密集型任務(wù)可以提高CPU利用率,提升應(yīng)用程序響應(yīng)速度。 當(dāng)任務(wù)不需要長(zhǎng)時(shí)間(3分鐘)占據(jù)后臺(tái)線程,而是一個(gè)個(gè)獨(dú)立的任務(wù)時(shí),推薦使用TaskPool,反之推薦使用Worker。接下來(lái)將以圖像直方圖處理
    發(fā)表于 06-19 06:05

    數(shù)據(jù)標(biāo)注與大模型的雙向賦能:效率與性能的躍升

    ??在人工智能蓬勃發(fā)展的時(shí)代,大模型憑借其強(qiáng)大的學(xué)習(xí)與泛化能力,已成為眾多領(lǐng)域創(chuàng)新變革的核心驅(qū)動(dòng)力。而數(shù)據(jù)標(biāo)注作為大模型訓(xùn)練的基石,為大模型性能
    的頭像 發(fā)表于 06-04 17:15 ?2271次閱讀
    數(shù)據(jù)<b class='flag-5'>標(biāo)注</b>與大<b class='flag-5'>模型</b>的雙向賦能:效率與<b class='flag-5'>性能</b>的躍升

    AI時(shí)代 圖像標(biāo)注不要沒(méi)苦硬吃

    識(shí)別算法的性能提升依靠大量的圖像標(biāo)注,傳統(tǒng)模式下,需要人工對(duì)同類(lèi)型數(shù)據(jù)集進(jìn)行一步步手動(dòng)拉框,這個(gè)過(guò)程的痛苦只有做過(guò)的人才知道。越多素材的數(shù)據(jù)集對(duì)于算法的
    的頭像 發(fā)表于 05-20 17:54 ?654次閱讀
    AI時(shí)代   <b class='flag-5'>圖像</b><b class='flag-5'>標(biāo)注</b>不要沒(méi)苦硬吃
    于都县| 宾阳县| 府谷县| 林甸县| 徐闻县| 澜沧| 周至县| 嘉黎县| 亳州市| 拜城县| 正宁县| 富蕴县| 南城县| 贵阳市| 鄂温| 台山市| 景洪市| 土默特左旗| 新建县| 神农架林区| 大兴区| 苏尼特右旗| 定西市| 依兰县| 永平县| 贞丰县| 钦州市| 台江县| 北海市| 潮州市| 金华市| 安国市| 永登县| 滦南县| 浦县| 凤山市| 玉溪市| 五寨县| 南城县| 汝城县| 汉源县|