日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

物件檢測(cè)的模型訓(xùn)練與優(yōu)化

NVIDIA英偉達(dá)企業(yè)解決方案 ? 來(lái)源:NVIDIA英偉達(dá)企業(yè)解決方案 ? 作者:NVIDIA英偉達(dá)企業(yè)解 ? 2022-04-27 10:26 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

物件檢測(cè) (objectdetection) 或物件定位 (object location) 是目前普及度最高的人工智能應(yīng)用,也是過去幾年中神經(jīng)網(wǎng)絡(luò)發(fā)展最迅猛的領(lǐng)域,短短幾年之中創(chuàng)造出非常多優(yōu)異的經(jīng)典算法,并且各有所長(zhǎng),如今在數(shù)量與質(zhì)量上都還持續(xù)進(jìn)化中,這現(xiàn)象其實(shí)也是造成使用者很大困擾之處,因?yàn)榫烤鼓姆N神經(jīng)網(wǎng)絡(luò)最適合您的使用場(chǎng)景,最終還是得經(jīng)過實(shí)際驗(yàn)證之后才能確認(rèn)。

TAO 工具非常高效地協(xié)助我們解決這個(gè)難題,讓我們?cè)诓涣私飧鞣N神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)與算法、也不熟悉 Tensorflow 或 Pytorch 這些復(fù)雜框架之前,不用撰寫任何 C++Python 代碼,就能非常輕易地訓(xùn)練好深度學(xué)習(xí)模型,并且快速驗(yàn)證不同網(wǎng)絡(luò)模型的性能與效果,這估計(jì)能減少能降低 80% 以上的前期學(xué)習(xí)與評(píng)估的時(shí)間成本。

在 TAO 的 cv_samples 里提供多個(gè)物件檢測(cè)算法,包括 detectnet_v2、dssd、ssd、facenet、fast_rcnn、lprnet、mask_rcnn、retinanet、unet、ssd、yolo_v4等十多個(gè)物件檢測(cè)范例,每一個(gè)流程與本系列前一個(gè) “圖像分類的模型訓(xùn)練” 的范例是一致的,因此這里只挑選目前普及度較高的 ssd 神經(jīng)網(wǎng)絡(luò)進(jìn)行示范就行。

首先進(jìn)入 Jupyter 操作界面,打開 cv_samples/ssd/ssd.ipynb腳本,然后按照以下步驟逐步執(zhí)行:

0. 環(huán)境變量配置與路徑映射(Setup env variables and map drives):

在系列文章 “視覺類訓(xùn)練腳本的環(huán)境配置” 內(nèi)有詳細(xì)的講解,這里只要對(duì)下面兩變量進(jìn)行處理就可以:

  • %env KEY=<您的NGC秘鑰>

  • “%envLOCAL_PROJECT_DIR=YOUR_LOCAL_PROJECT_DIR_PATH”改成“os.environ["LOCAL_PROJECT_DIR"] = os.getcwd()”

然后執(zhí)行這部分的 4 個(gè)指令塊

  1. 安裝 TAO 啟動(dòng)器(Install the TAO launcher):

跳過第一個(gè)安裝指令塊,執(zhí)行“!tao info”指令塊就行。

2. 準(zhǔn)備數(shù)據(jù)集與預(yù)訓(xùn)練模型(Preparedataset and pre-trained model)

數(shù)據(jù)集處理通常是模型訓(xùn)練過程比較消耗人力的步驟。這里推薦不使用腳本里的步驟去下載與解壓縮,因?yàn)檫@里指向的下載位置在國(guó)外網(wǎng)站,這對(duì)大部分使用者是很困擾的,因此最好自行手動(dòng)下載處理。

(1) TAO 的物件檢測(cè)模型訓(xùn)練支持 KITTI 標(biāo)注格式,這里使用的范例數(shù)據(jù)集與系列文章“視覺數(shù)據(jù)格式處理與增強(qiáng)”是同一套,如果前面實(shí)驗(yàn)已將下載的話就復(fù)制一份過來(lái)就行,也可以重新在https://pan.baidu.com/s/1WcRt9ONqsYhLRmL8Rg8_YQ(密碼855n),下載 data_object_image_2.zip 與 data_object_label_2.zip 到 ssd.ipynb 相同目錄下,然后執(zhí)行以下指令進(jìn)行解壓縮:

cd ~/tao/cv_samples/ssd  # 請(qǐng)根據(jù)您實(shí)際路徑unzip -u data_object_image_2.zip -d dataunzip-udata_object_label_2.zip-ddata

會(huì)在這個(gè)工作目錄下生成 data/training/image_2data/training/label_2data/testing三個(gè)子目錄,其中訓(xùn)練用數(shù)據(jù)量為 7481 張圖片、測(cè)試數(shù)據(jù)量為 7518 張。

如果有自己的數(shù)據(jù)集想要轉(zhuǎn)到 TAO 來(lái)進(jìn)行訓(xùn)練,除了先將標(biāo)注格式轉(zhuǎn)成 KITTI 之外,最好也遵循上面的路徑結(jié)構(gòu),這樣就不需修改 spec 目錄下相關(guān)配置文件里面的設(shè)定值,對(duì)初學(xué)者是最便利的方式。

(1) 接著調(diào)用 generate_val_dataset.py,從訓(xùn)練數(shù)據(jù)中提取 10% 內(nèi)容作為校驗(yàn)用途,存放在 data/val 目錄,于是在 data/training 下面的圖像與標(biāo)注文件數(shù)量就剩下 6733 個(gè)。然后執(zhí)行 “2.3Generate tfrecords” 指令塊,將訓(xùn)練與校驗(yàn)數(shù)據(jù)集都轉(zhuǎn)成 tfrecords 格式,分別存放在對(duì)應(yīng)的路徑之下。

(2) 如果要配合遷移學(xué)習(xí)功能的話,接下來(lái)就是從 NGC 下載合適的預(yù)訓(xùn)練模型。這里選擇的是 “nvidia/tao/pretrained_object_detection:resnet18”,最終下載的模型文件為 89MB 大小的 resnet_18.hdf5 模型文件。

只要這個(gè)數(shù)據(jù)集整理步驟做得完整,后面的部分就會(huì)很簡(jiǎn)單。

3. 提供訓(xùn)練用配置文件(Providetraining specification)

在 TAO 所有范例里,配置文件是所有內(nèi)容的精華之處,這必須由專業(yè)算法工程師群進(jìn)行調(diào)試,不僅要這些神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)與算法有足夠深入的了解,還需要經(jīng)過足夠長(zhǎng)的重復(fù)調(diào)試過程,才能調(diào)試出一個(gè)夠完整的優(yōu)化參數(shù)組合,這部分是英偉達(dá)非常龐大精英人力與成本的所提煉出來(lái)的精髓。

物件檢測(cè)應(yīng)用的設(shè)定組,比前面的圖像分類要復(fù)雜很多,雖然初學(xué)者沒有能力去做細(xì)節(jié)參數(shù)的調(diào)整,但還是得了解一下主要結(jié)構(gòu),對(duì)于學(xué)習(xí)深度神經(jīng)網(wǎng)絡(luò)會(huì)有很大的幫助。

在 ssd 項(xiàng)目的 specs 目錄下有 5 個(gè)配置文件,其中與訓(xùn)練相關(guān)的有 4 個(gè),但實(shí)際使用到的就是ssd_train_resnet18_kitti.txt與ssd_retrain_resnet18_kitti.txt這兩個(gè)配置文件。

前者是提供給首次訓(xùn)練模型時(shí)使用,后者是對(duì)修剪過的模型進(jìn)行再訓(xùn)練時(shí)使用,兩者的內(nèi)容幾乎一樣,主要差異在配合遷移學(xué)習(xí)功能的部分,前者使用“pretrain_model_path”指向從NGC下載的預(yù)訓(xùn)練模型,后者使用“pruned_model_path”指向后面會(huì)操作的 “修剪過的模型”,其他參數(shù)都一樣。

現(xiàn)在就以 ssd_train_resnet18_kitti.txt 配置文件來(lái)做說明,里面總共有 6 個(gè)參數(shù)組:

(1) ssd_config:

這是根據(jù)網(wǎng)絡(luò)種類所命名,不同網(wǎng)絡(luò)的配置組內(nèi)容都不太一樣,例如 yolov3 范例的配置組為 “yolov3_config”,以此類推。每種神經(jīng)網(wǎng)絡(luò)都有截然不同的參數(shù)內(nèi)容,在 ssd 網(wǎng)絡(luò)有 12 個(gè)參數(shù)的設(shè)定,而 yolo_v4 網(wǎng)絡(luò)有將近 20 個(gè),所以網(wǎng)絡(luò)之間的配置是不能套用或互換的。如果未來(lái)要開發(fā)自己的特殊模型,最好從現(xiàn)有的 20 范例里面去挑選,就能以該網(wǎng)絡(luò)的配置文件為基礎(chǔ)進(jìn)行修改。

關(guān)于這個(gè)配置組的內(nèi)容就不多時(shí)間去說明,初學(xué)者先不要貿(mào)然去修改,以免訓(xùn)練過程發(fā)生不可預(yù)期的錯(cuò)誤,或者模型效果不好。

(2) training_config:

執(zhí)行訓(xùn)練時(shí)的一些參數(shù)設(shè)定,這是使用者能進(jìn)行調(diào)整的部分,包括以下部分:

  • batch_size_per_gpu:根據(jù)執(zhí)行訓(xùn)練的GPU總顯存進(jìn)行調(diào)整

  • num_epochs:訓(xùn)練回合數(shù),這里設(shè)定為80

  • enable_qat:開啟QAT訓(xùn)練模式,這里預(yù)設(shè)值為 ”false”,表示不開啟

  • checkpoint_interval:每多少回合生成一次模型文件,這里預(yù)設(shè)值為1

  • learning_rate、regularizer 與 optimizer:如果對(duì) ssd 有深入了解的,可以進(jìn)一步調(diào)整。

(3) evaluation_config:

這些存放模型評(píng)估的一些參數(shù),可以根據(jù)計(jì)算設(shè)備的顯存值調(diào)整 batch_size 大小,不過這些并不影響訓(xùn)練的結(jié)果。

(4) nms_config:

NMS (Non-maximumsuppression) 非極大抑制應(yīng)用的目的,是要消除多余的框,找到最佳的物體檢查位置。

(5) augmentation_config:

這部分的參數(shù)內(nèi)容請(qǐng)參考系類文章 “視覺類的數(shù)據(jù)增強(qiáng)”,有詳細(xì)的說明。雖然沒辦法進(jìn)入 TAO 源碼(未開放)去確認(rèn),但這項(xiàng)參數(shù)設(shè)定組應(yīng)該顯示在物件檢測(cè)模型訓(xùn)練過程中,并將“數(shù)據(jù)增強(qiáng)”功能加進(jìn)來(lái),這對(duì)提高模型精準(zhǔn)度會(huì)起到很大的效果。

(6) dataset_config:

這里最主要配置數(shù)據(jù)源的路徑,以及類別 “key:value” 對(duì)的映射關(guān)系;

  • 一組 data_source:

里面包含 tfrecords_path 與 image_directory_path 兩個(gè)路徑設(shè)定;

  • 多組 target_class_mapping:

每一組對(duì)應(yīng)的 “key” 是數(shù)據(jù)集的原始類別名稱,后面映射的 “value” 是訓(xùn)練后模型的識(shí)別分類。

例如這里使用的 KITTI 數(shù)據(jù)集中,原始分類有 “car/ van/cyclist/ person_sitting/ pedestrian/ DontCare/ tram/ truck/ misc” 等 9 種分類,經(jīng)過映射后只保留 “Car/cyclist/ pedestrian” 三個(gè)分類,沒有在映射組里的分類就會(huì)忽略,例如 truck、misc 等。

如果使用自己的數(shù)據(jù)集訓(xùn)練模型,這部分需要自行調(diào)整到合適的類別對(duì)應(yīng),否則訓(xùn)練的結(jié)果也不能實(shí)現(xiàn)您要達(dá)到的識(shí)別效果。

  • 一組 validation_data_sources:

包括 label_directory_path 與 label_directory_path,存放校驗(yàn)數(shù)據(jù)集的圖像與標(biāo)注路徑。

以上 6 組配置在每個(gè)物件檢測(cè)模型的配置文件中都有,但是配置內(nèi)容不盡相同, TAO 已經(jīng)為所支持的網(wǎng)絡(luò)都提供優(yōu)化過的參數(shù)內(nèi)容,初學(xué)者只要直接使用就可以,等日后有更深入的掌握,再試著去修改這些參數(shù)。

原文標(biāo)題:NVIDIA Jetson Nano 2GB 系列文章(61):物件檢測(cè)的模型訓(xùn)練與優(yōu)化

文章出處:【微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

審核編輯:湯梓紅
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4844

    瀏覽量

    108205
  • 檢測(cè)
    +關(guān)注

    關(guān)注

    5

    文章

    4941

    瀏覽量

    94311
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3831

    瀏覽量

    52287

原文標(biāo)題:NVIDIA Jetson Nano 2GB 系列文章(61):物件檢測(cè)的模型訓(xùn)練與優(yōu)化

文章出處:【微信號(hào):NVIDIA-Enterprise,微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    零基礎(chǔ)手寫大模型資料2026

    方式使模型能區(qū)分\"貓追狗\"和\"狗追貓\"的語(yǔ)義差異。 三、訓(xùn)練優(yōu)化:從原始代碼到實(shí)用模型 1. 損失函數(shù)與優(yōu)化器選擇 分類任務(wù)常用交叉
    發(fā)表于 05-01 17:44

    HM博學(xué)谷狂野AI大模型第四期

    ,抽象的數(shù)學(xué)概念將轉(zhuǎn)化為具象的張量流動(dòng)邏輯。開發(fā)者將不再被復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu)圖所迷惑,而是能夠清晰地看到數(shù)據(jù)在模型內(nèi)部的流動(dòng)軌跡,為后續(xù)的模型優(yōu)化與定制打下堅(jiān)實(shí)的算法地基。 二、 訓(xùn)練引擎
    發(fā)表于 05-01 17:30

    Edge Impulse 喚醒詞模型訓(xùn)練 | 技術(shù)集結(jié)

    今天,將手把手帶領(lǐng)學(xué)習(xí)如何訓(xùn)練一個(gè)語(yǔ)音關(guān)鍵詞模型部署到嵌入式硬件上,采用Edgi-Talk平臺(tái)適配EdgeImpulse,當(dāng)然原理在其他的ARM嵌入式平臺(tái)也是通用的。讓我們看看如何讓
    的頭像 發(fā)表于 04-20 10:05 ?1259次閱讀
    Edge Impulse 喚醒詞<b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b> | 技術(shù)集結(jié)

    AI落地培訓(xùn) | 人形檢測(cè)模型嵌入式部署全鏈路實(shí)戰(zhàn)

    流程與部署實(shí)戰(zhàn)”免費(fèi)培訓(xùn)!本次培訓(xùn)以人形檢測(cè)模型部署與優(yōu)化為核心實(shí)戰(zhàn)項(xiàng)目,聚焦視覺AI檢測(cè)在嵌入式平臺(tái)的落地全流程,提供硬件,動(dòng)手實(shí)操,帶你在半天時(shí)間內(nèi)走通從
    的頭像 發(fā)表于 04-10 18:41 ?250次閱讀
    AI落地培訓(xùn) | 人形<b class='flag-5'>檢測(cè)</b><b class='flag-5'>模型</b>嵌入式部署全鏈路實(shí)戰(zhàn)

    AI模型訓(xùn)練與部署實(shí)戰(zhàn) | 線下免費(fèi)培訓(xùn)

    流程與部署實(shí)戰(zhàn)”免費(fèi)培訓(xùn)!以人形檢測(cè)模型部署與優(yōu)化實(shí)戰(zhàn)為基礎(chǔ),聚焦嵌入式AI落地的核心環(huán)節(jié),提供硬件,動(dòng)手實(shí)操,帶你在半天時(shí)間內(nèi),走通從模型訓(xùn)練
    的頭像 發(fā)表于 04-07 13:08 ?696次閱讀
    AI<b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b>與部署實(shí)戰(zhàn) | 線下免費(fèi)培訓(xùn)

    如何訓(xùn)練自己的AI模型——RT-Thread×富瀚微FH8626V300L模型訓(xùn)練部署教程 | 技術(shù)集結(jié)

    面對(duì)消費(fèi)電子中紛繁的智能檢測(cè)需求,如何讓算法持續(xù)進(jìn)化?富瀚微最新發(fā)布的FH86X6V300芯片AI訓(xùn)練教程,以FH8626V300L為硬件核心,手把手帶您走通從模型訓(xùn)練到端側(cè)部署的完整
    的頭像 發(fā)表于 02-09 11:51 ?660次閱讀
    如何<b class='flag-5'>訓(xùn)練</b>自己的AI<b class='flag-5'>模型</b>——RT-Thread×富瀚微FH8626V300L<b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b>部署教程 | 技術(shù)集結(jié)

    訓(xùn)練到推理:大模型算力需求的新拐點(diǎn)已至

    在大模型產(chǎn)業(yè)發(fā)展的早期階段,行業(yè)焦點(diǎn)主要集中在大模型訓(xùn)練所需的算力投入。一個(gè)萬(wàn)億參數(shù)大模型訓(xùn)練可能需要數(shù)千張GPU芯片連續(xù)運(yùn)行數(shù)月,成本高
    的頭像 發(fā)表于 02-05 16:07 ?1057次閱讀
    從<b class='flag-5'>訓(xùn)練</b>到推理:大<b class='flag-5'>模型</b>算力需求的新拐點(diǎn)已至

    RA8P1部署ai模型指南:從訓(xùn)練模型到部署?|?本周六

    在嵌入式邊緣AI中,如何把“訓(xùn)練好的模型”穩(wěn)定地“跑在板子上”,決定了項(xiàng)目能否落地。我們帶你基于RA8P1平臺(tái),跑通從數(shù)據(jù)準(zhǔn)備、模型訓(xùn)練、量化轉(zhuǎn)換,到工程部署的整個(gè)流程,幫助你快速實(shí)現(xiàn)
    的頭像 發(fā)表于 11-20 18:06 ?2449次閱讀
    RA8P1部署ai<b class='flag-5'>模型</b>指南:從<b class='flag-5'>訓(xùn)練</b><b class='flag-5'>模型</b>到部署?|?本周六

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)

    , batch_size=512, epochs=20)總結(jié) 這個(gè)核心算法中的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)和訓(xùn)練過程,是用來(lái)對(duì)MNIST手寫數(shù)字圖像進(jìn)行分類的。模型將圖像作為輸入,通過卷積和池化層提取圖像的特征,然后通過全連接層進(jìn)行分類預(yù)測(cè)。訓(xùn)練
    發(fā)表于 10-22 07:03

    模板驅(qū)動(dòng) 無(wú)需訓(xùn)練數(shù)據(jù) SmartDP解決小樣本AI算法模型開發(fā)難題

    算法作為軟實(shí)力,其水平直接影響著目標(biāo)檢測(cè)識(shí)別的能力。兩年前,慧視光電推出了零基礎(chǔ)的基于yolo系列算法架構(gòu)的AI算法開發(fā)平臺(tái)SpeedDP,此平臺(tái)能夠通過數(shù)據(jù)驅(qū)動(dòng)模型訓(xùn)練,實(shí)現(xiàn)算法從0到1的開發(fā)
    的頭像 發(fā)表于 09-09 17:57 ?1576次閱讀
    模板驅(qū)動(dòng)  無(wú)需<b class='flag-5'>訓(xùn)練</b>數(shù)據(jù)  SmartDP解決小樣本AI算法<b class='flag-5'>模型</b>開發(fā)難題

    ai_cube訓(xùn)練模型最后部署失敗是什么原因?

    ai_cube訓(xùn)練模型最后部署失敗是什么原因?文件保存路徑里也沒有中文 查看AICube/AI_Cube.log,看看報(bào)什么錯(cuò)?
    發(fā)表于 07-30 08:15

    無(wú)法在NPU上推理OpenVINO?優(yōu)化的 TinyLlama 模型怎么解決?

    在 NPU 上推斷 OpenVINO?優(yōu)化的 TinyLlama 模型。 遇到的錯(cuò)誤: get_shape was called on a descriptor::Tensor with dynamic shape
    發(fā)表于 07-11 06:58

    沐曦MXMACA軟件平臺(tái)在大模型訓(xùn)練方面的優(yōu)化效果

    在如今的人工智能浪潮中,大規(guī)模語(yǔ)言模型(上百億乃至千億參數(shù))正迅速改變著我們的工作和生活。然而,訓(xùn)練這些龐大的模型往往面臨“算力不足、顯存不夠用、通信太慢”等諸多挑戰(zhàn)。
    的頭像 發(fā)表于 07-03 14:09 ?2444次閱讀
    沐曦MXMACA軟件平臺(tái)在大<b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b>方面的<b class='flag-5'>優(yōu)化</b>效果

    make sence成的XML文件能上傳到自助訓(xùn)練模型上嗎?

    make sence成的XML文件能上傳到自助訓(xùn)練模型上嗎
    發(fā)表于 06-23 07:38

    請(qǐng)問嘉楠平臺(tái)k230訓(xùn)練的跌倒檢測(cè)模型里面的設(shè)置是怎么樣的?

    我想要了解K230所使用的跌倒檢測(cè)模型中的設(shè)置,例如人體檢測(cè)是如何實(shí)現(xiàn)的,在模型檢測(cè)中,人體的節(jié)點(diǎn)是多少。或者想請(qǐng)教一下相關(guān)的文檔或者內(nèi)容在
    發(fā)表于 06-23 07:05
    怀远县| 寿宁县| 五莲县| 汝南县| 陵水| 景东| 北辰区| 工布江达县| 黔江区| 安阳市| 武陟县| 榆林市| 安宁市| 临颍县| 盐亭县| 墨玉县| 巴马| 迁西县| 长沙县| 泊头市| 柏乡县| 五家渠市| 贵溪市| 无棣县| 府谷县| 堆龙德庆县| 东阿县| 济源市| 汝阳县| 沙湾县| 和顺县| 会宁县| 凤山市| 察雅县| 台中市| 金阳县| 嘉祥县| 通海县| 张家口市| 弋阳县| 新营市|