日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

用NVIDIA TSPP和Triton推理服務器加速模型推理

星星科技指導員 ? 來源:NVIDIA ? 作者:NVIDIA ? 2022-04-10 17:44 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在這篇文章中,我們詳細介紹了最近發(fā)布的 NVIDIA 時間序列預測平臺( TSPP ),這是一個設計用于輕松比較和實驗預測模型、時間序列數(shù)據(jù)集和其他配置的任意組合的工具。 TSPP 還提供了探索超參數(shù)搜索空間的功能,使用分布式訓練和自動混合精度( AMP )運行加速模型訓練,并在NVIDIA Triton 推理服務器上加速和運行加速模型格式的推理。

事實證明,在理解和管理復雜系統(tǒng)(包括但不限于電網(wǎng)、供應鏈和金融市場)時,使用以前的值準確預測未來的時間序列值至關重要。在這些預測應用中,預測精度的單位百分比提高可能會產生巨大的財務、生態(tài)和社會影響。除了需要精確之外,預測模型還必須能夠在實時時間尺度上運行。

圖 1 :典型滑動窗口時間序列預測問題的描述。每個滑動窗口都由時間序列數(shù)據(jù)組成,這些數(shù)據(jù)分為過去和未來兩部分。

滑動窗口預測問題,如圖 1 所示,涉及使用先前的數(shù)據(jù)和未來值的知識來預測未來的目標值。傳統(tǒng)的統(tǒng)計方法,如 ARIMA 及其變體,或 Holt-Winters 回歸,長期以來一直用于執(zhí)行這些任務的回歸。然而,隨著數(shù)據(jù)量的增加和回歸所要解決的問題變得越來越復雜, 深度學習方法已經(jīng)證明它們能夠有效地表示和理解這些問題。

盡管出現(xiàn)了深度學習預測模型,但從歷史上看,還沒有一種方法可以有效地在任意一組數(shù)據(jù)集中試驗和比較時間序列模型的性能和準確性。為此,我們很高興公開開源 NVIDIA 時間序列預測平臺 。

什么是 TSPP ?

時間序列預測平臺是一個端到端的框架,使用戶能夠訓練、調整和部署時間序列模型。其分層配置系統(tǒng)和豐富的功能規(guī)范 API 允許輕松集成和試驗新模型、數(shù)據(jù)集、優(yōu)化器和指標。 TSPP 設計用于香草 PyTorch 型號,對云或本地平臺不可知。

圖 2 :NVIDIA 時間序列預測平臺的基本架構。 CLI 向 TSPP 啟動器提供輸入,后者實例化訓練所需的對象(模型、數(shù)據(jù)集等),并運行指定的實驗以生成性能和準確性結果。

TSPP 如圖 2 所示,以命令行控制的啟動器為中心。根據(jù)用戶對 CLI 的輸入,啟動器可以實例化 hyperparameter 管理器,該管理器可以并行運行一組訓練實驗,也可以通過創(chuàng)建所描述的組件(如模型、數(shù)據(jù)集、度量等)來運行單個實驗。

支持的模型

TSPP 默認支持 NVIDIA 優(yōu)化時間融合變壓器 ( TFT )。在 TSPP 中, TFT 訓練可以使用多 GPU 訓練、自動混合精度和指數(shù)移動權重平均來加速。可以使用上述推理和部署管道部署模型。

TFT 模型是一種混合架構,將 LSTM 編碼和可解釋 transformer 注意層結合在一起。預測基于三種類型的變量:靜態(tài)(給定時間序列的常數(shù))、已知(整個歷史和未來提前知道)、觀察(僅歷史數(shù)據(jù)已知)。所有這些變量都有兩種類型:分類變量和連續(xù)變量。除了歷史數(shù)據(jù),我們還向模型提供時間序列本身的歷史值。

通過學習嵌入向量,將所有變量嵌入高維空間。范疇變量嵌入是在嵌入離散值的經(jīng)典意義上學習的。該模型為每個連續(xù)變量學習一個向量,然后根據(jù)該變量的值進行縮放,以便進一步處理。下一步是通過變量選擇網(wǎng)絡( VSN )過濾變量,該網(wǎng)絡根據(jù)輸入與預測的相關性為輸入分配權重。靜態(tài)變量用作其他變量的變量選擇上下文,以及 LSTM 編碼器的初始狀態(tài)。

編碼后,變量被傳遞給多頭注意層(解碼器),從而產生最終的預測。整個體系結構與剩余連接交織在一起,門控機制允許體系結構適應各種問題。

圖 3 : TFT 架構圖: Bryan Lim 、 Sercan O.Arik 、 Nicolas Loeff 、 Tomas Pfister ,來自可解釋多地平線時間序列預測的時間融合轉換器, 2019 年。

加速訓練

在使用深度學習模型進行實驗時,訓練加速可以極大地增加在給定時間內可以進行的實驗迭代次數(shù)。時間序列預測平臺提供了通過自動混合精度、多 GPU 訓練和指數(shù)移動權重平均的任意組合來加速訓練的能力。

訓練快速開始

一旦進入 TSPP 容器,運行 TSPP 就很簡單,只需結合數(shù)據(jù)集、模型和其他您想要使用的組件調用啟動器。例如,要使用電力數(shù)據(jù)集訓練 TFT ,我們只需調用:

Python launch_tspp.py dataset=electricity model=tft criterion=quantile

生成的日志、檢查點和初始配置將保存到輸出中。有關包含更復雜工作流的示例,請參考 repository 文檔。

自動混合精度

自動混合精度( AMP )是深度學習培訓的一種執(zhí)行模式,適用的計算以 16 位精度而不是 32 位精度計算。 AMP 執(zhí)行可以極大地加快深度學習訓練,而不會降低準確性。 AMP 包含在 TSPP 中,只需在啟動呼叫中添加一個標志即可啟用。

多 GPU 訓練

多 GPU 數(shù)據(jù)并行訓練通過在所有可用 GPU 上并行運行模型計算來增加全局批量大小,從而加速模型訓練。這種方法可以在不損失模型精度的情況下大大縮短模型訓練時間,尤其是在使用了許多 GPU 的情況下。它通過 PyTorch DistributedDataParallel 包含在 TSPP 中,只需在啟動調用中添加一個元素即可啟用。

指數(shù)移動加權平均

指數(shù)移動加權平均是一種技術,它維護一個模型的兩個副本,一個通過反向傳播進行訓練,另一個模型是第一個模型權重的加權平均。在測試和推理時,平均權重用于計算輸出。實踐證明,這種方法可以縮短收斂時間,提高收斂精度,但代價是模型 GPU 內存需求翻倍。 EMWA 包含在 TSPP 中,只需在啟動調用中添加一個標志即可啟用。

沒有超參數(shù)

模型超參數(shù)調整是深度學習模型的模型開發(fā)和實驗過程中必不可少的一部分。為此, TSPP 包含與 Optuna 超參數(shù)搜索庫的豐富集成。用戶可以通過指定要搜索的超參數(shù)名稱和分布來運行廣泛的超參數(shù)搜索。一旦完成, TSPP 可以并行運行多 GPU 或單 GPU 試驗,直到探索出所需數(shù)量的超參數(shù)選項。

搜索完成時, TSPP 將返回最佳單次運行的超參數(shù),以及所有運行的日志文件。為了便于比較,日志文件是用NVIDIA DLLOGER 生成的,并且易于搜索,并且與張量板繪圖兼容。

可配置性

TSPP 中的可配置性由 Facebook 提供的開源庫 Hydra 驅動。 Hydra 允許用戶使用運行時組合的 YAML 文件定義分層配置系統(tǒng),使啟動運行簡單到聲明“我想用這個數(shù)據(jù)集嘗試這個模型”。

特性規(guī)范

特征規(guī)范包含在配置的數(shù)據(jù)集部分,是時間序列數(shù)據(jù)集的標準描述語言。它對每個表格特征的屬性進行編碼,其中包含關于未來是已知的、觀察到的還是靜態(tài)的、特征是分類的還是連續(xù)的以及更多可選屬性的信息。這種描述語言為模型提供了一個框架,可以根據(jù)任意描述的輸入自動配置自己。

組件集成

向 TSPP 添加一個新的數(shù)據(jù)集非常簡單,只需為其創(chuàng)建一個功能規(guī)范并描述數(shù)據(jù)集本身。一旦定義了特征規(guī)范和其他一些關鍵值,與 TSPP 集成的模型將能夠根據(jù)新的數(shù)據(jù)集進行配置。

將新模型添加到 TSPP 只需要模型期望特性規(guī)范提供的數(shù)據(jù)位于正確的通道中。如果模型正確地解釋了功能規(guī)范,那么模型應該與集成到 TSPP 、過去和未來的所有數(shù)據(jù)集一起工作。

除了模型和數(shù)據(jù)集, TSPP 還支持任意組件的集成,例如標準、優(yōu)化器和目標度量。通過使用 Hydra 使用 config 直接實例化對象,用戶可以集成他們自己的定制組件,并在 TSPP 發(fā)布時使用該規(guī)范。

推理和部署

推理是任何 Machine Learning 管道的關鍵組成部分。為此, TSPP 內置了推理支持,可與平臺無縫集成。除了支持本機推理, TSPP 還支持將轉換后的模型單步部署到 NVIDIA Triton 推理服務器。

NVIDIA Triton 型號導航器

TSPP 為 NVIDIA Triton 型號導航器 。兼容的模型可以輕松轉換為優(yōu)化的格式,包括 TorchScript 、 ONNX 和 NVIDIA TensorRT 。在同一步驟中,這些轉換后的模型將部署到 NVIDIA Triton 推理服務器 。甚至可以選擇在單個步驟中對給定模型進行剖面分析和生成舵圖。例如,給定一個 TFT 輸出文件夾,我們可以通過使用以下命令導出到 ONNX ,將模型轉換并部署為 fp16 中的 NVIDIA TensorRT 格式:

Python launch_deployment.py export=onnx convert=trt config.inference.precision=fp16 config.evaluator.checkpoint=/path/to/output/folder/

TFT 模型

我們在兩個數(shù)據(jù)集上對 TSPP 內的 TFT 進行了基準測試: UCI 數(shù)據(jù)集存儲庫中的電力負荷(電力)數(shù)據(jù)集和 PEMs 流量數(shù)據(jù)集(流量)。 TFT 在兩個數(shù)據(jù)集上都取得了很好的結果,在兩個數(shù)據(jù)集上都實現(xiàn)了最低的可見誤差,并證實了 TFT 論文作者的評估。

表 1 :

訓練表現(xiàn)

圖 4 和圖 5 分別顯示了電力和交通數(shù)據(jù)集上 TFT 的每秒吞吐量。每個批次大小為 1024 ,包含來自同一數(shù)據(jù)集中不同時間序列的各種時間窗口。使用自動混合精度計算了 100 次運行。顯然, TFT 在 A100 GPU 上具有優(yōu)異的性能和可擴展性,尤其是與在 96 核 CPU 上執(zhí)行相比。

圖 4:GPU 上電力數(shù)據(jù)集的 TFT 訓練吞吐量與 CPU 的對比。 GPU : 8x Tesla A100 80 GB 。 CPU:Intel ( R ) Xeon ( R ) Platinum 8168 CPU @ 2.70GHz ( 96 線程)。

圖 5 。 GPU 上流量數(shù)據(jù)集的 TFT 訓練吞吐量與 CPU 。 GPU : 8x Tesla A100 80 GB 。 CPU:Intel ( R ) Xeon ( R ) Platinum 8168 CPU @ 2.70GHz ( 96 線程)。

訓練時間

圖 6 和圖 7 分別顯示了 TFT 在電力和交通數(shù)據(jù)集上的端到端訓練時間。每個批次大小為 1024 ,包含來自同一數(shù)據(jù)集中不同時間序列的各種時間窗口。使用自動混合精度計算 100 次完成的運行。在這些實驗中,在 GPU 上, TFT 的訓練時間為分鐘,而 CPU 的訓練時間約為半天。

圖 6:TFT 在 GPU 上的電力數(shù)據(jù)集上的端到端訓練時間與 CPU 的比較。 GPU : 8x Tesla A100 80 GB 。 CPU:Intel ( R ) Xeon ( R ) Platinum 8168 CPU @ 2.70GHz ( 96 線程)。

圖 7:TFT 在 GPU 上的流量數(shù)據(jù)集上的端到端訓練時間與 CPU 的比較。 GPU : 8x Tesla A100 80 GB 。 CPU:Intel ( R ) Xeon ( R ) Platinum 8168 CPU @ 2.70GHz ( 96 線程)。

推理性能

圖 8 和圖 9 展示了電力數(shù)據(jù)集上不同批量大小的 A100 80GB GPU 與 96 核 CPU 的相對單設備推理吞吐量和平均延遲。由于較大的批量大小通常產生更大的推斷吞吐量,所以我們考慮 1024 元素批處理結果,其中顯而易見的是, A100 GPU 具有令人難以置信的性能,每秒處理大約 50000 個樣本。此外,更大的批量往往會導致更高的延遲,從 CPU 值可以明顯看出,這似乎與批量成正比。相比之下,與 CPU 相比, A100 GPU 具有接近恒定的平均延遲。

圖 8:TFT 在 GPU vs CPU 上部署到 NVIDIA Triton 推理服務器容器 21.12 時的電量數(shù)據(jù)集吞吐量。 GPU :使用 TensorRT 8.2 部署 1x Tesla A100 80 GB 。 CPU :使用 ONNX 部署的雙 AMD Rome 7742 ,總計 128 核@ 2.25 GHz (基本), 3.4 GHz (最大提升)( 256 個線程)。

圖 9:TFT 在 GPU vs CPU 上部署到 NVIDIA Triton 推理服務器容器 21.12 時,電力數(shù)據(jù)集的平均延遲。 GPU :使用 TensorRT 8.2 部署 1x Tesla A100 80 GB 。 CPU :使用 ONNX 部署的雙 AMD Rome 7742 ,總計 128 核@ 2.25 GHz (基本), 3.4 GHz (最大提升)( 256 個線程)。

端到端示例

結合前面的例子,我們演示了 TFT 模型在電力數(shù)據(jù)集上的簡單訓練和部署。我們首先從源代碼構建并啟動 TSPP 容器:

cd DeeplearningExamples/Tools/PyTorch/TimeSeriesPredictionPlatform source scripts/setup.sh docker build -t tspp . docker run -it --gpus all --ipc=host --network=host -v /your/datasets/:/workspace/datasets/ tspp bash

接下來,我們使用電力數(shù)據(jù)集 TFT 和分位數(shù)損耗啟動 TSPP 。我們還讓 10 年的歷次訓練負擔過重。一旦對模型進行了培訓,就會在 outputs /{ date }/{ time }中創(chuàng)建日志、配置文件和經(jīng)過培訓的檢查點,在本例中為 outputs / 01-02-2022 /:

Python launch_tspp.py dataset=electricity model=tft criterion=quantile config.trainer.num_epochs=10

使用檢查點目錄,可以將模型轉換為 NVIDIA TensorRT 格式,并部署到 NVIDIA Triton 推理服務器。

Python launch_deployment.py export=onnx convert=trt config.evaluator.checkpoint=/path/to/checkpoint/folder/

可利用性

NVIDIA 時間序列預測平臺提供從訓練到時間序列模型的推斷的端到端 GPU 加速。平臺中包含的參考示例經(jīng)過優(yōu)化和認證,可在 NVIDIA DGX A100 和 NVIDIA 認證系統(tǒng)上運行。

關于作者

Kyle Kranen 是NVIDIA 的深度學習軟件工程師。他在加利福尼亞大學伯克利分校獲得電氣工程和計算機科學學士學位。在NVIDIA ,他的研究目前集中在推薦系統(tǒng)和時間序列建模上。

Pawel Morkisz 是一位深度學習算法經(jīng)理。他擁有計算數(shù)學博士學位。在NVIDIA ,他專注于推動時間序列和推薦系統(tǒng)的深度學習算法。

Carl (Izzy) Putterman 最近加入 NVIDIA ,擔任深度學習算法工程師。他畢業(yè)于加利福尼亞大學,伯克利在應用數(shù)學和計算機科學學士學位。在 NVIDIA ,他目前致力于時間序列建模和圖形神經(jīng)網(wǎng)絡,重點是推理。

審核編輯:郭婷

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NVIDIA
    +關注

    關注

    14

    文章

    5696

    瀏覽量

    110142
  • 深度學習
    +關注

    關注

    73

    文章

    5610

    瀏覽量

    124656
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    LLM推理模型是如何推理的?

    這篇文章《(How)DoReasoningModelsReason?》對當前大型推理模型(LRM)進行了深刻的剖析,超越了表面的性能宣傳,直指其技術本質和核心局限。以下是基于原文的詳細技術原理、關鍵
    的頭像 發(fā)表于 01-19 15:33 ?732次閱讀
    LLM<b class='flag-5'>推理模型</b>是如何<b class='flag-5'>推理</b>的?

    NVIDIA 推出 Alpamayo 系列開源 AI 模型與工具,加速安全可靠的推理型輔助駕駛汽車開發(fā)

    新聞摘要 : l NVIDIA 率先發(fā)布為應對輔助駕駛長尾場景挑戰(zhàn)而設計的開源視覺-語言-動作推理模型(Reasoning VLA);NVIDIA Alpamayo 系列還包含賦能輔助駕駛汽車開發(fā)
    的頭像 發(fā)表于 01-06 09:40 ?530次閱讀
    <b class='flag-5'>NVIDIA</b> 推出 Alpamayo 系列開源 AI <b class='flag-5'>模型</b>與工具,<b class='flag-5'>加速</b>安全可靠的<b class='flag-5'>推理</b>型輔助駕駛汽車開發(fā)

    如何在NVIDIA Jetson AGX Thor上通過Docker高效部署vLLM推理服務

    繼系統(tǒng)安裝與環(huán)境配置后,本期我們將繼續(xù)帶大家深入 NVIDIA Jetson AGX Thor 的開發(fā)教程之旅,了解如何在 Jetson AGX Thor 上,通過 Docker 高效部署 vLLM 推理服務。
    的頭像 發(fā)表于 11-13 14:08 ?4464次閱讀
    如何在<b class='flag-5'>NVIDIA</b> Jetson AGX Thor上通過Docker高效部署vLLM<b class='flag-5'>推理</b><b class='flag-5'>服務</b>

    NVIDIA TensorRT LLM 1.0推理框架正式上線

    TensorRT LLM 作為 NVIDIA 為大規(guī)模 LLM 推理打造的推理框架,核心目標是突破 NVIDIA 平臺上的推理性能瓶頸。為實
    的頭像 發(fā)表于 10-21 11:04 ?1462次閱讀

    什么是AI模型推理能力

    NVIDIA 的數(shù)據(jù)工廠團隊為 NVIDIA Cosmos Reason 等 AI 模型奠定了基礎,該模型近日在 Hugging Face 的物理
    的頭像 發(fā)表于 09-23 15:19 ?1517次閱讀

    NVIDIA Nemotron Nano 2推理模型發(fā)布

    NVIDIA 正式推出準確、高效的混合 Mamba-Transformer 推理模型系列 NVIDIA Nemotron Nano 2。
    的頭像 發(fā)表于 08-27 12:45 ?2046次閱讀
    <b class='flag-5'>NVIDIA</b> Nemotron Nano 2<b class='flag-5'>推理模型</b>發(fā)布

    NVIDIA從云到邊緣加速OpenAI gpt-oss模型部署,實現(xiàn)150萬TPS推理

    的發(fā)布持續(xù)深化了雙方的 AI 創(chuàng)新合作。NVIDIANVIDIA Blackwell 架構上優(yōu)化了這兩款全新的開放權重模型并實現(xiàn)了推理性能加速
    的頭像 發(fā)表于 08-15 20:34 ?2541次閱讀
    <b class='flag-5'>NVIDIA</b>從云到邊緣<b class='flag-5'>加速</b>OpenAI gpt-oss<b class='flag-5'>模型</b>部署,實現(xiàn)150萬TPS<b class='flag-5'>推理</b>

    利用NVIDIA推理模型構建AI智能體

    開放式推理模型能夠更快、更廣泛地進行思考,為客戶服務、網(wǎng)絡安全、制造、物流和機器人等領域的 AI 智能體生成更明智的結果。
    的頭像 發(fā)表于 08-13 14:32 ?1790次閱讀
    利用<b class='flag-5'>NVIDIA</b><b class='flag-5'>推理模型</b>構建AI智能體

    請問如何在RK3588上使用npu,onnx模型推理

    請問如何在瑞芯微 RK3588上使用npu,onnx模型推理。官網(wǎng)上介紹說要把ONNX模型轉換成RKNN模型。但是我并不想這么干,請問有
    發(fā)表于 08-09 00:51

    積算科技上線赤兔推理引擎服務,創(chuàng)新解鎖FP8大模型算力

    模型輕量化部署方案。用戶通過遠程算力平臺預置的模型鏡像與AI工具,僅需50%的GPU算力即可解鎖大模型推理、企業(yè)知識庫搭建、智能體開發(fā),加速
    的頭像 發(fā)表于 07-30 21:44 ?1079次閱讀

    如何在魔搭社區(qū)使用TensorRT-LLM加速優(yōu)化Qwen3系列模型推理部署

    TensorRT-LLM 作為 NVIDIA 專為 LLM 推理部署加速優(yōu)化的開源庫,可幫助開發(fā)者快速利用最新 LLM 完成應用原型驗證與產品部署。
    的頭像 發(fā)表于 07-04 14:38 ?2472次閱讀

    模型推理顯存和計算量估計方法研究

    GPU、FPGA等硬件加速。通過分析硬件加速器的性能參數(shù),可以估算模型在硬件加速下的計算量。 四、實驗與分析 為了驗證上述估計方法的有效性,我們選取了幾個具有代表性的深度學習
    發(fā)表于 07-03 19:43

    ai服務器是什么?與普通服務器有什么區(qū)別

    AI服務器并非簡單的硬件堆砌,而是專門為人工智能任務設計的高性能計算系統(tǒng)。其核心目標是高效處理海量數(shù)據(jù)并行計算(如矩陣乘法、模型推理),并針對AI工作負載(如深度學習訓練、大模型
    的頭像 發(fā)表于 06-24 16:39 ?5018次閱讀

    使用NVIDIA Triton和TensorRT-LLM部署TTS應用的最佳實踐

    針對基于 Diffusion 和 LLM 類別的 TTS 模型,NVIDIA Triton 和 TensorRT-LLM 方案能顯著提升推理速度。在單張
    的頭像 發(fā)表于 06-12 15:37 ?2107次閱讀
    使用<b class='flag-5'>NVIDIA</b> <b class='flag-5'>Triton</b>和TensorRT-LLM部署TTS應用的最佳實踐

    基于RAKsmart云服務器的AI大模型實時推理方案設計

    面對高并發(fā)請求、嚴格的響應延遲要求及波動的業(yè)務負載,傳統(tǒng)本地化部署的算力瓶頸愈發(fā)顯著。RAKsmart云服務器憑借其彈性計算資源池、分布式網(wǎng)絡架構與全棧AI加速能力,為AI大模型實時推理
    的頭像 發(fā)表于 05-13 10:33 ?731次閱讀
    乌海市| 安顺市| 年辖:市辖区| 甘南县| 屏东县| 沧州市| 中山市| 沅江市| 贵南县| 宜兰县| 仙桃市| 沙田区| 秀山| 上饶市| 施秉县| 东方市| 仁怀市| 三明市| 玉环县| 类乌齐县| 安国市| 阳谷县| 城固县| 抚顺市| 广丰县| 麻城市| 伊宁县| 朔州市| 井冈山市| 云林县| 平原县| 鸡东县| 石景山区| 巧家县| 永丰县| 柘城县| 会泽县| 比如县| 山东省| 桑植县| 岳池县|