日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

李彥宏說開源模型會越來越落后,為什么很多人不認同?

甲子光年 ? 來源:甲子光年 ? 2024-04-24 09:37 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

上周,百度董事長兼CEO李彥宏對于開源大模型的一番言論引發(fā)了爭議。

李彥宏在Create 2024百度AI開發(fā)者大會上表示:“開源模型會越來越落后?!?/p>

李彥宏的解釋是,百度基礎模型文心4.0可根據不同需求,在效果、響應速度和推理成本等方面靈活剪裁,生成適應各種場景的精簡模型,并支持精調和post pretrain。相較于直接使用開源模型,文心4.0剪裁出的模型在同等尺寸下表現(xiàn)更佳,而在同等效果下成本更低,因此他預測開源模型將會越來越落后。

但很多AI從業(yè)者都不太認同這一結論。比如獵豹移動董事長兼CEO、獵戶星空董事長傅盛很快發(fā)視頻反駁,說“開源社區(qū)將最終戰(zhàn)勝閉源”。

開源模型到底能否超越閉源模型?這個問題從去年開始就備受爭議。

去年5月,外媒曾報道谷歌流出一份文件,主題是“我們沒有護城河,OpenAI也沒有。當我們還在爭吵時,開源已經悄悄地搶了我們的飯碗”。

去年Meta發(fā)布開源大模型Llama 2后,Meta副總裁、人工智能部門負責人楊立昆(Yann LeCun)表示,Llama 2將改變大語言模型的市場格局。

人們對于Llama系列模型所引領的開源社區(qū)備受期待。但直到今天,最新發(fā)布的Llama 3仍然沒有追上最先進的閉源模型GPT-4,盡管兩者的差距已經很小了。

「甲子光年」采訪了多位AI從業(yè)者,一個普遍的反饋是,討論開源好還是閉源好,本身是由立場決定的,也不簡簡單單是一個二元對立的問題。

開源與閉源并非一個技術問題,更多是一個商業(yè)模式的問題。然而,大模型當前的發(fā)展現(xiàn)狀是,不論是開源還是閉源,都還沒有找到切實可行的商業(yè)模式。

所以,未來到底會如何發(fā)展呢?

1.差距沒有拉大,而是在縮小

開源模型與閉源模型到底誰更強?不妨先看一下客觀的數(shù)據排名情況。

大模型領域最權威的榜單是大模型競技場(LLM Arena),采用了國際象棋一直采用了ELO積分體系。它的基本規(guī)則是,讓用戶向兩個匿名模型(例如 ChatGPT、Claude、Llama)提出任何問題,并投票給回答更好的一個。回答更好的模型將獲得積分,最終的排名由累計積分的高低來確定。Arean ELO收集了50萬人的投票數(shù)據。

4bf6c3c4-0175-11ef-a297-92fbcf53809c.png

大模型排行榜,圖片來自LLM Arena截圖

在LLM Arena榜單上,OpenAI的GPT-4長期霸榜第一。Anthropic最新發(fā)布的Claude 3曾短期取代GPT-4取得第一名的桂冠,但OpenAI很快發(fā)布最新版本的GPT-4 Turbo,重新奪回第一的寶座。

LLM Arena排名前十的模型基本上被閉源模型壟。能夠擠進前十名榜單的開源模型只有兩個:一是Meta上周剛剛發(fā)布的LLama 3 70B,排名第五,也是表現(xiàn)最好的開源模型;二是“Transformer八子”之一的Aidan Gomez創(chuàng)立的Cohere近期發(fā)布的Command R+,排名第七。值得一提的是,阿里發(fā)布的開源模型Qwen1.5-72B-Chat,排名第十二,是國內表現(xiàn)最好的開源模型。

從絕對排名上看,閉源模型仍然遙遙領先開源模型。但若從兩者的差距來看,并非李彥宏所說的越來越大,而是越來越小。

4bfda0b8-0175-11ef-a297-92fbcf53809c.png

閉源模型與開源模型的差距,圖片來自X

昆侖萬維董事長兼CEO方漢此前曾對「甲子光年」表示,開源模型與閉源模型的差距已經從落后2年追到僅落后4~6個月了。

什么因素會影響開源和閉源模型的能力差異?

微博新技術研發(fā)負責人張俊林認為,模型能力增長曲線的平滑或陡峭程度比較重要。如果模型能力增長曲線越陡峭(單位時間內,模型各方面能力的增長數(shù)量,越快就類似物體運動的“加速度”越大),則意味著短時間內需要投入越大的計算資源,這種情況下閉源模型相對開源模型是有優(yōu)勢的,主要是資源優(yōu)勢導致的模型效果優(yōu)勢。

反過來,如果模型能力增長曲線越平緩,則意味著開源和閉源模型的差異會越小,追趕速度也越快。這種由模型能力增長曲線陡峭程度決定的開源閉源模型的能力差異,可以稱之為模型能力的“加速度差”。

張俊林認為,往后多看幾年,開源與閉源的能力是縮小還是增大,取決于在“合成數(shù)據”方面的技術進展。如果“合成數(shù)據”技術在未來兩年能獲得突破,則兩者差距是有可能拉大的;如果不能突破,則開源和閉源模型能力會相當。

所以,“合成數(shù)據”是未來兩年大語言模型最關鍵的決定性的技術,很可能沒有之一。

2.開源模型的“真假開源”

人們對于開源模型的期待,很大程度上就在于“開源”兩個字。

開源是軟件行業(yè)蓬勃發(fā)展的決定性力量。正如360集團創(chuàng)始人周鴻祎近期在哈佛大學演講中提到的那樣:“沒有開源就沒有Linux,沒有PHP,沒有MySQL,甚至沒有互聯(lián)網。包括在人工智能的發(fā)展上,如果沒有當初谷歌開源Transformer,就不會有OpenAI和GPT。我們都是受益于開源成長起來的個人和公司?!?

但是,這一次的開源模型可能要讓很多開源信徒失望了。

去年Llama 2發(fā)布后不久,就有批評聲音稱,Meta其實是在“假開源”。

比如,開源友好型風險投資公司RedPoint的董事總經理Erica Brescia表示:“誰能向我解釋一下,如果Llama 2實際上沒有使用OSI(開放源碼計劃)批準的許可證,也不符合OSD(開放源碼定義),Meta公司和微軟公司又如何稱Llama 2為開放源碼?他們是在故意挑戰(zhàn)OSS(開放源碼軟件)的定義嗎?”?

的確,Llama 2并沒有遵循上述協(xié)議,而是自定義了一套“開源規(guī)則”,包括禁止使用Llama 2去訓練其它語言模型,如果該模型用于每月用戶超過7億的應用程序和服務,則需要獲得Meta的特殊許可證。

Llama 2雖然自稱為開源模型,但僅僅開放了模型權重——也就是訓練之后的參數(shù),但訓練數(shù)據、訓練代碼等關鍵信息都未開放。

零一萬物開源負責人林旅強告訴「甲子光年」,現(xiàn)在說的開源模型,對比開源軟件來說,是一種介于閉源與開源的中間狀態(tài),開發(fā)者可以在其基礎上做微調、做RAG,但又無法像開源軟件那樣對模型本身做修改,更無法得到其訓練源數(shù)據。

在“真開源”的開源軟件領域,一個顯著的特點是軟件源代碼共享,開源社區(qū)的開發(fā)者不僅可以反饋Bug,而且可以直接貢獻代碼。 比如,國產開源數(shù)據庫TiDB就分享過一組數(shù)據,在每年更新的40%的代碼中,有40%是由外部貢獻者貢獻的。

但由于大模型的算法黑盒,僅僅開放模型權重的“半開源”,導致了一個結果:用Llama 2的開發(fā)者再多,也不會幫助Meta提升任何Llama 3的能力和Know-how,Meta也無法靠Llama 2獲取任何的數(shù)據飛輪。

Meta想要訓練更強的Llama 3,還是只能靠自己團隊內部的人才、數(shù)據、GPU資源來做,還是需要做實驗(比如Scailing Law)、收集更多的優(yōu)質數(shù)據、建立更大的計算集群。這本質上與OpenAI訓練閉源的GPT-4無異。

正如李彥宏在百度內部信中所言,開源模型并不能像開源軟件那樣做到“眾人拾柴火焰高”。

今天,很多開源模型都注意到了這個問題。比如谷歌在發(fā)布開源模型Gemma的時候,谷歌特意將其命名為“開放模型(Open Model)”而非“開源模型(Open Source Model)”。谷歌表示:開放模型具有模型權重的免費訪問權限,但使用條款、再分發(fā)和變體所有權根據模型的具體使用條款而變化,這些條款可能不基于開源許可證。

昆侖萬維AI Infra負責人成誠在知乎上對于開源模型做了以下分級:

僅模型開源(技術報告只列舉了 Evaluation)。主要利好做應用的公司(繼續(xù)訓練和微調)和普通用戶(直接部署) ?

技術報告開源訓練過程。比較詳盡的描述了模型訓練的關鍵細節(jié)。利好算法研究。

訓練代碼開源/技術報告開源全部細節(jié)。包含了數(shù)據配比的核心關鍵信息。這些信息價值連城,是原本需要耗費很多GPU資源才能得到的Know-how。

全量訓練數(shù)據開源。其他有算力資源的團隊可以基于訓練數(shù)據和代碼完全復現(xiàn)該模型。訓練數(shù)據可以說是大模型團隊最核心的資產。

數(shù)據清洗框架和流程開源。從源頭的原始數(shù)據(比如CC網頁、PDF電子書等)到 可訓練的數(shù)據的清洗過程也開源, 其他團隊不僅可以基于此清洗框架復現(xiàn)數(shù)據預處理過程,還可以通過搜集更多的源(比如基于搜索引擎抓取的全量網頁)來擴展自己的數(shù)據規(guī)模,得到比原始模型更強的基座模型。

他表示,實際上大部分的模型開源諸如LLama2、Mistral、Qwen等,只做到Level-1, 像DeepSeek可以做到Level-2。 而Level-4及以上的開源一個都沒有。至今沒有一家公司開源自己的全部訓練數(shù)據和數(shù)據清洗代碼,以至于開源模型無法被第三方完整復現(xiàn)。

這樣做的結果是: 掌握著模型進步的核心機密(數(shù)據、配比)被大模型公司牢牢掌握在自己手里,除了大模型公司自己的團隊,沒有任何其他來自開源社區(qū)的力量可以幫助其提升下一次訓練模型的能力。

因此,這就回到一個關鍵問題:如果開源不能借助外部力量幫助提升模型性能,為什么還要開源?

3.模型開源的意義是什么?

開源還是閉源,本身并不決定模型性能的高低。閉源模型并非因為閉源而領先,開源模型也并非因為開源而落后。甚至恰恰相反,模型是因為領先才選擇閉源,因為不夠領先不得不選擇開源。

因此,如果一家公司做出了性能很強的模型,它就有可能不再開源了。

比如法國的明星創(chuàng)業(yè)公司Mistral,其開源的最強7B模型Mistral-7B和首個開源MoE模型8x7B(MMLU 70)是開源社區(qū)聲量最大的模型之一。 但是,Mistral后續(xù)訓練的Mistral-Medium(MMLU-75)、Mistral-Large(MMLU-81) 均是閉源模型。

目前性能最好的閉源模型與性能最好的開源模型都是由大公司所主導,而大公司里又屬Meta的開源決心最大。如果OpenAI不開源是從商業(yè)回報的角度來考慮,那么Meta選擇開源讓用戶免費試用的目的又是什么呢?

在上一季度的財報會上,扎克伯格對這件事的回應是,Meta開源其AI技術是出于推動技術創(chuàng)新、提升模型質量、建立行業(yè)標準、吸引人才、增加透明度和支持長期戰(zhàn)略的考慮。

具體來說,開源帶來了諸多戰(zhàn)略好處。

首先,開源軟件通常會更安全,更可靠,而且會由于社區(qū)提供的持續(xù)反饋和審查而變得更高效。這點非常重要,因為安全正是AI領域的最關鍵議題之一。

其次,開源軟件會時常成為行業(yè)標準。而當其他企業(yè)基于Meta的技術棧建立標準時,新創(chuàng)新就會更容易融入Meta的產品中。這種微妙的優(yōu)勢,就是巨大的競爭優(yōu)勢。

再次,開源在開發(fā)者中非常受歡迎。因為科技工作者們渴望參與到廣泛采納的開放系統(tǒng)中,這就會讓Meta吸引更多頂尖人才,從而在新興技術領域保持領先地位。同時,由于Meta具有獨特的數(shù)據和產品集成,開源Llama基礎設施并不會削弱Meta的核心競爭力。

Meta是大公司中開源決心最大的公司,也是收益最大的公司。盡管訓練大模型需要耗費幾千億美元,但自從2023年把業(yè)務重心聚焦在開源大模型上以來,Meta的股價已經上漲了大約272%。Meta不僅從開源中收獲了名聲,也收獲了巨大的財務回報。

4c090318-0175-11ef-a297-92fbcf53809c.jpg

Meta股價走勢圖,圖片來自X


Meta最新發(fā)布的Llama 3也是開源模型。除了8B與70B兩個較小參數(shù)的模型,正在訓練中的Llama 3 400B大概率也會是開源模型,而且有望成為第一個超越GPT-4的開源模型。

4.閉源to C,開源to B

不論開源模型還是閉源模型,都需要找到合適的商業(yè)模式。

今天大模型行業(yè)逐漸形成的一個趨勢是,閉源模型更傾向做to C,開源模型更傾向于做to B。

月之暗面創(chuàng)始人楊植麟曾表示,要想做to C領域的Super App,就必須用自研(閉源)模型,因為“只有自研模型才能在用戶體驗上產生差異化”。

楊植麟認為,開源模型本質上是一種to B的獲客工具,或者是在Super App之外的長尾應用,才可能基于開源模型去發(fā)揮數(shù)據的優(yōu)勢或場景的優(yōu)勢。

但開源模型無法構建產品壁壘。比如,在海外有幾百個基于開源擴散模型Stable Diffusion的應用出現(xiàn),但最后其實沒有任何一個跑出來。

其次,無法在開源技術的基礎上通過數(shù)據的虹吸效應讓模型持續(xù)地優(yōu)化,因為開源模型本身是分布式部署,沒有一個集中的地方接收數(shù)據。

相比之下,開源模型更加適合在to B領域落地。

零一萬物開源負責人林旅強告訴「甲子光年」,toB是一單一單直接從客戶身上賺錢,提供的不是產品,而是服務和解決方案,而且是一個定制化的服務。做服務是用開源還是閉源?To B的客戶肯定首選開源模型,因為不僅能省下授權費用,還有更高的定制空間。

開源模型往往被當成一種最便宜的獲得銷售線索的手段。廠商可通過幾十B或以下規(guī)模的開源模型擴大用戶群體,以獲取銷售線索、證明技術實力。如果客戶有更多定制化需求,模型廠商也可以提供更多的服務。

同時,開源與閉源并非一個單選題,很多公司都采用了開源與閉源雙輪驅動的戰(zhàn)略,比如智譜AI、百川智能、零一萬物等等。

王小川就認為,從to B角度,開源閉源其實都需要。未來80%的企業(yè)會用到開源的大模型,因為閉源沒有辦法對產品做更好的適配,或者成本特別高,閉源可以給剩下的20%提供服務。二者不是競爭關系,而是在不同產品中互補的關系。”

不論開源還是閉源,大模型商業(yè)化面臨的根本問題是,如何降低推理成本。只有降低了推理成本,大模型才有可能真正大規(guī)模落地。

今天,開源與閉源陣營分別有自己的支持者。但如果參考iOS與安卓操作系統(tǒng)的發(fā)展軌跡來看,彼此之間的良性競爭大大促進了產品的迭代與用戶體驗的升級。這才是開閉源之爭最終的價值。


審核編輯:劉清
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關注

    關注

    1821

    文章

    50366

    瀏覽量

    267060
  • 李彥宏
    +關注

    關注

    2

    文章

    97

    瀏覽量

    15429
  • GPT
    GPT
    +關注

    關注

    0

    文章

    374

    瀏覽量

    16988
  • 大模型
    +關注

    關注

    2

    文章

    3797

    瀏覽量

    5280

原文標題:李彥宏說開源模型會越來越落后,為什么很多人不認同?|甲子光年

文章出處:【微信號:jazzyear,微信公眾號:甲子光年】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    北京經開區(qū)領導一行到訪開放原子開源基金座談交流

    3月31日,北京經開區(qū)工委副書記、管委會主任王磊一行到訪開放原子開源基金座談交流,雙方圍繞開源生態(tài)建設、產業(yè)協(xié)同發(fā)展等議題深入交流。開放原子開源基金會理事長謝少鋒、經開區(qū)管委會副主任
    的頭像 發(fā)表于 04-03 15:26 ?432次閱讀

    Eclipse基金會到訪開放原子開源基金座談交流

    3月26日,Eclipse基金會生態(tài)系統(tǒng)發(fā)展副總裁Michael Plagge到訪開放原子開源基金,雙方就開源生態(tài)發(fā)展、項目合作等議題進行了交流。開放原子開源基金
    的頭像 發(fā)表于 03-30 11:31 ?515次閱讀

    為什么AI數(shù)據中心越來越依賴電流監(jiān)測?

    隨著人工智能技術的快速發(fā)展,算力需求正在以前所未有的速度增長。從大型語言模型到多模態(tài)AI,再到智能體系統(tǒng),越來越多的應用開始依賴高性能計算平臺。 最近一段時間,圍繞AI智能體(AI Agent
    的頭像 發(fā)表于 03-11 14:07 ?203次閱讀

    為什么原廠越來越需要一套自己的 Studio

    過去幾年,在和 MCU 原廠的合作過程中,一個趨勢越來越明顯: 原廠正在從“只提供芯片”,走向“提供完整使用路徑”。 而 Studio 工具,正好處在這個變化的中心。 一、芯片性能已經不再是主要門檻
    發(fā)表于 02-05 09:37

    為什么原廠越來越需要一套自己的 Studio

    過去幾年,在和 MCU 原廠的合作過程中,一個趨勢越來越明顯: 原廠正在從“只提供芯片”,走向“提供完整使用路徑”。 而 Studio 工具,正好處在這個變化的中心。 一、芯片性能已經不再是主要門檻
    的頭像 發(fā)表于 02-05 09:33 ?261次閱讀
    為什么原廠<b class='flag-5'>越來越</b>需要一套自己的 Studio

    為什么機器人控制器越來越偏愛 RK3588?

    為什么機器人控制器越來越偏愛 RK3588? ——結合鋇錸技術 BL450,看懂下一代機器人主控的底層趨勢** 過去幾年,無論是 AMR/AGV、協(xié)作機器人、SCARA、視覺檢測工作站,還是儲能
    的頭像 發(fā)表于 01-13 17:51 ?516次閱讀

    百度人民日報撰文 內化AI能力,加快形成新質生產力

    小編看到人民日報刊發(fā)了百度公司創(chuàng)始人、董事長兼首席執(zhí)行官的文章,在此分享給大家: “十五五”時期經濟社會發(fā)展的主題是推動高質量發(fā)展。推動高質量發(fā)展,最重要是加快高水平科技自立自強,積極發(fā)展新質
    的頭像 發(fā)表于 11-20 11:28 ?1374次閱讀

    LVGL近期很多人問,那它和Qt哪個好?

    最近拜訪做工業(yè)控制、智能家居的客戶時,常被問到同一個問題:嵌入式產品,GUI選LVGL還是Qt? 其實工具選擇沒有絕對的“好”與“壞”,但選對適配場景的GUI圖形用戶界面工具,能直接讓產品開發(fā)效率翻倍!今天,我們就來梳理一下LVGL和Qt兩者的關鍵差異,幫您做出更明智的選擇。 兩者關鍵差異 下面,我們用一張表來說清LVGL和Qt的關鍵差異點: 簡單來說,Qt是“全能辦公本”,功能全面但占資源;LVGL是“輕薄隨身本”,小巧靈活,??匈Y源緊張的硬
    的頭像 發(fā)表于 09-23 15:54 ?1837次閱讀
    LVGL近期<b class='flag-5'>很多人</b>問,那它和Qt哪個好?

    FPGA技術為什么越來越牛,這是有原因的

    最近幾年,F(xiàn)PGA這個概念越來越多地出現(xiàn)。例如,比特幣挖礦,就有使用基于FPGA的礦機。還有,之前微軟表示,將在數(shù)據中心里,使用FPGA“代替”CPU,等等。其實,對于專業(yè)人士來說,F(xiàn)PGA并不陌生
    的頭像 發(fā)表于 08-22 11:39 ?5271次閱讀
    FPGA技術為什么<b class='flag-5'>越來越</b>牛,這是有原因的

    香港特區(qū)政府會見百度創(chuàng)始人一行

    8月15日,香港特別行政區(qū)行政長官李家超會見百度創(chuàng)始人一行,百度就人工智能技術發(fā)展及無人駕駛技術在香港的應用場景、產業(yè)落地等事宜發(fā)表意見。
    的頭像 發(fā)表于 08-19 17:06 ?1245次閱讀

    PCB為啥現(xiàn)在行業(yè)越來越流行“淺背鉆”了?

    允許過孔的stub長,速率高就需要stub短,當然高速先生在很多場合上也大概把速率和stub長度的關系量化過,還不知道的粉絲可以去問問身邊知道的同事了,哈哈。 由于多一層背鉆,就要多花一層的錢,所以
    發(fā)表于 08-18 16:30

    LED芯片亮,發(fā)熱量越大,還是芯片暗,發(fā)熱量越大?

    LED芯片亮,發(fā)熱量越大,還是芯片暗,發(fā)熱量越大?遇到這個問題,相信很多人都會認為是芯片暗,發(fā)熱量越大,因為更多都能量轉化成了熱能。但是,事實并非如此,LED芯片
    的頭像 發(fā)表于 07-21 16:16 ?1482次閱讀
    LED芯片<b class='flag-5'>越</b>亮,發(fā)熱量越大,還是芯片<b class='flag-5'>越</b>暗,發(fā)熱量越大?

    后摩爾時代:芯片不是越來越涼,而是越來越

    1500W,而在消費領域,旗艦顯卡RTX5090也首次引入了液態(tài)金屬這一更高效但成本更高的熱界面材料(TIM)。為什么芯片越來越熱?它的熱從哪里來?芯片內部每一個晶體管
    的頭像 發(fā)表于 07-12 11:19 ?2469次閱讀
    后摩爾時代:芯片不是<b class='flag-5'>越來越</b>涼,而是<b class='flag-5'>越來越</b>燙

    瑞金醫(yī)院攜手華為開源RuiPath病理模型

    近日,由上海交通大學醫(yī)學院附屬瑞金醫(yī)院(以下簡稱“瑞金醫(yī)院”)主辦、華為技術有限公司協(xié)辦的“瑞金醫(yī)院RuiPath病理模型開源及成果發(fā)布”在上海舉行。瑞金醫(yī)院聯(lián)合華為開源RuiPat
    的頭像 發(fā)表于 07-02 14:57 ?1119次閱讀

    探索在Arm平臺運行的Llama 4 Scout模型

    人工智能 (AI) 正在加速發(fā)展,也越來越智能化。當今的開源大語言模型不僅功能強大,而且在設計時充分考慮了實際部署的需求,因而具有輕量化和經濟高效的特點,可大規(guī)模部署到數(shù)十億臺設備上。簡而言之,對于開發(fā)者可能想到的各種情形,當今
    的頭像 發(fā)表于 05-20 09:54 ?876次閱讀
    车致| 疏附县| 华安县| 嘉祥县| 曲水县| 方山县| 渭南市| 灵台县| 广德县| 伊吾县| 苏尼特右旗| 化州市| 乌拉特中旗| 高台县| 木里| 娄烦县| 镇赉县| 龙岩市| 同仁县| 勐海县| 宜宾市| 府谷县| 元谋县| 古丈县| 安福县| 叙永县| 嘉善县| 宝应县| 出国| 保康县| 肥城市| 和田县| 海门市| 离岛区| 潮州市| 建水县| 万源市| 公安县| 象州县| 小金县| 泗水县|