日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

搭建一個開源ADAS項目的步驟流程

智能汽車電子與軟件 ? 來源:車端 ? 2023-04-14 17:18 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

一、項目范圍

該項目是一個高級駕駛輔助系統(tǒng)的原型,專注于感知算法(目標檢測、車道線分割和交通標志分類)。它提供了3個主要功能:

前方碰撞警告

車道偏離警告

交通標志檢測及超速預警

它還提供了「有限的」虛擬硬件訪問權限,作為邁向商業(yè)產(chǎn)品的一步:

通過 LAN 中的 GPS 源的 GPS 讀取器

一個 CAN 讀取器,用于從虛擬 can 總線讀取車速和轉向信號

但是,可以使用 GPS 模塊或 CAN 轉 USB 電纜收集 GPS 和 CAN 信號。我將提供一些關于如何設置這些設備的說明。

二。硬件設置

30b0433c-daa3-11ed-bfe3-dac502259ad0.png

處理該項目所有輸入的中心組件是中央處理器。這臺計算機接收兩個輸入:(i) 來自相機的圖像,以及 (ii) 汽車底盤數(shù)據(jù),例如汽車速度和轉向信號。中央處理負責處理這些輸入以在需要時發(fā)出警告。在這個項目的范圍內(nèi),由于實驗條件有限,我們實施了一個模擬模塊來提供相機和傳感器讀取器輸入的替代方案」。在商業(yè)產(chǎn)品中,傳感器讀取器模塊可以通過 GPS 模塊和 CAN 總線讀取器(例如 CAN 轉 USB 電纜)來實現(xiàn);可以使用 USB 攝像頭提供攝像頭輸入。

「硬件清單:」

Jetson Nano 開發(fā)者套件

Sandisk Ultra 64GB class-10 SD

Wareshare 5寸液晶觸摸屏

Wareshare 8Ω 5W 喇叭

Jetson Nano 2寸5V散熱風扇

透明外殼。

1.如何獲取汽車傳感器(速度,轉向燈)

使用 GPS 模塊

「出于開發(fā)和教育目的:」

從您的手機共享 GPS:

從 Google Play 商店下載「共享 GPS應用程序。」

設置您的手機局域網(wǎng)地址,src/sensors/car_gps_reader.cpp并使用此應用程序與您的 Jetson Nano 共享 GPS 信息。這樣,我們就可以獲取GPS信號,估計車速。

使用 USB GPS 接收器

「對于商業(yè)產(chǎn)品:」

查看此模塊精度:< 3m。

如何設置CAN總線以讀取車速和轉向信號

「基本信息」

在這個項目中,我們沒有在真車上設置物理 CAN 總線(只是一個使用 socket CAN 的仿真系統(tǒng))。但是,它可以通過使用 CAN 轉 USB 電纜來實現(xiàn)。

CAN總線的一些信息:

一般信息

如何侵入您的車輛?:hacking-can-bus.pdf

開源 CAN 電纜:CANtact。這將支持您將 CAN 總線連接到 linux 套接字,「我的 ADAS 源代碼已經(jīng)支持該套接字」。

硬件設計

固件:

在韓國

您還需要 OBD-II 到 DB9 電纜來連接汽車 OBD-II

一旦 CANtact 設備處理了來自車輛的 CAN 消息,它們就會通過 USB B 型端口輸出。因此,這需要 USB-B 到 USB-A 電纜:https://www.amazon.com/AmazonBasics-USB-2-0-Cable-Male/dp/B00NH11KIK

「我們在哪里可以找到要連接的 CAN 總線?」

在這個項目中,我們只使用虛擬 CAN 總線,因此項目源代碼仍然不支持與汽車 CAN 總線的真實連接。不幸的是,雖然 CAN 總線是汽車行業(yè)的標準,但如果您想找到您的 can 線在哪里,您通常需要查看汽車電氣圖才能找到內(nèi)部 CAN 總線。自 1996 年以來,有一個名為 OBD2 的汽車標準,可以提供一種方便的方式連接到 CAN 總線。

「OBD2接口在哪里?」

OBD-II 端口通常位于儀表板下方,方向盤柱下方(下圖中的 1 - 3)。如果端口不在轉向柱下方,請在數(shù)字 4 - 9 指示的區(qū)域中尋找端口。

30c60780-daa3-11ed-bfe3-dac502259ad0.png

「我怎樣才能反轉CAN工程并讀取速度?」

您可以使用 Wireshark 或 candump 查找車速和轉向燈在哪里。CAN總線是沒有加密的,大家可以根據(jù)下面的說明嘗試查找。

2. 如何標定相機

將 USB 攝像頭連接到 Jetson Nano 板后,我們需要運行 OpenADAS 軟件來校準攝像頭。校準實際上是基于透視變換的距離估計。這是為距離計算校準相機的便捷方式。

變換參數(shù)包括從真實世界距離到鳥瞰圖像空間的米到像素映射,以及鳥瞰圖像到相機圖像之間的透視變換矩陣。為了計算這些參數(shù),我們使用以下解決方案:在汽車前面放一塊紅地毯,測量距離 W1、W2、L1、L2。地毯應該足夠大,并且必須對稱地放置在汽車的長軸上。

30ccd4e8-daa3-11ed-bfe3-dac502259ad0.png

單擊設置按鈕以打開相機校準。

在 UI 中輸入 L1、L2、W1、W2。

30ddf9ee-daa3-11ed-bfe3-dac502259ad0.png

之后,通過單擊「重新拍攝照片」選擇 4 個點,選擇一個點并移動滑塊。這些點必須以正確的順序拾取。相機標定后,標定文件將被保存data/camera_calib.txt并在每次啟動程序時加載回來。

三、感知模型和算法

1. 物體檢測與交通標志分類模型

該物體檢測模塊負責檢測前方障礙物物體,如其他車輛或行人,以及交通標志。這些結果可用于前方碰撞預警和超速預警。為了提供這些功能,該模塊包含兩個主要組件:基于 CenterNet 的對象檢測神經(jīng)網(wǎng)絡和基于 ResNet-18 的交通標志分類網(wǎng)絡。因此,我們將在下圖中看到 2 個深度學習模型。

30e79670-daa3-11ed-bfe3-dac502259ad0.png

1.1.使用 CenterNet 進行目標檢測

CenterNet 是一種簡單但高效的對象檢測模型。與其他流行的目標檢測模型相比,CenterNet 可以非常有效地適應速度-精度權衡。與其他流行的基于錨框的對象檢測網(wǎng)絡不同,CenterNet 依靠關鍵點檢測器來檢測對象的中心,然后回歸其他屬性。

30ecf43a-daa3-11ed-bfe3-dac502259ad0.png

CenterNet管道 「論文:」作為點的對象 - Xingyi Zhou、Dequan Wang、Philipp Kr?henbühlhttps://arxiv.org/abs/1904.07850。

「訓練」

我使用 CenterNet 作者的官方存儲庫來訓練對象檢測器(進行了一些修改)。請閱讀此處的安裝步驟以安裝培訓所需的環(huán)境。

「筆記:」

我建議使用 Anaconda 或 Miniconda 為每個任務創(chuàng)建一個虛擬環(huán)境。不要混合你的環(huán)境,因為我們必須使用不同的 Python 和包版本。

「必須使用」PyTorch v0.4.1 并將其設置為此處的說明:https://github.com/xingyizhou/CenterNet/blob/master/readme/INSTALL.md。不保證其他版本有效。

我修改了官方存儲庫以使用 Berkeley DeepDrive (BDD) 數(shù)據(jù)集](https://bdd-data.berkeley.edu/)。您可以在此處克隆源代碼以開始訓練。在我的存儲庫中,我用10個類訓練了 CenterNet:person、、、、、、、、、和。ridercarbustruckbikemotortraffic lighttraffic signtrain

「使用 TensorRT 進行模型優(yōu)化」

使用 PyTorch 框架訓練 CenterNet 后,我們獲得 PyTorch 模型格式(.pth)的模型文件。為了優(yōu)化 NVIDIA Jetson Nano 上的推理速度,我們需要將這些模型轉換為 TensorRT 引擎文件。轉換是通過稱為 ONNX(開放式神經(jīng)網(wǎng)絡交換)的中間格式完成的。首先使用 PyTorch ONNX 模塊將 PyTorch 模型轉換為 ONNX 格式(步驟 1)。

之后,我們將 ONNX 模型轉換為每個推理平臺的 TensorRT 引擎(步驟 2)。因為從ONNX到TensorRT引擎的轉換時間比較長,所以在我的實現(xiàn)中,我將TensorRT引擎轉換后序列化到硬盤,每次程序啟動時加載。在此步驟中,我們必須注意 TensorRT 引擎在不同計算機硬件上的構建方式不同。所以,

30f9eb5e-daa3-11ed-bfe3-dac502259ad0.png

使用此存儲庫將預訓練模型轉換為 ONNX 格式

「筆記:」

創(chuàng)建另一個虛擬環(huán)境,這與培訓不同。這個新的 Python 環(huán)境應該使用 Pytorch v1.0 或 v1.1。我為上面的這個轉換任務準備了一個存儲庫。您可以使用此處的說明來設置您自己的環(huán)境。

您可以從該文件夾convert_to_onnx_mobilenet.py中閱讀(對于 MobileNetv2 主干)和convert_to_onnx_rescdn18.py(對于 ResNet-18 主干)中的一些轉換示例源代碼。

擁有 ONNX 模型后,轉到 OpenADAS 以更新配置文件中新對象檢測模型的路徑:src/configs/config_object_detection.h.您還可以使用此存儲庫進行轉換。

1.2.交通標志分類

由于「BDD 數(shù)據(jù)集」的限制——它只包含 1 類交通標志(未指定標志類型),我不得不訓練另一個神經(jīng)網(wǎng)絡來識別標志類型。由于速度和準確性高,因此也選擇了「ResNet-18來完成這項任務?!?/strong>我使用 Tensorflow 和 Keras 框架訓練了模型。

「數(shù)據(jù)集」

在這個項目中,我只設計了對最大速度標志進行分類的系統(tǒng),并將每個速度級別視為一個單獨的對象類。為了收集足夠的訓練數(shù)據(jù),我使用了 2 個數(shù)據(jù)集:Mapillary Traffic Sign Dataset (MTSD) 和 German Traffic Sign Recognition (GRSRB) 數(shù)據(jù)集。由于 MTSD 是一個交通標志檢測數(shù)據(jù)集,我使用標志邊界框來裁剪它們以進行分類任務。裁剪后,我合并了 2 個數(shù)據(jù)集,得到 18,581 個最高限速交通標志圖像分為 13 個類別,以及 879 個末端限速標志(將所有末端限速標志僅視為 1 類)。

此外,我使用來自其他交通標志和物體的 20,000 張裁剪圖像作為“未知”類別。該數(shù)據(jù)集中共有 15 個類別:最大速度標志(5km/h、10km/h、20km/h、30km/h、40km/h、50km/h、60km/h、70km/h、80km/h , 90 公里/小時, 100 公里/小時, 110km/h、120km/h)、限速終點(EOSL)等標志(OTHER)。之后,這個數(shù)據(jù)集被分成 3 個子集:訓練集(80%)、驗證集(10%)和測試集(10%)。每個交通標志類別的分布是隨機的。

「訓練步驟」

使用此存儲庫中的源代碼來訓練交通標志分類器

「第一步:初始化環(huán)境」

創(chuàng)建anaconda環(huán)境:

conda create --name python=3.6

激活創(chuàng)建的環(huán)境并安裝所有要求:

pip install requirements.txt

「第 2 步:訓練模型」

準備如下結構的數(shù)據(jù)集:

3106392c-daa3-11ed-bfe3-dac502259ad0.png

使用以下命令訓練模型:

pythontrain.py

「使用 TensorRT 進行模型優(yōu)化」

轉換為 UFF

convert_h5_to_pb.py修改和中的模型路徑convert_pb_to_uff.py。

將.h5模型轉換為.pb, 最后.uff:

pipinstallrequirements-h5-to-uff.txt
pythonconvert_h5_to_pb.py
pythonconvert_pb_to_uff.py

擁有 ONNX 模型后,轉到 OpenADAS 以更新配置文件中新交通標志分類模型的路徑:src/configs/config_sign_classification.h.

2.車道線分割模型

車道線檢測模塊負責檢測車道線和車道偏離情況。然后將該結果用于車道偏離警告。我使用深度神經(jīng)網(wǎng)絡和霍夫變換線檢測器進行車道線檢測。下面介紹車道線檢測的流程。

31100150-daa3-11ed-bfe3-dac502259ad0.png

車道線檢測流水線

用于車道線分割的 U-Net 模型

U-Net 是一種在生物醫(yī)學圖像分割中表現(xiàn)良好的全卷積網(wǎng)絡,它可以用較少的訓練圖像數(shù)據(jù)展示高精度的分割結果。我將 U-Net 應用于車道線分割問題,并結合霍夫變換以線方程的形式找到車道線。

3121f6ee-daa3-11ed-bfe3-dac502259ad0.png

U網(wǎng)模型

為了在嵌入式硬件上運行輕量級分割模型,我對原始 U-Net 模型進行了兩次修改:

(1) 將decoder filters的數(shù)量調(diào)整為128, 64, 32, 16, 8個filters,從decoder的頂部到網(wǎng)絡的輸出;

(2) 用 ResNet-18 主干替換原來的主干。

這些修改減少了 U-Net 中的參數(shù)數(shù)量,并為我們提供了一個可以超過 200 幀每秒 (FPS) 運行的輕量級模型(模型 U-Net ResNet-18 輸入大小 384x382,RTX 2070 GPU 上的 TensorRT float 16 ).

數(shù)據(jù)集

數(shù)據(jù)集是從Mapillary Vista 數(shù)據(jù)集準備的,并進行了一些修改。原始數(shù)據(jù)集包含訓練集中約 18000 張圖像和驗證集中約 2000 張圖像。我合并這些集合,刪除一些不包含車道線或有太多噪音的圖像。最終數(shù)據(jù)集有 15303 張圖像。我將這個集合隨機分成三個子集:10712 張圖像用于訓練(~70%),2296 張圖像用于驗證(~15%)和 2295 張圖像用于測試(~15%)。因為 Mapillary Vista 的標簽包含很多對象類,所以我只保留車道線類來生成二值分割掩碼作為新標簽。

312c315e-daa3-11ed-bfe3-dac502259ad0.png

Mapillary Vistas 數(shù)據(jù)集預處理——圖像 A、B 來自 Mapillary Vitas

訓練

使用我的存儲庫訓練 U-Net 進行車道線分割

「第一步:初始化環(huán)境」

創(chuàng)建anaconda環(huán)境:

conda create --name python=3.6

激活創(chuàng)建的環(huán)境并安裝所有要求:

pip install requirements.txt

「第 2 步:訓練模型」

在目錄中創(chuàng)建新的配置文件list_config請不要修改舊的配置文件,以便我們更好地觀察,模型和訓練歷史將自動保存到saved_models文件夾中。

對于培訓,只需運行:

python model/train.py

或者

./train.sh

使用 TensorRT 進行模型優(yōu)化

轉換為 UFF

為此任務創(chuàng)建另一個虛擬環(huán)境。

convert_h5_to_pb.py修改和中的模型路徑convert_pb_to_uff.py。

.h5將模型轉換為.pb,并最終使用這些命令(請更新和.uff中模型的正確路徑)convert_h5_to_pb.pyconvert_pb_to_uff.py

pipinstallrequirements-h5-to-uff.txt
pythonconvert_h5_to_pb.py
pythonconvert_pb_to_uff.py

擁有 UFF 模型后,轉到 OpenADAS 以在車道檢測配置文件中更新該新模型的路徑:src/configs/config_lane_detection.h.

使用霍夫變換進行車道線檢測

霍夫變換是一種在圖像處理中非常有效的線檢測算法。該算法的總體思想是創(chuàng)建從圖像空間(A)到新空間(B)的映射,空間(A)中的每條線對應空間中的一個點(B),空間中的每個點(A)對應空間中的正弦曲線 (B)。將 (A) 中的所有點投影到空間 (B) 中的正弦曲線后,我們找到交點密度最高的地方。然后將這些位置投影到 (A) 成線。通過這種方式,霍夫線變換算法可以在圖像空間(A)中找到線。

尋找候選車道線的過程如下圖所示。從線分割網(wǎng)絡產(chǎn)生的分割掩碼,車道線檢測模塊使用概率霍夫變換來檢測原始線段(1)。之后,使用由 Bernard A. Galler 和 Michael J. Fischer 在 1964 年反轉的不相交集/聯(lián)合查找森林算法將這些線劃分為組。我們使用線之間的空間距離和角度差將屬于一個線段分組同一條線。經(jīng)過步驟(2),我們可以看到不同的線組被繪制成不同的顏色。步驟 (3) 接收這些線組作為輸入,并使用具有 L2 距離的最大似然估計在每個組中擬合一條線。

313b71e6-daa3-11ed-bfe3-dac502259ad0.png

線候選檢測

該系統(tǒng)將車道分割模型與上述車道檢測算法相結合,可以檢測不同環(huán)境下的車道線,判斷車道偏離情況。它為車道偏離警告模塊創(chuàng)建可靠的輸入。

4.警告規(guī)則

該系統(tǒng)使用基于規(guī)則的警告算法。





審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • GPS技術
    +關注

    關注

    0

    文章

    26

    瀏覽量

    10613
  • CAN
    CAN
    +關注

    關注

    59

    文章

    3097

    瀏覽量

    473594
  • ADAS系統(tǒng)

    關注

    4

    文章

    229

    瀏覽量

    26497
  • 讀取器
    +關注

    關注

    0

    文章

    54

    瀏覽量

    5598

原文標題:如何搭建一個開源ADAS項目

文章出處:【微信號:智能汽車電子與軟件,微信公眾號:智能汽車電子與軟件】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    AIOsense低成本站式傳感器開源項目介紹

    今天給物聯(lián)網(wǎng)、智能家居愛好者分享款實用開源方案:站式傳感器。它主打低成本、易上手、可升級的模塊化設計,無需復雜貼片焊接,新手也能輕松組裝,完美適配 Home Assistant、ESPHome 生態(tài),可直接替代市售成品傳感器
    的頭像 發(fā)表于 04-22 13:50 ?179次閱讀
    AIOsense低成本<b class='flag-5'>一</b>站式傳感器<b class='flag-5'>開源</b><b class='flag-5'>項目</b>介紹

    借助 AI 從流程可視化到流程優(yōu)化的 6 步驟

    流程中的低效環(huán)節(jié)、瓶頸問題,以及可以優(yōu)化的空間?比如因為洗碗機的擺放 “動線” 不夠高效,而重新規(guī)劃碗碟的擺放順序 —— 恭喜你!你很可能也是流程達人”。 “等等…… 這居然也
    的頭像 發(fā)表于 12-16 13:51 ?356次閱讀

    開源鴻蒙項目順利孵化畢業(yè)

    2025年11月21日,2025開放原子開發(fā)者大會在北京隆重啟幕。作為本次大會的重磅環(huán)節(jié)和核心焦點之,在大會開幕式上,開放原子開源基金會(以下簡稱“基金會”)宣布開源鴻蒙項目達成
    的頭像 發(fā)表于 11-27 14:36 ?748次閱讀

    開源鴻蒙項目達成開源孵化目標順利畢業(yè)

    11月21日,2025開放原子開發(fā)者大會在北京隆重啟幕。作為本次大會的重磅環(huán)節(jié)和核心焦點之,在大會開幕式上,開源鴻蒙項目達成開源孵化目標、順利畢業(yè),這是
    的頭像 發(fā)表于 11-25 17:36 ?1301次閱讀

    開放原子開源基金會與11項目完成捐贈簽約

    11月21日,在2025開放原子開發(fā)者大會開幕式上,開放原子開源基金會與11開源項目完成捐贈簽約,涵蓋人工智能、量子計算、機器人、操作系統(tǒng)、物聯(lián)網(wǎng)等多個關鍵技術方向。此舉既是基金會完
    的頭像 發(fā)表于 11-25 17:26 ?1047次閱讀

    開源鴻蒙和開源歐拉成為開放原子開源基金會首批畢業(yè)項目

    11月21日,在2025開放原子開發(fā)者大會開幕式上,開放原子開源基金會宣布旗下開源鴻蒙(OpenHarmony)與開源歐拉(openEuler)成為首批畢業(yè)項目。
    的頭像 發(fā)表于 11-25 17:22 ?1022次閱讀

    四款簡道云的開源替代方案:低成本 高可控 搭建專屬芯片行業(yè)業(yè)務流程管理系統(tǒng)

    具低成本與高可控性,讓您搭建完全貼合芯片行業(yè)特色的業(yè)務流程管理系統(tǒng)
    的頭像 發(fā)表于 09-08 10:06 ?1386次閱讀

    如何選擇適合自己項目的通信協(xié)議評估工具?

    的決策框架,結合項目關鍵變量(如協(xié)議類型、評估目標、資源約束等),幫助精準匹配工具: 、先明確 3 核心決策前提:錨定選型方向 在選擇工具前,需先梳理項目的基礎約束,這是后續(xù)篩選工
    的頭像 發(fā)表于 08-27 09:19 ?961次閱讀
    如何選擇適合自己<b class='flag-5'>項目的</b>通信協(xié)議評估工具?

    開源項目!FourThirdsEye 開源 M4/3 相機模塊

    FourThirdsEye 是開源相機板,專為樹莓派5 (Raspberry Pi 5) 和樹莓派計算模塊4 (Raspberry Pi Compute Module 4) 設計,采用微型
    發(fā)表于 07-30 13:43

    開放原子開源基金會發(fā)布150余開源項目應用案例

    近日,在2025開放原子開源生態(tài)大會開幕式上,開放原子開源基金會發(fā)布了150余開源項目應用案例,涵蓋中國南方電網(wǎng)、中國移動、京東集團、安貞
    的頭像 發(fā)表于 07-28 17:10 ?1311次閱讀

    開放原子開源基金會與新開源項目完成捐贈簽約

    近日,在2025開放原子開源生態(tài)大會開幕式上,開放原子開源基金會與新開源項目完成捐贈簽約,涵蓋人工智能、具身智能、基礎軟件、區(qū)塊鏈等多個
    的頭像 發(fā)表于 07-28 17:04 ?1182次閱讀

    Amazing Hand:開源的3D打印仿真機械手項目

    “ ?本文介紹了款名為 Amazing Hand 的開源仿人機械手項目。該項目旨在解決市面上機器人手普遍昂貴且表現(xiàn)力不足的問題,提供
    的頭像 發(fā)表于 07-21 11:22 ?6825次閱讀
    Amazing Hand:<b class='flag-5'>一</b><b class='flag-5'>個</b><b class='flag-5'>開源</b>的3D打印仿真機械手<b class='flag-5'>項目</b>

    HarmonyOS實戰(zhàn):組件化項目搭建

    ?本文將詳細講解HarmonyOs組件化項目搭建的全過程,帶領大家實現(xiàn)組件化項目。 項目創(chuàng)建
    的頭像 發(fā)表于 06-09 14:58 ?815次閱讀
    HarmonyOS實戰(zhàn):組件化<b class='flag-5'>項目</b><b class='flag-5'>搭建</b>

    擁抱開源!起來做FPGA開發(fā)板啦!

    ,方便大家根據(jù)自身需求進行功能擴展與定制。在開發(fā)過程中,我們會定期分享設計思路、調(diào)試經(jīng)驗和技術干貨,搭建開放的交流社區(qū),讓每一個參與者都能暢所欲言、共同進步。 開源,是技術的共享,更是夢想的傳遞。加入
    發(fā)表于 06-06 14:05

    openstack搭建詳細步驟

    openstack搭建詳細步驟
    的頭像 發(fā)表于 05-07 14:05 ?2329次閱讀
    四平市| 古浪县| 鹰潭市| 淮安市| 宁都县| 阿坝| 五原县| 清苑县| 皋兰县| 蒲江县| 监利县| 宿州市| 黎川县| 永嘉县| 藁城市| 平和县| 乳山市| 郎溪县| 麻阳| 商河县| 玛沁县| 江源县| 恩平市| 元谋县| 孟村| 临桂县| 息烽县| 柳州市| 大冶市| 南澳县| 鱼台县| 许昌县| 苍梧县| 赤壁市| 长垣县| 平舆县| 金门县| 邯郸县| 平顶山市| 东丽区| 咸宁市|