日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何在移動設(shè)備上訓(xùn)練和部署自定義目標(biāo)檢測模型

硬件三人行 ? 來源:TensorFlow ? 作者: Khanh LeVie ? 2021-08-16 17:09 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

發(fā)布人:技術(shù)推廣工程師 Khanh LeViet,代表 TensorFlow Lite 團隊

在今年的 Google I/O 大會上,我們很高興地宣布推出了多項產(chǎn)品更新。這些更新可以幫助簡化移動設(shè)備上,目標(biāo)檢測模型的訓(xùn)練和部署的過程:

設(shè)備端 ML 學(xué)習(xí)路徑:關(guān)于如何在移動設(shè)備上,訓(xùn)練和部署自定義目標(biāo)檢測模型的分步教程,無需機器學(xué)習(xí)專業(yè)知識。

設(shè)備端 ML 學(xué)習(xí)路徑

https://developers.google.com/learn/pathways/going-further-object-detection

EfficientDet-Lite:針對移動設(shè)備優(yōu)化的精尖目標(biāo)檢測模型架構(gòu)。

EfficientDet-Lite

https://hub.tensorflow.google.cn/s?deployment-format=lite&q=efficientdet-lite

用于目標(biāo)檢測的 TensorFlow Lite Model Maker:只需幾行代碼即可訓(xùn)練自定義模型

目標(biāo)檢測

http://tensorflow.google.cn/lite/tutorials/model_maker_object_detection

TensorFlow Lite Metadata Writer API:簡化元數(shù)據(jù)創(chuàng)建以生成與 TFLite Task Library 兼容的自定義目標(biāo)檢測模型。

Metadata Writer API

http://tensorflow.google.cn/lite/convert/metadata_writer_tutorial

TFLite Task Library

http://tensorflow.google.cn/lite/inference_with_metadata/task_library/object_detector

盡管目標(biāo)檢測是非常常見的 ML 用例,但可能也是最難執(zhí)行的用例之一。我們一直致力于為您簡化相關(guān)操作。在這篇文章中,我們將向您介紹如何利用 TensorFlow Lite 的最新產(chǎn)品、通過使用您自己的訓(xùn)練數(shù)據(jù)構(gòu)建最先進(jìn)的移動端目標(biāo)檢測。

設(shè)備端 ML 學(xué)習(xí)路徑:

在 12 分鐘內(nèi)了解如何訓(xùn)練和部署自定義 TensorFlow Lite 目標(biāo)檢測模型

有了 TensorFlow Lite,訓(xùn)練自定義目標(biāo)檢測模型并將其部署到 Android 應(yīng)用變得非常容易。我們已經(jīng)發(fā)布了學(xué)習(xí)路徑,可指導(dǎo)您按步驟順利完成相關(guān)操作。

您可以通過視頻了解構(gòu)建自定義目標(biāo)檢測器的具體步驟:

1. 準(zhǔn)備訓(xùn)練數(shù)據(jù)。

2. 使用 TensorFlow Lite Model Maker 訓(xùn)練自定義目標(biāo)檢測模型。

3. 使用 TensorFlow Lite Task Library 在您的移動應(yīng)用上部署模型。

我們還在 GitHub 上提供了帶有源代碼的 Codelab,供您自行試運行代碼。請嘗試一下,并告訴我們您的反饋!

Codelab

https://codelabs.developers.google.com/tflite-object-detection-android

告訴我們

https://github.com/googlecodelabs/odml-pathways/issues

EfficientDet-Lite:

移動端設(shè)備目標(biāo)檢測最優(yōu)模型架構(gòu)之一

在移動設(shè)備上運行機器學(xué)習(xí)模型意味著我們始終需要在模型精度、推理速度和模型大小之間進(jìn)行權(quán)衡。最優(yōu)的移動端模型不僅需要更加精準(zhǔn),還需要更快地運行速度和更小的體積。我們采用了 EfficientDet 論文中發(fā)布的神經(jīng)架構(gòu)搜索技術(shù),并優(yōu)化了在移動設(shè)備上運行的模型架構(gòu),最終推出了名為 EfficientDet-Lite 的新型移動設(shè)備目標(biāo)檢測模型系列。

EfficientDet

https://arxiv.org/abs/1911.09070

EfficientDet-Lite 有 5 個不同的版本:從 Lite0 到 Lite4。較小的版本運行速度更快,而較大的版本精度更高。您可以先用多個版本的 EfficientNet-Lite 進(jìn)行試驗,然后選擇最適合您用例的版本。

* 整型量化模型的大小

** 在 Pixel 4 上使用 4 個 CPU 線程測量得出的延遲時間

*** 平均精度是 COCO 2017 驗證數(shù)據(jù)集上的 mAP(平均精度均值)

我們已將在 COCO 數(shù)據(jù)集上訓(xùn)練的 EfficientDet-Lite 模型發(fā)布到 TensorFlow Hub。您還可以使用自己的訓(xùn)練數(shù)據(jù),通過 TensorFlow Lite Model Maker 訓(xùn)練 EfficientDet-Lite 自定義模型。

TensorFlow Hub

https://hub.tensorflow.google.cn/s?q=efficientdet/lite

TensorFlow Lite Model Maker:幾行代碼使用遷移學(xué)習(xí)訓(xùn)練自定義目標(biāo)檢測模型

TensorFlow Lite Model Maker 是 Python 庫,可顯著簡化使用自定義數(shù)據(jù)集訓(xùn)練機器學(xué)習(xí)模型的過程。該庫利用遷移學(xué)習(xí),僅使用少量圖像即可訓(xùn)練高質(zhì)量模型。

TensorFlow Lite Model Maker

http://tensorflow.google.cn/lite/guide/model_maker

Model Maker 接受 PASCAL VOC 格式和 Cloud AutoML 的 CSV 格式的數(shù)據(jù)集。和使用 LabelImg 或 makesense.ai 等開源 GUI 工具創(chuàng)建自己的數(shù)據(jù)集一樣,每位開發(fā)者都可以創(chuàng)建用于 Model Maker 的訓(xùn)練數(shù)據(jù),且無需編寫任何代碼。

CSV

https://cloud.google.com/vision/automl/object-detection/docs/csv-format

LabelImg

https://github.com/tzutalin/labelImg

makesense.ai

https://github.com/SkalskiP/make-sense

獲得訓(xùn)練數(shù)據(jù)后,您就可以開始訓(xùn)練自定義的 TensorFlow Lite 目標(biāo)檢測模型了。

# Step 1: Choose the model architecture

spec = model_spec.get(‘efficientdet_lite2’)

# Step 2: Load your training data

train_data, validation_data, test_data = object_detector.DataLoader.from_csv(‘gs://cloud-ml-data/img/openimage/csv/salads_ml_use.csv’)

# Step 3: Train a custom object detector

model = object_detector.create(train_data, model_spec=spec, validation_data=validation_data)

# Step 4: Export the model in the TensorFlow Lite format

model.export(export_dir=‘。’)

# Step 5: Evaluate the TensorFlow Lite model

model.evaluate_tflite(‘model.tflite’, test_data)

查看此 Codelab 了解詳情。

Codelab

http://tensorflow.google.cn/lite/tutorials/model_maker_object_detection

TensorFlow Lite Task Library:使用幾行代碼在移動設(shè)備上部署目標(biāo)檢測模型

TensorFlow Lite Task Library 是跨平臺庫,它簡化了 TensorFlow Lite 模型在移動設(shè)備上的部署。使用 TensorFlow Lite Model Maker 訓(xùn)練的自定義目標(biāo)檢測模型只需使用幾行 Kotlin 代碼即可部署到 Android 應(yīng)用:

// Step 1: Load the TensorFlow Lite model

val detector = ObjectDetector.createFromFile(context, “model.tflite”)

// Step 2: Convert the input Bitmap into a TensorFlow Lite‘s TensorImage object

val image = TensorImage.fromBitmap(bitmap)

// Step 3: Feed given image to the model and get the detection result

val results = detector.detect(image)

您可參閱一下文檔,了解有關(guān) Task Library 中,包括如何配置最小檢測閾值或最大檢測對象數(shù)量等更多自定義選項信息。

文檔

https://tensorflow.google.cn/lite/inference_with_metadata/task_library/object_detector

TensorFlow Lite Metadata Writer API:

用于簡化使用 TensorFlow Object Detection API 訓(xùn)練的自定義模型的部署

Task Library 依賴 TensorFlow Lite 模型中捆綁的模型元數(shù)據(jù)來執(zhí)行必要的預(yù)處理和后處理邏輯,以便使用該模型來運行推理。這其中包括如何將輸入圖像歸一化,或如何將類 ID 映射到可人工讀取的標(biāo)簽。因為使用 Model Maker 訓(xùn)練的模型會默認(rèn)包含此類元數(shù)據(jù),所以它能夠與 Task Library 兼容。但是,如果您使用除 Model Maker 以外的訓(xùn)練流水線,來訓(xùn)練 TensorFlow Lite 目標(biāo)檢測,則可以使用 TensorFlow Lite Metadata Writer API 來添加元數(shù)據(jù)。

模型元數(shù)據(jù)

https://tensorflow.google.cn/lite/convert/metadata

例如,如果您使用 TensorFlow Object Detection API 來訓(xùn)練模型,則可以使用以下 Python 代碼將元數(shù)據(jù)添加到 TensorFlow Lite 模型:

LABEL_PATH = ’label_map.txt‘

MODEL_PATH = “ssd_mobilenet_v2_fpnlite_640x640_coco17_tpu-8/model.tflite”

SAVE_TO_PATH = “ssd_mobilenet_v2_fpnlite_640x640_coco17_tpu-8/model_with_metadata.tflite”# Step 1: Specify the preprocessing parameters and label file

writer = object_detector.MetadataWriter.create_for_inference(

writer_utils.load_file(MODEL_PATH), input_norm_mean=[0],

input_norm_std=[255], label_file_paths=[LABEL_PATH])

# Step 2: Export the model with metadata

writer_utils.save_file(writer.populate(), SAVE_TO_PATH)

在示例中,我們指定歸一化參數(shù) (input_norm_mean=[0], input_norm_std=[255]) ,以便將輸入圖像歸一化到 [0..1] 范圍內(nèi)。您需要指定與模型訓(xùn)練期間使用的預(yù)處理邏輯中相同的歸一化參數(shù)。

歸一化

http://tensorflow.google.cn/lite/convert/metadata#normalization_and_quantization_parameters

參閱此 Colab,獲取有關(guān)如何將使用 TensorFlow Object Detection API 訓(xùn)練的模型轉(zhuǎn)換為 TensorFlow Lite 模型并添加元數(shù)據(jù)的完整教程。

Colab

https://colab.research.google.com/github/tensorflow/models/blob/master/research/object_detection/colab_tutorials/convert_odt_model_to_TFLite.ipynb

未來計劃

我們的目標(biāo)是讓每位開發(fā)者(無論是否具備機器學(xué)習(xí)專業(yè)知識)都能更輕松使用機器學(xué)習(xí)。目前,我們正在與 TF Model Garden 團隊合作,希望推出更多適用于 Model Maker 的目標(biāo)檢測模型架構(gòu)。

未來,我們還將繼續(xù)與 Google 研究人員合作,通過 Model Maker 提供更多面向未來的更優(yōu)秀的目標(biāo)檢測模型,縮短從前沿研究到投入實際應(yīng)用并且供所有開發(fā)者使用的整個流程。敬請關(guān)注更多動態(tài)!

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • Google
    +關(guān)注

    關(guān)注

    5

    文章

    1816

    瀏覽量

    60652
  • ML
    ML
    +關(guān)注

    關(guān)注

    0

    文章

    154

    瀏覽量

    35533
  • 目標(biāo)檢測
    +關(guān)注

    關(guān)注

    0

    文章

    234

    瀏覽量

    16549
  • GitHub
    +關(guān)注

    關(guān)注

    3

    文章

    489

    瀏覽量

    18770

原文標(biāo)題:使用 TensorFlow Lite 簡化移動端目標(biāo)檢測

文章出處:【微信號:yingjiansanrenxing,微信公眾號:硬件三人行】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    Firefly-RK1828 賦能視頻大模型:多目標(biāo)+全場景,引領(lǐng)智能分析新風(fēng)向

    問題。針對這一問題,我們基于FireflyRK1828開發(fā)套件,搭載南京銳景專屬視頻分析算法,以視頻大模型為核心,實現(xiàn)「多目標(biāo)檢測+全場景適配」,可自定義各種問題,適應(yīng)
    的頭像 發(fā)表于 04-15 16:35 ?1229次閱讀
    Firefly-RK1828 賦能視頻大<b class='flag-5'>模型</b>:多<b class='flag-5'>目標(biāo)</b>+全場景,引領(lǐng)智能分析新風(fēng)向

    使用Python/MyHDL創(chuàng)建自定義FPGA IP

    使用 Python/MyHDL 創(chuàng)建自定義 FPGA IP,與 Vivado 集成,并通過 PYNQ 進(jìn)行控制——實現(xiàn)軟件的簡單硬件設(shè)計。
    的頭像 發(fā)表于 04-09 09:53 ?290次閱讀
    使用Python/MyHDL創(chuàng)建<b class='flag-5'>自定義</b>FPGA IP

    MCUXpresso SDK創(chuàng)建自定義清單

    概述 MCUXpresso SDK 24.12 介紹塞德恩漢CED支持自定義清單,使開發(fā)人員能夠精確定義其工作區(qū)中包含哪些組件、驅(qū)動程序、中間件和板支持包。此功能在極簡主義、可重復(fù)性和 CI/CD
    發(fā)表于 04-07 07:11

    極海APM32F427如何實現(xiàn)自定義USB HID設(shè)備與PC進(jìn)行通信

    最近需要使用到 APM32F427 枚舉成Custom HID設(shè)備進(jìn)行用戶自定義通信,但是官方的例程只有提供的HID枚舉為鼠標(biāo)或者鍵盤類型的設(shè)備。這里記錄一下,怎么使用Geehy官方的USB中間件,實現(xiàn)
    的頭像 發(fā)表于 03-30 09:30 ?2800次閱讀
    極海APM32F427如何實現(xiàn)<b class='flag-5'>自定義</b>USB HID<b class='flag-5'>設(shè)備</b>與PC進(jìn)行通信

    如何訓(xùn)練自己的AI模型——RT-Thread×富瀚微FH8626V300L模型訓(xùn)練部署教程 | 技術(shù)集結(jié)

    面對消費電子中紛繁的智能檢測需求,如何讓算法持續(xù)進(jìn)化?富瀚微最新發(fā)布的FH86X6V300芯片AI訓(xùn)練教程,以FH8626V300L為硬件核心,手把手帶您走通從模型訓(xùn)練到端側(cè)
    的頭像 發(fā)表于 02-09 11:51 ?659次閱讀
    如何<b class='flag-5'>訓(xùn)練</b>自己的AI<b class='flag-5'>模型</b>——RT-Thread×富瀚微FH8626V300L<b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b><b class='flag-5'>部署</b>教程 | 技術(shù)集結(jié)

    電能質(zhì)量在線監(jiān)測裝置的自定義監(jiān)測時段功能與離線監(jiān)測有什么區(qū)別?

    電能質(zhì)量在線監(jiān)測裝置的 自定義監(jiān)測時段功能 與 離線監(jiān)測 是兩個不同維度的功能,核心區(qū)別在于 設(shè)計目標(biāo)、網(wǎng)絡(luò)依賴、數(shù)據(jù)流轉(zhuǎn)方式 及 應(yīng)用場景 ,具體差異可從以下多維度展開: 一、核心定義與設(shè)計
    的頭像 發(fā)表于 12-10 14:00 ?630次閱讀
    電能質(zhì)量在線監(jiān)測裝置的<b class='flag-5'>自定義</b>監(jiān)測時段功能與離線監(jiān)測有什么區(qū)別?

    無圖形界面模式下自定義檢查工具的應(yīng)用

    此前文章已介紹 ANSA 中的自定義檢查工具。本文將探討該功能在無圖形界面(No-GUI)模式下的應(yīng)用,旨在滿足標(biāo)準(zhǔn)化工作流程的需求,適用于需要高度自動化的前處理場景。通過集成自定義檢查,用戶可實現(xiàn)工作流程的高效自動化運行。
    的頭像 發(fā)表于 11-30 14:13 ?803次閱讀
    無圖形界面模式下<b class='flag-5'>自定義</b>檢查工具的應(yīng)用

    AMD利用可重構(gòu)FPGA設(shè)備Moku實現(xiàn)自定義激光探測解決方案

    摘要本文介紹了AdvancedMicroDevices,AMD公司如何基于可重構(gòu)FPGA設(shè)備自定義激光探測解決方案,替代傳統(tǒng)的儀器配置,通過靈活且可定制的FPGA設(shè)備Moku提供更高效和靈活的激光
    的頭像 發(fā)表于 11-20 17:28 ?1934次閱讀
    AMD利用可重構(gòu)FPGA<b class='flag-5'>設(shè)備</b>Moku實現(xiàn)<b class='flag-5'>自定義</b>激光探測解決方案

    強實時運動控制內(nèi)核MotionRT750(九):內(nèi)置C語言的自定義機械手模型實現(xiàn)

    內(nèi)置C語言的自定義機械手模型實現(xiàn)。
    的頭像 發(fā)表于 10-27 14:14 ?990次閱讀
    強實時運動控制內(nèi)核MotionRT750(九):內(nèi)置C語言的<b class='flag-5'>自定義</b>機械手<b class='flag-5'>模型</b>實現(xiàn)

    何在e203 SOC中添加自定義外設(shè)

    何在E203 中添加自定義的外設(shè),困擾已久,以下是一個從別處借鑒而來的方法: 1、設(shè)計好自定義外設(shè)的RTL后,在其中添加ICB總線的握手協(xié)議和讀寫寄存器。 2、設(shè)計一個對外接口,用來設(shè)定
    發(fā)表于 10-20 10:38

    請問K210可以同時加載幾個自定義模型?

    K210可以同時加載幾個自定義模型?
    發(fā)表于 07-18 06:20

    大彩講堂:VisualTFT軟件如何自定義圓形進(jìn)度條

    VisualTFT軟件如何自定義圓形進(jìn)度條
    的頭像 發(fā)表于 07-07 17:10 ?1979次閱讀
    大彩講堂:VisualTFT軟件如何<b class='flag-5'>自定義</b>圓形進(jìn)度條

    完整指南:如何使用樹莓派5、Hailo AI Hat、YOLO、Docker進(jìn)行自定義數(shù)據(jù)集訓(xùn)練

    今天,我將展示如何使用令人印象深刻的HailoAIHat在樹莓派5訓(xùn)練、編譯和部署自定義模型。注意:文章內(nèi)的鏈接可能需要科學(xué)上網(wǎng)。Hail
    的頭像 發(fā)表于 06-28 08:23 ?4962次閱讀
    完整指南:如何使用樹莓派5、Hailo AI Hat、YOLO、Docker進(jìn)行<b class='flag-5'>自定義</b>數(shù)據(jù)集<b class='flag-5'>訓(xùn)練</b>?

    KiCad 中的自定義規(guī)則(KiCon 演講)

    設(shè)計規(guī)則 展開,重點探討了 那些復(fù)雜卻強大的特性。 由于這些規(guī)則本質(zhì)是基于文本表達(dá)的,需要用戶細(xì)致入微的理解。演講的 核心目標(biāo) 是引導(dǎo)用戶有效實施這些規(guī)則,從而 規(guī)避布線問題、提升制造良率,并優(yōu)化設(shè)計流程 。 討論 始于對自定義
    的頭像 發(fā)表于 06-16 11:17 ?2607次閱讀
    KiCad 中的<b class='flag-5'>自定義</b>規(guī)則(KiCon 演講)

    HarmonyOS應(yīng)用自定義鍵盤解決方案

    自定義鍵盤是一種替換系統(tǒng)默認(rèn)鍵盤的解決方案,可實現(xiàn)鍵盤個性化交互。允許用戶結(jié)合業(yè)務(wù)需求與操作習(xí)慣,對按鍵布局進(jìn)行可視化重構(gòu)、設(shè)置多功能組合鍵位,使輸入更加便捷和舒適。在安全防護(hù)層面,自定義鍵盤可以
    的頭像 發(fā)表于 06-05 14:19 ?2671次閱讀
    邹平县| 玉门市| 牡丹江市| 依安县| 兰坪| 时尚| 密山市| 保靖县| 鄱阳县| 乐陵市| 盐池县| 始兴县| 扶余县| 平昌县| 襄汾县| 政和县| 仲巴县| 正宁县| 嘉禾县| 陈巴尔虎旗| 水富县| 南丰县| 大姚县| 夏津县| 来宾市| 中山市| 泽库县| 抚宁县| 大英县| 米林县| 托克托县| 天台县| 昌邑市| 通榆县| 承德市| 资溪县| 汕尾市| 碌曲县| 临清市| 英德市| 策勒县|