來源:Nordic半導體
過去,極小尺寸、電池供電的物聯(lián)網(wǎng)設(shè)備幾乎無法實現(xiàn)邊緣人工智能,但如今情況已徹底改變。隨著面向 CPU 運行的邊緣 AI、由用戶生成的超微型機器學習模型 ——定制 Neuton 模型的推出,Nordic 正在全面提升所有 nRF54L 系列片上系統(tǒng)(SoC)的性能。這使得它們能夠勝任以往僅靠高性能硬件才能完成的各類人工智能任務(wù),成為切實可行的選擇。
定制 Neuton 模型基于您自有設(shè)備采集的專屬數(shù)據(jù)構(gòu)建,并針對您的特定應用場景深度優(yōu)化,助力強化產(chǎn)品的核心競爭力。Neuton 模型體積超小、效率極高,是無線物聯(lián)網(wǎng)設(shè)備上實現(xiàn)超低功耗人工智能的首選方案。
在本篇博文中,我們將介紹這項技術(shù),并梳理創(chuàng)建定制 Neuton 模型以及將其集成到 nRF Connect SDK 應用中的完整流程。
我們對邊緣 AI 的理解
“邊緣 AI” 一詞涵蓋所有在設(shè)備本地運行的 AI 算法與神經(jīng)網(wǎng)絡(luò)應用,而非在集中式云服務(wù)器中運行。這一范疇包括從邊緣服務(wù)器、網(wǎng)絡(luò)基礎(chǔ)設(shè)施,到高性能 PC 硬件與智能手機,再到低功耗物聯(lián)網(wǎng)設(shè)備的各類場景。對 Nordic 而言,邊緣 AI 特指在我們超低功耗 SoC 上運行的 AI 算法與神經(jīng)網(wǎng)絡(luò)。在本博客的后續(xù)內(nèi)容中,我們將直接將其簡稱為 “邊緣 AI”。
為何選擇 Neuton 模型?
作為開發(fā)者,在產(chǎn)品中使用邊緣 AI 時面臨的兩大核心障礙是:
機器學習模型體積過大,超出所選微控制器的內(nèi)存容量。
定制機器學習模型的創(chuàng)建過程高度依賴人工操作,且需要深厚的數(shù)據(jù)科學專業(yè)知識。
而現(xiàn)在,這些問題將成為過去。

Nordic Edge AI Lab 讓定制 Neuton 模型的生成變得簡單易行。這款在線工具可生成邊緣 AI 模型,其體積僅為 TensorFlow Lite 等傳統(tǒng)框架模型的幾分之一。這得益于我們獲得專利的神經(jīng)網(wǎng)絡(luò)框架,它能夠在無需用戶干預的情況下,逐神經(jīng)元自動構(gòu)建網(wǎng)絡(luò)。
對開發(fā)者而言,這意味著只需提供優(yōu)質(zhì)數(shù)據(jù)集,即可訓練出高度優(yōu)化、快速且精準的機器學習模型。這些定制 Neuton 模型可在任意 Nordic SoC 上運行,例如我們的旗艦芯片 nRF54L15;同時模型效率極高,即使是存儲空間最受限的芯片(如 nRF52805)也能輕松適配,僅占用幾千字節(jié)的非易失性存儲器(NVM)。
在某些應用中,運行 TensorFlow Lite 模型會占用過多內(nèi)存、耗盡全部 NVM,或因運行過慢、效率低下而占用 CPU 資源并加速耗電。而 Neuton 模型則可以在這類應用中輕松實現(xiàn)邊緣 AI 功能。
Neuton 模型適用于哪些應用場景?
對于智能戒指、智能手表等可穿戴設(shè)備,開發(fā)者可通過定制 Neuton 模型實現(xiàn)行走、跑步、計步、睡眠等活動檢測,識別手勢或手指動作以實現(xiàn)智能控制或自動化,并監(jiān)測心率、心率變異性、血氧等生理指標。在工業(yè)場景中,可構(gòu)建 Neuton 模型對傳感器數(shù)據(jù)進行異常檢測,從而實現(xiàn)預測性維護。
簡單來說,Neuton 模型支持來自各類傳感器的時序數(shù)據(jù),包括加速度計、慣性測量單元(IMU)、光電容積描記傳感器(PPG,即智能手表背面用于檢測心率的閃爍式傳感器)、溫度傳感器、各類電信號測量傳感器(例如通過 ADC 采集的電壓信號)等。只要傳感器輸出能夠按周期采樣并形成時序數(shù)值,Nordic Edge AI Lab 均可支持并據(jù)此創(chuàng)建模型。
是什么讓 Neuton 模型區(qū)別于其他 AI 模型?
市面上的邊緣 AI 框架種類繁多,且已經(jīng)發(fā)展多年。
LiteRT(原面向微控制器的 TensorFlow Lite)及同類框架存在一個核心痛點:這類框架仍要求開發(fā)者具備神經(jīng)網(wǎng)絡(luò)架構(gòu)設(shè)計相關(guān)知識,需要手動選擇神經(jīng)元數(shù)量與網(wǎng)絡(luò)深度,再在訓練完成后對模型進行壓縮與優(yōu)化,才能使其適配目標設(shè)備。
這種方式生成的模型,在代碼體積、執(zhí)行速度和功耗方面效率較低,并且高度依賴優(yōu)化人員的技術(shù)水平與經(jīng)驗。
自動化模型創(chuàng)建與訓練流程
而 Neuton 則能全自動完成這一切。它無需從一開始就靜態(tài)定義網(wǎng)絡(luò)參數(shù),而是會自動生長神經(jīng)網(wǎng)絡(luò),并對每一個新增神經(jīng)元評估是否能提升模型性能。對模型沒有增益的神經(jīng)元會被立即移除,以節(jié)省資源。
這為開發(fā)者帶來了多項優(yōu)勢:
無需手動選擇神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)、參數(shù)或架構(gòu)
無需消耗大量資源的自動神經(jīng)網(wǎng)絡(luò)架構(gòu)搜索(NAS)
實現(xiàn)盡可能最小的代碼體積,無需額外壓縮或優(yōu)化
執(zhí)行速度更快,意味著更低的功耗
簡易集成
Neuton 模型以純 C 語言庫的形式從 Edge AI Lab 下載,無外部依賴項,也無需特殊運行環(huán)境。它們可直接集成到運行在 nRF52、nRF53、nRF54L、nRF54H 系列 SoC 或 nRF91 系列 SiP 主應用內(nèi)核(CPU)上的任意應用中。
通過面向 nRF Connect SDK 的 Edge AI 擴展組件,模型集成變得更加便捷,該組件內(nèi)置 nRF Edge AI API,支持在應用中直接進行設(shè)備端推理。此外,該擴展組件還提供三個應用示例,分別演示如何針對三類 AI 操作與 Neuton 模型交互:回歸、分類和異常檢測。
我可以將 Neuton 模型與 NPU 一起使用嗎?
神經(jīng)網(wǎng)絡(luò)處理器(NPU)是一種專用處理核心,其架構(gòu)專為運行神經(jīng)網(wǎng)絡(luò)而設(shè)計。
與在 CPU 上運行邊緣 AI 模型相比,使用 NPU 可提升速度與效率,從而降低延遲、讓應用響應更靈敏,并減少功耗。正因如此,NPU 常被稱作 “AI 加速器” 硬件。
NPU 對加速更大、更復雜的神經(jīng)網(wǎng)絡(luò)通常效果更顯著。當網(wǎng)絡(luò)變得更小、效率更高時,加速帶來的收益會隨之減弱。
Neuton 模型默認情況下遠比即使是最優(yōu)優(yōu)化的 TensorFlow Lite 模型還要小巧、高效,這意味著在 NPU 上運行 Neuton 模型并不會帶來顯著的性能提升。
因此,當 Nordic 在 2026 年推出首款集成 NPU 的產(chǎn)品時,將不支持 Neuton 模型,而是采用 TensorFlow Lite 等開放框架,適用于一系列更高級的 AI 應用場景。
如何創(chuàng)建定制Neuton模型
數(shù)據(jù)采集
為模型訓練采集優(yōu)質(zhì)數(shù)據(jù)集,無疑是構(gòu)建邊緣 AI 應用中最繁瑣、最關(guān)鍵的環(huán)節(jié)。
多少數(shù)據(jù)才算足夠?
需要多少個樣本、每個樣本包含多少數(shù)據(jù)點、以及需要多少名測試對象,高度取決于你的應用場景和所處的開發(fā)階段。
對于手勢識別(即分類)這類簡單的內(nèi)部概念驗證(POC),每種分類只需采集來自少數(shù)不同測試對象的 2~5 分鐘樣本 即可。
此外,還必須包含空閑狀態(tài)與隨機動作數(shù)據(jù),用于過濾掉與特定分類無關(guān)的動作,否則會導致模型出現(xiàn)過擬合。
若要制作更具代表性的原型,每個手勢通常需要 5~10 分鐘 的樣本,并且這些樣本應來自至少 5~10 名不同測試對象,以覆蓋一定程度的自然差異。
當為商用產(chǎn)品構(gòu)建最終量產(chǎn)模型時,對高質(zhì)量數(shù)據(jù)集的要求會顯著提高。
適用于量產(chǎn)模型的優(yōu)質(zhì)數(shù)據(jù)集,通常需要選取具有代表性的人群,即 20 到數(shù)百名測試對象。
不過,每位測試對象提供 5~10 分鐘 的樣本依然足夠。
數(shù)據(jù)采集的關(guān)鍵注意事項
所有樣本必須使用相同的采樣頻率。具體頻率取決于所使用的傳感器以及需要識別的動作模式。
單次采集過程中,只生成一個樣本。以手勢識別為例,即同一人在整個采集時段內(nèi)只做一種手勢,且不被打斷。同時應剔除樣本開頭與結(jié)尾幾秒的數(shù)據(jù),保證整段樣本的一致性。
采集的樣本為 CSV 文件:傳感器的各路輸出單獨占一列,另有一列標識該樣本所屬的分類。CSV 中的每一行代表一個數(shù)據(jù)點。例如,以 50 Hz 采樣時,每秒會產(chǎn)生 50 行數(shù)據(jù)。所有樣本單獨采集后,合并到同一個 CSV 文件中,構(gòu)成完整數(shù)據(jù)集。CSV 文件的第一行必須是表頭,說明每一列存儲的數(shù)據(jù)類型。
對于離散型數(shù)據(jù)(如非連續(xù)的手勢識別),數(shù)據(jù)在采樣窗口內(nèi)居中對齊也非常重要。
Edge AI Lab 工作流程
數(shù)據(jù)上傳
當你采集到高質(zhì)量的數(shù)據(jù)集后,訪問ai.lab.nordicsemi.com并登錄。創(chuàng)建一個新方案,并選擇任務(wù)類型。目前支持三種任務(wù)類型:回歸、分類和異常檢測。
分類模型是一種監(jiān)督學習模型,它基于已標注數(shù)據(jù)的樣本進行訓練,每個標簽對應一個獨立類別。訓練完成后,模型可識別新數(shù)據(jù)所屬的類別,手勢識別就是典型例子。
異常檢測模型屬于無監(jiān)督學習模型。使用不含異常的正常數(shù)據(jù)進行訓練,模型可識別出超出正常范圍的異常數(shù)據(jù)。典型應用如預測性維護 —— 僅用正常運行設(shè)備的數(shù)據(jù)訓練,卻能識別即將故障的設(shè)備。
回歸模型同樣屬于監(jiān)督學習模型,通過標注數(shù)據(jù)訓練,以預測溫度這類連續(xù)變量的數(shù)值。
將 CSV 格式的數(shù)據(jù)集拖放上傳即可。上傳完成后,界面會展示識別到的數(shù)據(jù)集概覽。
對于回歸和分類模型,需要選擇一列作為標注數(shù)據(jù)的目標列;
對于異常檢測模型,數(shù)據(jù)無標簽,因此無需設(shè)置目標列。
預處理與模型參數(shù)
上傳數(shù)據(jù)后,將進入訓練流程。對于大多數(shù)項目,需要在此處啟用信號處理與特征提取功能。信號處理環(huán)節(jié)需要選擇窗口大小,它決定了每次推理所使用的輸入數(shù)據(jù)量,同時也是推理輸出的最小頻率。例如,如果你希望每秒輸出一次新結(jié)果,就需要輸入采樣頻率并將窗口設(shè)為 1 秒,或者輸入數(shù)據(jù)集中相當于 1 秒的行數(shù)。但最重要的是:所選窗口大小必須能完整包含你要分類的目標事件。你也可以通過設(shè)置不同的滑動步長,選擇重疊窗口或在窗口之間保留時間間隔。
特征提取設(shè)置用于選擇數(shù)據(jù)集中哪些特征將被用于訓練模型。啟用「特征選擇」功能后,框架會自動舍棄對模型精度無貢獻的特征,從而減小模型體積并提升運行效率。
注意: 如果選擇了任何頻域特征,則窗口大小必須為 2 的冪次,每個窗口的采樣點數(shù)在 128 到 2048 之間。
數(shù)據(jù)類型會根據(jù)數(shù)據(jù)集內(nèi)容自動檢測。你也可以手動覆蓋該設(shè)置,但請注意:必須選擇能覆蓋你所使用的范圍最大的數(shù)據(jù)類型。
例如:
如果數(shù)據(jù)集中同時包含 int8 和 float32,則需選擇 float32;
如果同時包含 int8 和 int16,則需選擇 int16。
訓練前的最后一步是選擇模型設(shè)置與目標硬件。你需要再次選擇當前執(zhí)行的任務(wù)類型:回歸、二分類或多分類。
在評估指標選項中,你可以選擇下一步中顯示的主要指標。不過所有指標都會被完整計算,因此在訓練完成后,你可以輕松切換想要查看的評估指標。
默認情況下,“權(quán)重與系數(shù)” 設(shè)置會與您的輸入數(shù)據(jù)集保持一致。它決定了模型中權(quán)重和系數(shù)的存儲格式。您可以手動覆蓋該設(shè)置,選擇更低的位深有助于最小化最終模型的體積。
對于量化設(shè)置,請選擇與權(quán)重和系數(shù)相匹配的選項。
輸出設(shè)置決定了每次推理結(jié)果的概率分數(shù)以何種格式輸出。浮點類型會直接給出概率值(0 到 1),而 8 位和 16 位則會輸出對應數(shù)據(jù)類型范圍內(nèi)的整數(shù)值(分別為 0 到 255 和 0 到 65535),如有需要,可在應用程序中將其轉(zhuǎn)換為百分比。
對于大多數(shù)項目,無需設(shè)置任何訓練停止選項。不過,系統(tǒng)提供了相關(guān)選項,可用于設(shè)置訓練的最長耗時以及模型的最高精度上限。
對于使用現(xiàn)有硬件的項目,請選擇 Arm Cortex?M33 作為目標內(nèi)核。該應用內(nèi)核搭載于所有 nRF91 系列 SiP、nRF53 系列以及 nRF54 系列 SoC 中。
Arm Cortex?M4 選項適用于 nRF52 系列;如果您在使用老舊的 nRF51 系列開發(fā)套件,則可以選擇 Arm Cortex?M0。但完全不建議將其用于任何新設(shè)計。
隨后,點擊 “開始訓練” 按鈕,系統(tǒng)會提供選項,讓您在訓練完成時通過短信接收通知。
評估生成的模型
訓練完成后,在 “方案選項” 界面中,您可以選擇要為項目下載的模型變體。所有生成的模型變體都會顯示在一張圖表上,其中X 軸為準確率,Y 軸為模型體積。通常,選擇準確率僅略低于最高(但通常體積也最大)的變體,可以大幅減小模型體積。圖表右側(cè)會顯示所選變體的預估準確率,以及 RAM 和非易失性存儲器(NVM)占用情況。界面還提供模型質(zhì)量圖表、特征重要性和混淆矩陣板塊,為具備相關(guān)解讀技能與經(jīng)驗的人員提供所選模型變體的深度分析信息。
在應用中集成Neuton模型
Edge AI 擴展組件
為簡化 Neuton 模型在應用中的集成流程,nRF Connect SDK 提供了 Edge AI 擴展組件。該組件包含四大核心部分:nRF Edge AI 庫,回歸示例,分類示例異常檢測示例。
nRF Edge AI 庫包含 nRF Edge AI Runtime 模塊—— 這是一個 C 語言庫,提供用于初始化和運行在 Edge AI Lab 中生成的定制 Neuton 模型的接口。它還包含用于數(shù)據(jù)處理的 DSP 模塊,以及獨立的神經(jīng)網(wǎng)絡(luò)模塊,可運行基于 Neuton 或其他框架的浮點型與量化型 AI 模型。
擴展組件的安裝
訪問網(wǎng)站
https://nrfconnect.github.io/ncs-app-index/
找到 Nordic Semiconductor 推出的 Edge AI 擴展組件。點擊藍色的在 nRF Connect for VS Code 中打開按鈕,再點擊瀏覽器中的彈出提示以啟動 VS Code。在 VS Code 中彈出授權(quán)提示時,允許 nRF Connect SDK for VS Code 擴展程序打開該鏈接即可。
你也可以通過west 命令行或nRF Connect for VS Code 圖形界面手動安裝該擴展組件,詳細操作說明可參閱官方文檔。
構(gòu)建邊緣 AI 應用
構(gòu)建新應用時,最簡單的方法是將 SDK 中的任一固件示例作為參考與起點。這些示例會演示如何調(diào)用相關(guān) API,向 Neuton 模型輸入數(shù)據(jù)并解析輸出結(jié)果。
三項核心功能調(diào)用即可完成關(guān)鍵任務(wù),它們均屬于 nRF Edge AI 庫中的 nRF Edge AI 運行時模塊:
nrf_edgeai_init()— 初始化邊緣 AI 模型的運行環(huán)境
nrf_edgeai_feed_inputs()— 將傳感器原始數(shù)據(jù)輸入 Neuton 模型
nrf_edgeai_run_inference()— 對輸入數(shù)據(jù)執(zhí)行推理,返回對應模型類型的預測結(jié)果,以及用于評估預測置信度的指標
如果你是 nRF Connect SDK 新手,不妨學習Nordic 開發(fā)者學院中的 nRF Connect SDK 基礎(chǔ)課程。這是一門自主進度、動手實踐的在線課程,專注于講解使用 nRF Connect SDK 進行固件開發(fā)的必備知識與技能。
結(jié)語
通過推出定制化 Neuton 模型,Nordic 讓邊緣 AI 惠及更廣泛的開發(fā)者。以往需要在 TensorFlow 中借助復雜 Python 工具鏈手動搭建神經(jīng)網(wǎng)絡(luò),并手動優(yōu)化、壓縮、將 TensorFlow 網(wǎng)絡(luò)轉(zhuǎn)換為 LiteRT 兼容模型,這些令人望而生畏的工作如今已成為過去。
嵌入式開發(fā)者現(xiàn)在可以直接從數(shù)據(jù)采集過渡到應用集成,幾乎不需要掌握數(shù)據(jù)科學相關(guān)知識。此外,這類超高效率的模型可以在任意 Nordic SoC 的 CPU 上運行,不受內(nèi)存大小限制。這意味著,無論你的技術(shù)背景如何、使用哪款芯片,定制 Neuton 模型都可以成為你的選擇。
這篇博客僅觸及皮毛;我們鼓勵你深入研讀 Neuton 模型文檔及相關(guān) SDK 示例。祝建模愉快!
-
SDK
+關(guān)注
關(guān)注
3文章
1113瀏覽量
52078 -
Nordic
+關(guān)注
關(guān)注
9文章
272瀏覽量
49152 -
邊緣AI
+關(guān)注
關(guān)注
1文章
272瀏覽量
6220
原文標題:【儒卓力為您帶來Nordic博文分享系列】邊緣AI新選擇:定制Neuton模型,實現(xiàn)超低功耗
文章出處:【微信號:儒卓力,微信公眾號:儒卓力】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
Nordic 推出nRF Connect for Cloud 的無線物聯(lián)網(wǎng)設(shè)計方案
Nordic nRF5 SDK和softdevice介紹
Nordic nRF Connect SDK 官方開發(fā)文檔、學習資料下載鏈接
Nordic收購 Neuton.AI 關(guān)于產(chǎn)品技術(shù)的分析
超小型Neuton機器學習模型, 在任何系統(tǒng)級芯片(SoC)上解鎖邊緣人工智能應用.
利用超微型 Neuton ML 模型解鎖 SoC 邊緣人工智能
Nordic無線開發(fā)---nRF Connect SDK 3.0更新版的安裝入門介紹
深度技術(shù)解析低功耗藍牙廠商nordic的nRF Connect SDK裸機選項方案
NORDIC藍牙芯片NRF54l15的dsp庫支持分享
使用NORDIC AI的好處
Nordic 收購 Neuton.AI # Neuton ML 模型解鎖 SoC 邊緣人工智能
nRF Connect SDK Basic
【Nordic隨筆】從零開始學習使用nRF Connect SDK(一、安裝ncs3.2.0步驟)
Nordic定制Neuton模型集成到nRF Connect SDK應用中的完整流程
評論