日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

使用OpenClaw和NVIDIA NemoClaw構(gòu)建本地AI智能體

麗臺科技 ? 來源:麗臺科技 ? 2026-05-16 09:20 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

智能體正在從問答系統(tǒng)發(fā)展為長期運行的自主助手,可讀取文件、調(diào)用 API 并驅(qū)動多步驟工作流。但是,部署智能體來執(zhí)行代碼和使用工具而不進行適當(dāng)隔離會帶來真正的風(fēng)險,尤其是在使用第三方云基礎(chǔ)設(shè)施時,由于數(shù)據(jù)隱私和控制的原因。

NVIDIA NemoClaw 是一個開源參考堆棧,通過編排NVIDIA OpenShell來運行OpenClaw,一個自托管網(wǎng)關(guān),可將消息傳遞平臺與由 NVIDIA Nemotron 等開放模型驅(qū)動的 AI 編碼智能體相連接。NemoClaw 增加了引導(dǎo)式載入、生命周期管理、圖像強化和版本化藍圖,提供了從模型推理到更安全的交互式智能體部署的完整流程。

本教程將介紹如何在 NVIDIA DGX Spark 上部署 NemoClaw,從配置運行時環(huán)境和在本地提供模型,到安裝 NemoClaw 堆棧并將其連接到 Telegram 以進行遠程訪問,不一而足。您將構(gòu)建一個在硬件上運行的本地沙盒 AI 助手,可通過任何 Telegram 客戶端訪問。

模型和代碼的快速鏈接

訪問本教程的以下資源:

* 軟件和模型:

DGX Spark 上搭載 NVIDIA Nemotron 3 Super 和 Telegram 的 NemoClaw:關(guān)于使用本地推理設(shè)置 NemoClaw 的端到端指南。

NVIDIA Build 上的 NVIDIA Nemotron 3 Super 120B:教程中使用的模型。

代碼和文檔:

NVIDIA NemoClaw 文檔:配置、策略和高級部署的完整參考。(https://docs.nvidia.com/nemoclaw/)(復(fù)制鏈接至瀏覽器打開,下同)

GitHub 上的 NVIDIA NemoClaw:源代碼和社區(qū)貢獻。(https://github.com/NVIDIA/NemoClaw)

NVIDIA DGX Spark:硬件規(guī)格和開發(fā)者資源。(https://www.nvidia.cn/products/workstations/dgx-spark/)

預(yù)備知識

有關(guān)完整的設(shè)置說明,請在網(wǎng)站訪問適用于 NemoClaw 的 DGX Spark 劇本,或者無需硬件即可開始使用。

如果您計劃使用其他設(shè)備,我們將在文檔中列出的替代部署設(shè)備上對 NemoClaw 進行測試和驗證,請檢查 API/VLLM 功能。

開始設(shè)置之前,請確保滿足以下要求:

硬件:運行 Ubuntu 24.04 LTS 的 DGX Spark (GB10) 系統(tǒng),以及最新的 NVIDIA 驅(qū)動程序。

Docker:28.x 版本或更高版本,配置了 NVIDIA 容器運行時 (將在下一節(jié)中介紹)。

Ollama:安裝為本地模型服務(wù)引擎。

Telegram 機器人詞元:通過 Telegram 的 BotFather 創(chuàng)建 (詳情請參閱 Telegram 集成部分)。

預(yù)計時間:大約 20 – 30 分鐘的活動設(shè)置時間,以及 15 – 30 分鐘的初始模型下載時間(約 87 GB),具體取決于網(wǎng)絡(luò)帶寬。

以下命令可驗證系統(tǒng)就緒情況:

head-n 2 /etc/os-release  # Expected: Ubuntu 24.04
nvidia-smi          # Expected: NVIDIA GB10 GPU
docker info --format'{{.ServerVersion}}'# Expected: 28.x+

NemoClaw 組件

在構(gòu)建沙盒助手之前,務(wù)必要了解此環(huán)境中使用的軟件。

a22ce9ba-4f45-11f1-90a1-92fbcf53809c.png

表 1. NVIDIA NemoClaw 堆棧的架構(gòu)組件

安全注意事項:雖然 OpenShell 提供了強大的隔離功能,但請記住,沒有任何沙盒能夠針對高級提示注入提供全面保護。在測試新工具時,始終在獨立系統(tǒng)上進行部署。

我們開始吧。

配置運行時

DGX Spark 需要幾個 Docker 配置步驟來支持具有適當(dāng)隔離設(shè)置的 GPU 加速容器。首先,通過 Docker 注冊 NVIDIA 容器運行時:

sudonvidia-ctk runtime configure --runtime=docker

接下來,將 cgroup 命名空間模式設(shè)置為host。此配置是 DGX Spark 正常處理容器化工作負載所必需的:

sudopython3 -c"
import json, os
path = '/etc/docker/daemon.json'
d = json.load(open(path)) if os.path.exists(path) else {}
d['default-cgroupns-mode'] = 'host'
json.dump(d, open(path, 'w'), indent=2)
"
Restart Docker to apply the changes and verify that the NVIDIA runtime is functioning:
sudosystemctl restart docker
docker run --rm--runtime=nvidia --gpus all ubuntu nvidia-smi

輸出應(yīng)顯示 GB10 GPU。為避免后續(xù) Docker 命令需要sudo,請將當(dāng)前用戶添加到 Docker 組:

sudousermod -aG docker$USER
newgrp docker

安裝 Ollama

Ollama 是一個輕量級模型服務(wù)引擎,用于在本地運行大語言模型。使用官方安裝程序進行安裝:

curl-fsSL https://ollama.com/install.sh | sh

默認情況下,Ollama 僅會在本地主機上偵聽。由于 NemoClaw 智能體在沙盒中運行,并且擁有自己的網(wǎng)絡(luò)命名空間,因此它必須跨越網(wǎng)絡(luò)邊界到達 Ollama。將 Ollama 配置為在所有接口上偵聽:

sudomkdir-p /etc/systemd/system/ollama.service.d 
printf'[Service]
Environment="OLLAMA_HOST=0.0.0.0"
'|   
sudotee/etc/systemd/system/ollama.service.d/override.conf
sudosystemctl daemon-reload                 
sudosystemctl restart ollama

驗證 Ollama 是否在所有接口上運行并可訪問:

curlhttp://0.0.0.0:11434

重要提示:只能通過 systemd 啟動 Ollama。手動啟動的 Ollama 進程不會接收 OLLAMA_HOST = 0.0.0.0 優(yōu)設(shè),并且 NemoClaw 沙盒無法到達推理服務(wù)器。

sudosystemctl restart ollama

接下來,拉取 Nemotron 3 Super 120B 模型。下載約為 87 GB:

ollamapull nemotron-3-super:120b

下載完成后,將模型權(quán)重預(yù)加載到 GPU 顯存中,以避免首次智能體交互出現(xiàn)冷啟動延遲:

ollamarun nemotron-3-super:120b

加載模型并給出提示后,使用/bye退出會話。權(quán)重仍將緩存在內(nèi)存中。確認模型可用:

ollamalist
# You should see something like
NAME           ID       SIZE   MODIFIED  

安裝 NemoClaw

基礎(chǔ)準備就緒后,只需一條命令即可安裝 NemoClaw:

curl-fsSL https://www.nvidia.com/nemoclaw.sh | bash

安裝程序提供 Node.js 依賴項、OpenShell 運行時和 NemoClaw CLI,然后啟動載入向?qū)?。向?qū)⑻崾灸x擇以下配置選項:

沙盒名稱:指定帶連字符的小寫字母和數(shù)字名稱(例如my-assistant)。所有后續(xù)命令均使用此名稱。

推理提供程序:選擇 Local Ollama(本地 Ollama)(選項 7),將推理路由到本地 Ollama 實例。

模型:選擇nemotron-3-super:120b(選項 1)。

策略預(yù)設(shè):如果您接受默認策略,請按 Y。這些預(yù)設(shè)可配置沙盒的文件系統(tǒng)和網(wǎng)絡(luò)限制。

Telegram 集成:您可以選擇在入門向?qū)У牡?5 步中配置 Telegram 機器人。

入職流程結(jié)束后,安裝程序會以http://127.0.0.1:18789/#token=的格式顯示標記化的 Web UI URL。記錄此 URL,因為它是將來訪問 Web 控制面板所必需的,并且不會再次顯示。

如果安裝后nemoclaw命令無法識別,請重新加載 shell 環(huán)境,以便在未來的所有會話中啟用該命令:

source~/.bashrc

驗證設(shè)置

連接到沙盒并驗證智能體能否到達推理后端:

nemoclawmy-assistantconnect

此命令返回模型信息,確認沙盒環(huán)境可以與 Ollama 通信。接下來,通過智能體發(fā)送測試消息:

openclaw agent--agentmain--local-m "hello"--session-idtest

如果配置正確,NVIDIA Nemotron 3 Super 會生成響應(yīng)。請注意,使用 120B 模型進行推理時,每個響應(yīng)通常需要 30 – 90 秒,對于運行本地推理的這種規(guī)模的模型,預(yù)計需要 30 – 90 秒。

交互式終端 UI 提供更具對話性的測試體驗:

openclawtui

完成后,使用Ctrl+C退出終端 UI。

訪問 Web UI

要在本地訪問 Web 控制面板,請退出沙盒,然后打開載入過程中記錄的標記化 URL:

exit

然后在瀏覽器中導(dǎo)航至 http://127.0.0.1:18789/#詞元=** long-詞元-here >。

從另一臺機器進行遠程訪問。如果您要通過網(wǎng)絡(luò)而非直接訪問 DGX Spark,則需要進行其他配置。首先,確定 Spark 的 IP 地址:

hostname-I | awk'{print$1}'

通過 Spark 的終端會話啟動端口轉(zhuǎn)發(fā):

openshell forwardstart18789my-assistant--background

在遠程機器中,創(chuàng)建通往 Spark 的 SSH 隧道:

ssh-L18789:127.0.0.1:18789@

激活隧道后,在遠程機器的瀏覽器中打開 http://127.0.0.1:18789/#詞元=** long-詞元-here >。

注意:僅使用127.0.0.1。localhost可能會導(dǎo)致“origin not allowed”錯誤。

連接到 Telegram

Telegram 集成將助手擴展到本地終端之外,使其可以通過具有 Telegram 客戶端的任何設(shè)備進行訪問。

創(chuàng)建 Telegram 機器人

打開 Telegram 并搜索 BotFather 以管理您的機器人。開始對話并使用/newbot命令。@BotFather 會指導(dǎo)您命名機器人,并在完成后提供 API 詞元。保存此詞元以執(zhí)行以下配置步驟。

注意:如果您在 NemoClaw 載入向?qū)С绦蛑信渲昧?Telegram,則 Telegram 已在沙盒中運行。

如果您在入門期間未配置 Telegram,請使用詞元設(shè)置重新運行入門向?qū)?。這將使用烘焙的 Telegram 重建沙盒。機器人詞元已在 OpenShell 網(wǎng)關(guān)中注冊,不會直接進入沙盒。

exportTELEGRAM_BOT_TOKEN=
nemoclaw onboard   

驗證集成

打開 Telegram,找到機器人,然后發(fā)送消息。首次接觸時,OpenClaw 需要配對。機器人將使用配對代碼作出響應(yīng):

OpenClaw: access not configured.
Your Telegram user id:
Pairing code:

在沙盒內(nèi)批準配對:

nemoclawmy-assistantconnect
openclaw pairing approve telegram 
exit

在 Telegram 中發(fā)送另一條消息。在推理延遲窗口后,機器人應(yīng)返回由 NVIDIA Nemotron 3 Super 生成的響應(yīng)。

此時,部署已完成。AI 助手完全在 NVIDIA DGX Spark 上運行,沙盒由 OpenShell 提供,由 120B 開放模型提供動力支持,并可通過 Telegram 遠程訪問。所有推理均在本地進行,數(shù)據(jù)不會離開設(shè)備,運行時也不存在外部服務(wù)依賴項。

可以引用哪些命令進行部署?

以下命令對于持續(xù)管理 NemoClaw 部署非常有用。

a2915a80-4f45-11f1-90a1-92fbcf53809c.png

表 2. 用于編排、監(jiān)控和訪問 NemoClaw 智能體環(huán)境的命令

用于徹底卸載的命令

對于清理和卸載,NemoClaw 在~/.nemoclaw/source/uninstall.sh提供了卸載程序。請參閱 nvidia.com 說明頁面,了解有關(guān)清理標志和排除常見問題的詳細信息。

通過策略審批擴展智能體訪問權(quán)限

默認情況下,沙盒會將智能體限制為一組有限的網(wǎng)絡(luò)端點。當(dāng)您要求智能體執(zhí)行需要外部服務(wù)的操作時。

例如,在獲取網(wǎng)頁或調(diào)用第三方 API 時,OpenShell 會阻止請求,智能體會報告網(wǎng)絡(luò)訪問不可用。

要查看此操作,請在主機上的一個終端中打開 OpenShell TUI:

openshellterm

在第二個終端中,連接到沙盒并開始對話:

openclawtui

要求智能體執(zhí)行“use curl to fetch https://httpbin.org/get”等操作。

代理會嘗試請求,OpenShell 會阻止該請求,TUI 會顯示已阻止的與目標主機、端口和發(fā)起該請求的二進制文件的連接。

在 TUI 中,您可以批準當(dāng)前會話的請求,也可以拒絕該請求以阻止端點。

如果要永久添加端點,請使用主機的策略預(yù)設(shè):

nemoclaw my-assistant policy-add

此審批流程可讓您實時查看和控制智能體可以訪問的內(nèi)容,而無需修改基本策略或重啟沙盒。

開始使用

立即開始使用 NVIDIA NemoClaw 進行構(gòu)建。

通過訂閱 NVIDIA 新聞并在 LinkedIn、X、Discord 和 YouTube 上關(guān)注 NVIDIA AI,及時了解 NVIDIA NemoClaw。

請訪問 NemoClaw 頁面(https://www.nvidia.cn/ai/nemoclaw/),獲取入門資源。在 GitHub 上探索 NemoClaw。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5717

    瀏覽量

    110197
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    41734

    瀏覽量

    302932
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3855

    瀏覽量

    52310

原文標題:使用 OpenClaw 和 NVIDIA NemoClaw 構(gòu)建更安全、始終運行的本地 AI 智能體

文章出處:【微信號:Leadtek,微信公眾號:麗臺科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    OPi 6Plus全面適配OpenClaw

    引爆AI智能時代!OPi 6Plus全面適配OpenClaw 你的AI助手,昨天還在幫你查資料,今天已經(jīng)能自己寫代碼、回郵件,甚至計劃“賺
    發(fā)表于 02-06 20:00

    OPi RK3588/RK3588S系列產(chǎn)品全面適配Openclaw,智能“人人可及”時代正式開啟

    領(lǐng)域表現(xiàn)突出,更在AI智能本地化部署中展現(xiàn)出卓越的能效比。OpenClaw在RK3588/RK3588S平臺上的流暢運行,印證了其在終端側(cè)
    發(fā)表于 02-10 17:43

    香橙派全志系列開發(fā)板適配OpenClaw教程

    普惠新篇章:香橙派全志系列開發(fā)板全面擁抱OpenClaw時代 AI智能正加速從概念走向普及,但高性能硬件的門檻是否讓許多創(chuàng)新者望而卻步?香橙派全志系列開發(fā)板現(xiàn)已全面適配
    發(fā)表于 02-25 18:29

    小藝開放平臺OpenClaw接入

    OpenClaw部署在個人的主力電腦中,否則可能對本地電腦數(shù)據(jù)的安全造成影響。 二、創(chuàng)建OpenClaw智能 參考創(chuàng)建
    發(fā)表于 04-08 14:33

    【幸狐Omni3576邊緣計算套件試用體驗】OpenClaw 板端部署

    OpenClaw 是奧地利程序員 Peter Steinberger 開發(fā)的開源 AI 智能,于2025年11月推出。 該智能
    發(fā)表于 04-19 20:56

    企業(yè)使用NVIDIA NeMo微服務(wù)構(gòu)建AI智能平臺

    已發(fā)布的 NeMo 微服務(wù)可與合作伙伴平臺集成,作為創(chuàng)建 AI 智能構(gòu)建模塊,使用商業(yè)智能與強大的邏輯推理模型 (包括
    的頭像 發(fā)表于 04-27 15:05 ?1543次閱讀

    龍芯中科3B6000M芯片成功部署OpenClaw開源AI智能

    當(dāng)開源AI智能 OpenClaw 的熱度席卷全球,開發(fā)者們正試圖將其塞進各種硬件載體——從賣斷貨的 Mac mini 到改造的舊手機。近日,一個振奮人心的消息在國產(chǎn)技術(shù)圈刷屏:基于龍
    的頭像 發(fā)表于 02-26 14:48 ?1116次閱讀

    軟通動力基于OpenClaw開源框架深度自研端側(cè)智能平臺

    隨著人工智能加速從云端下沉至終端、從被動交互邁向主動執(zhí)行,端側(cè)智能正成為定義智能硬件體驗的核心引擎。軟通動力基于OpenClaw開源框架深
    的頭像 發(fā)表于 02-27 11:48 ?958次閱讀

    基于OpenClawNVIDIA DGX Spark實戰(zhàn)部署本地最強AI組合

    OpenClaw(原 Clawdbot)正以驚人的速度席卷 GitHub。它不再是只會聊天的窗口,而是擁有“手腳”的 AI Agent:接管電腦、整理發(fā)票、監(jiān)控股票、秒回飛書。
    的頭像 發(fā)表于 03-02 15:42 ?3785次閱讀
    基于<b class='flag-5'>OpenClaw</b>和<b class='flag-5'>NVIDIA</b> DGX Spark實戰(zhàn)部署<b class='flag-5'>本地</b>最強<b class='flag-5'>AI</b>組合

    OpenClaw 落地新選擇!視美泰 AI 主機盒率先適配,打造人人能用的本地智能

    什么?簡單說,OpenClaw是一款能部署在本地的開源AI智能,主打一個“說句話就能干活”,打破了傳統(tǒng)
    的頭像 發(fā)表于 03-02 17:03 ?1740次閱讀
    <b class='flag-5'>OpenClaw</b> 落地新選擇!視美泰 <b class='flag-5'>AI</b> 主機盒率先適配,打造人人能用的<b class='flag-5'>本地</b><b class='flag-5'>智能</b><b class='flag-5'>體</b>

    在Arduino UNO Q開發(fā)板部署OpenClaw開源AI智能

    近期 OpenClaw 邊緣 AI 火遍開發(fā)者社區(qū),百元開發(fā)板跑 AI 智能的演示讓無數(shù)技術(shù)愛好者沸騰!想低成本上手這款開源
    的頭像 發(fā)表于 03-09 10:03 ?1559次閱讀
    在Arduino UNO Q開發(fā)板部署<b class='flag-5'>OpenClaw</b>開源<b class='flag-5'>AI</b><b class='flag-5'>智能</b><b class='flag-5'>體</b>

    瀚博半導(dǎo)體GPU云底座與一機方案支持OpenClaw開源AI智能框架

    瀚博半導(dǎo)體,以創(chuàng)新的GPU云底座與一機方案,支持OpenClaw開源AI智能框架,全天候運行AI
    的頭像 發(fā)表于 03-11 13:39 ?732次閱讀
    瀚博半導(dǎo)體GPU云底座與一<b class='flag-5'>體</b>機方案支持<b class='flag-5'>OpenClaw</b>開源<b class='flag-5'>AI</b><b class='flag-5'>智能</b><b class='flag-5'>體</b>框架

    觸覺智能Openclaw云盒BOX整機,內(nèi)置Clawbot AI智能!告別復(fù)雜配置開箱即用

    近期,AI圈里“養(yǎng)龍蝦”成了熱詞。這個從本地部署、調(diào)試和維護ClawbotAI智能,這過程充滿對環(huán)境、資源和精力的消耗,同時也存在個人隱私安全隱患。如果您厭倦了復(fù)雜的使用門檻,觸覺
    的頭像 發(fā)表于 03-13 17:39 ?2100次閱讀
    觸覺<b class='flag-5'>智能</b><b class='flag-5'>Openclaw</b>云盒BOX整機,內(nèi)置Clawbot <b class='flag-5'>AI</b><b class='flag-5'>智能</b><b class='flag-5'>體</b>!告別復(fù)雜配置開箱即用

    躍昉科技產(chǎn)品全面適配OpenClaw開源AI智能框架

    近期,開源AI智能框架OpenClaw在開發(fā)者社區(qū)迅速走紅。它讓AI從“對話”走向“執(zhí)行”——用戶只需設(shè)定目標,
    的頭像 發(fā)表于 03-18 17:17 ?1071次閱讀
    躍昉科技產(chǎn)品全面適配<b class='flag-5'>OpenClaw</b>開源<b class='flag-5'>AI</b><b class='flag-5'>智能</b><b class='flag-5'>體</b>框架

    使用NVIDIA DGX Spark構(gòu)建本地AI智能

    在當(dāng)今 AI 智能技術(shù)爆發(fā)的時代,NVIDIA 的開源項目 NemoClaw 無疑是企業(yè)用戶和技術(shù)愛好者眼中的明星項目。它不僅繼承了
    的頭像 發(fā)表于 05-16 09:11 ?82次閱讀
    使用<b class='flag-5'>NVIDIA</b> DGX Spark<b class='flag-5'>構(gòu)建</b><b class='flag-5'>本地</b><b class='flag-5'>AI</b><b class='flag-5'>智能</b><b class='flag-5'>體</b>
    巫山县| 旌德县| 五家渠市| 车险| 黄冈市| 恩施市| 涡阳县| 乌拉特中旗| 洪湖市| 临夏县| 朝阳区| 广汉市| 固镇县| 霍林郭勒市| 齐河县| 沈丘县| 聂荣县| 乡宁县| 江川县| 衡水市| 启东市| 中牟县| 赞皇县| 新田县| 贵定县| 奇台县| 沙雅县| 民勤县| 扎囊县| 怀安县| 天祝| 汝州市| 房山区| 清徐县| 大方县| 涡阳县| 前郭尔| 阳城县| 平顶山市| 凯里市| 剑河县|