日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

TensorRT的功能與應(yīng)用分析

星星科技指導(dǎo)員 ? 來(lái)源:NVIDIA ? 作者:Ken He ? 2022-05-13 15:37 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本章概述了您可以使用 TensorRT 做什么。它旨在對(duì)所有 TensorRT 用戶有用。

2.1. C++ and Python APIs

TensorRT 的 API 具有 C++ 和 Python 的語(yǔ)言綁定,具有幾乎相同的功能。 Python API 促進(jìn)了與 Python 數(shù)據(jù)處理工具包和庫(kù)(如 NumPy 和 SciPy)的互操作性。 C++ API 可以更高效,并且可以更好地滿足某些合規(guī)性要求,例如在汽車應(yīng)用中。 注意: Python API 并非適用于所有平臺(tái)。

2.2. The Programming Model

TensorRT 構(gòu)建階段的最高級(jí)別接口是Builder ( C++ 、 Python )。構(gòu)建器負(fù)責(zé)優(yōu)化模型并生成Engine 。

為了構(gòu)建引擎,您需要:

創(chuàng)建網(wǎng)絡(luò)定義

為builder指定配置

調(diào)用builder創(chuàng)建引擎

NetworkDefinition接口( C++ 、 Python )用于定義模型。將模型傳輸?shù)?TensorRT 的最常見途徑是以 ONNX 格式從框架中導(dǎo)出模型,并使用 TensorRT 的 ONNX 解析器來(lái)填充網(wǎng)絡(luò)定義。但是,您也可以使用 TensorRT 的Layer ( C++ , Python ) 和Tensor ( C++ , Python ) 接口逐步構(gòu)建定義。

無(wú)論您選擇哪種方式,您還必須定義哪些張量是網(wǎng)絡(luò)的輸入和輸出。未標(biāo)記為輸出的張量被認(rèn)為是可以由構(gòu)建器優(yōu)化掉的瞬態(tài)值。輸入和輸出張量必須命名,以便在運(yùn)行時(shí),TensorRT 知道如何將輸入和輸出緩沖區(qū)綁定到模型。

BuilderConfig接口( C++ 、 Python )用于指定TensorRT如何優(yōu)化模型。在可用的配置選項(xiàng)中,您可以控制 TensorRT 降低計(jì)算精度的能力,控制內(nèi)存和運(yùn)行時(shí)執(zhí)行速度之間的權(quán)衡,以及限制對(duì) CUDA ?內(nèi)核的選擇。由于構(gòu)建器可能需要幾分鐘或更長(zhǎng)時(shí)間才能運(yùn)行,因此您還可以控制構(gòu)建器搜索內(nèi)核的方式,以及緩存搜索結(jié)果以供后續(xù)運(yùn)行使用。

一旦有了網(wǎng)絡(luò)定義和構(gòu)建器配置,就可以調(diào)用構(gòu)建器來(lái)創(chuàng)建引擎。構(gòu)建器消除了無(wú)效計(jì)算、折疊常量、重新排序和組合操作以在 GPU 上更高效地運(yùn)行。它可以選擇性地降低浮點(diǎn)計(jì)算的精度,方法是簡(jiǎn)單地在 16 位浮點(diǎn)中運(yùn)行它們,或者通過量化浮點(diǎn)值以便可以使用 8 位整數(shù)執(zhí)行計(jì)算。它還使用不同的數(shù)據(jù)格式對(duì)每一層的多次實(shí)現(xiàn)進(jìn)行計(jì)時(shí),然后計(jì)算執(zhí)行模型的最佳時(shí)間表,從而最大限度地降低內(nèi)核執(zhí)行和格式轉(zhuǎn)換的綜合成本。

構(gòu)建器以稱為計(jì)劃的序列化形式創(chuàng)建引擎,該計(jì)劃可以立即反序列化,或保存到磁盤以供以后使用。

注意:

TensorRT 創(chuàng)建的引擎特定于創(chuàng)建它們的 TensorRT 版本和創(chuàng)建它們的 GPU。

TensorRT 的網(wǎng)絡(luò)定義不會(huì)深度復(fù)制參數(shù)數(shù)組(例如卷積的權(quán)重)。因此,在構(gòu)建階段完成之前,您不得釋放這些陣列的內(nèi)存。使用 ONNX 解析器導(dǎo)入網(wǎng)絡(luò)時(shí),解析器擁有權(quán)重,因此在構(gòu)建階段完成之前不得將其銷毀。

構(gòu)建器時(shí)間算法以確定最快的。與其他 GPU 工作并行運(yùn)行構(gòu)建器可能會(huì)擾亂時(shí)序,導(dǎo)致優(yōu)化不佳。

2.2.2. The Runtime Phase

TensorRT 執(zhí)行階段的最高級(jí)別接口是Runtime( C++ 、 Python )。 使用運(yùn)行時(shí)時(shí),您通常會(huì)執(zhí)行以下步驟:

反序列化創(chuàng)建引擎的計(jì)劃(plan 文件)

從引擎創(chuàng)建執(zhí)行上下文(context) 然后,反復(fù):

填充輸入緩沖區(qū)以進(jìn)行推理

調(diào)用enqueue()或execute()以運(yùn)行推理

Engine接口( C++ 、 Python )代表一個(gè)優(yōu)化模型。您可以查詢引擎以獲取有關(guān)網(wǎng)絡(luò)輸入和輸出張量的信息——預(yù)期的維度、數(shù)據(jù)類型、數(shù)據(jù)格式等。

ExecutionContext接口( C++ 、 Python )是調(diào)用推理的主要接口。執(zhí)行上下文包含與特定調(diào)用關(guān)聯(lián)的所有狀態(tài) – 因此您可以擁有與單個(gè)引擎關(guān)聯(lián)的多個(gè)上下文,并并行運(yùn)行它們。

調(diào)用推理時(shí),您必須在適當(dāng)?shù)奈恢迷O(shè)置輸入和輸出緩沖區(qū)。根據(jù)數(shù)據(jù)的性質(zhì),這可能在 CPU 或 GPU 內(nèi)存中。如果根據(jù)您的模型不明顯,您可以查詢引擎以確定在哪個(gè)內(nèi)存空間中提供緩沖區(qū)。

設(shè)置緩沖區(qū)后,可以同步(執(zhí)行)或異步(入隊(duì))調(diào)用推理。在后一種情況下,所需的內(nèi)核在 CUDA 流上排隊(duì),并盡快將控制權(quán)返回給應(yīng)用程序。一些網(wǎng)絡(luò)需要在 CPU 和 GPU 之間進(jìn)行多次控制傳輸,因此控制可能不會(huì)立即返回。要等待異步執(zhí)行完成,請(qǐng)使用cudaStreamSynchronize在流上同步。

2.3. Plugins

TensorRT 有一個(gè)Plugin接口,允許應(yīng)用程序提供 TensorRT 本身不支持的操作的實(shí)現(xiàn)。在轉(zhuǎn)換網(wǎng)絡(luò)時(shí),ONNX 解析器可以找到使用 TensorRT 的PluginRegistry創(chuàng)建和注冊(cè)的插件。

TensorRT 附帶一個(gè)插件庫(kù),其中許多插件和一些附加插件的源代碼可以在此處找到。

請(qǐng)參閱使用自定義層擴(kuò)展 TensorRT一章。

2.4. Types and Precision

TensorRT 支持使用 FP32、FP16、INT8、Bool 和 INT32 數(shù)據(jù)類型的計(jì)算。 當(dāng) TensorRT 選擇 CUDA 內(nèi)核在網(wǎng)絡(luò)中實(shí)現(xiàn)浮點(diǎn)運(yùn)算時(shí),它默認(rèn)為 FP32 實(shí)現(xiàn)。有兩種方法可以配置不同的精度級(jí)別:

為了在模型級(jí)別控制精度, BuilderFlag選項(xiàng)( C++ 、 Python )可以向 TensorRT 指示它在搜索最快時(shí)可能會(huì)選擇較低精度的實(shí)現(xiàn)(并且因?yàn)檩^低的精度通常更快,如果允許的話,它通常會(huì))。 因此,您可以輕松地指示 TensorRT 為您的整個(gè)模型使用 FP16 計(jì)算。對(duì)于輸入動(dòng)態(tài)范圍約為 1 的正則化模型,這通常會(huì)產(chǎn)生顯著的加速,而準(zhǔn)確度的變化可以忽略不計(jì)。

對(duì)于更細(xì)粒度的控制,由于網(wǎng)絡(luò)的一部分對(duì)數(shù)值敏感或需要高動(dòng)態(tài)范圍,因此層必須以更高的精度運(yùn)行,可以為該層指定算術(shù)精度。

請(qǐng)參閱降低精度部分。

2.5. Quantization

TensorRT 支持量化浮點(diǎn),其中浮點(diǎn)值被線性壓縮并四舍五入為 8 位整數(shù)。這顯著提高了算術(shù)吞吐量,同時(shí)降低了存儲(chǔ)要求和內(nèi)存帶寬。在量化浮點(diǎn)張量時(shí),TensorRT 需要知道它的動(dòng)態(tài)范圍——即表示什么范圍的值很重要——量化時(shí)會(huì)鉗制超出該范圍的值。

動(dòng)態(tài)范圍信息可由構(gòu)建器根據(jù)代表性輸入數(shù)據(jù)計(jì)算(這稱為校準(zhǔn)–calibration)?;蛘?,您可以在框架中執(zhí)行量化感知訓(xùn)練,并將模型與必要的動(dòng)態(tài)范圍信息一起導(dǎo)入到 TensorRT。

請(qǐng)參閱使用 INT8章節(jié)。

2.6. Tensors and Data Formats

在定義網(wǎng)絡(luò)時(shí),TensorRT 假設(shè)張量由多維 C 樣式數(shù)組表示。每一層對(duì)其輸入都有特定的解釋:例如,2D 卷積將假定其輸入的最后三個(gè)維度是 CHW 格式 – 沒有選項(xiàng)可以使用,例如 WHC 格式。有關(guān)每個(gè)層如何解釋其輸入,請(qǐng)參閱TensorRT 網(wǎng)絡(luò)層一章。

請(qǐng)注意,張量最多只能包含 2^31-1 個(gè)元素。 在優(yōu)化網(wǎng)絡(luò)的同時(shí),TensorRT 在內(nèi)部執(zhí)行轉(zhuǎn)換(包括到 HWC,但也包括更復(fù)雜的格式)以使用盡可能快的 CUDA 內(nèi)核。通常,選擇格式是為了優(yōu)化性能,而應(yīng)用程序無(wú)法控制這些選擇。然而,底層數(shù)據(jù)格式暴露在 I/O 邊界(網(wǎng)絡(luò)輸入和輸出,以及將數(shù)據(jù)傳入和傳出插件),以允許應(yīng)用程序最大限度地減少不必要的格式轉(zhuǎn)換。

請(qǐng)參閱I/O 格式部分

2.7. Dynamic Shapes

默認(rèn)情況下,TensorRT 根據(jù)定義時(shí)的輸入形狀(批量大小、圖像大小等)優(yōu)化模型。但是,可以將構(gòu)建器配置為允許在運(yùn)行時(shí)調(diào)整輸入維度。為了啟用此功能,您可以在構(gòu)建器配置中指定一個(gè)或多個(gè)OptimizationProfile ( C++ 、 Python )實(shí)例,其中包含每個(gè)輸入的最小和最大形狀,以及該范圍內(nèi)的優(yōu)化點(diǎn)。

TensorRT 為每個(gè)配置文件創(chuàng)建一個(gè)優(yōu)化的引擎,選擇適用于 [最小、最大] 范圍內(nèi)的所有形狀的 CUDA 內(nèi)核,并且對(duì)于優(yōu)化點(diǎn)來(lái)說(shuō)是最快的——通常每個(gè)配置文件都有不同的內(nèi)核。然后,您可以在運(yùn)行時(shí)在配置文件中進(jìn)行選擇。

請(qǐng)參閱使用動(dòng)態(tài)形狀一章。

2.8. DLA

TensorRT 支持 NVIDIA 的深度學(xué)習(xí)加速器 (DLA),這是許多 NVIDIA SoC 上的專用推理處理器,支持 TensorRT 層的子集。 TensorRT 允許您在 DLA 上執(zhí)行部分網(wǎng)絡(luò),而在 GPU 上執(zhí)行其余部分;對(duì)于可以在任一設(shè)備上執(zhí)行的層,您可以在構(gòu)建器配置中逐層選擇目標(biāo)設(shè)備。

請(qǐng)參閱使用 DLA章節(jié)。

2.9. Updating Weights

在構(gòu)建引擎時(shí),您可以指定它可能需要稍后更新其權(quán)重。如果您經(jīng)常在不更改結(jié)構(gòu)的情況下更新模型的權(quán)重,例如在強(qiáng)化學(xué)習(xí)中或在保留相同結(jié)構(gòu)的同時(shí)重新訓(xùn)練模型時(shí),這將很有用。權(quán)重更新是通過Refitter ( C++ , Python ) 接口執(zhí)行的。

請(qǐng)參閱Refitting An Engine 部分。

2.10. trtexec

示例目錄中包含一個(gè)名為trtexec的命令行包裝工具。 trtexec是一種無(wú)需開發(fā)自己的應(yīng)用程序即可快速使用 TensorRT 的工具。 trtexec工具有三個(gè)主要用途:

在隨機(jī)或用戶提供的輸入數(shù)據(jù)上對(duì)網(wǎng)絡(luò)進(jìn)行基準(zhǔn)測(cè)試。

從模型生成序列化引擎。

從構(gòu)建器生成序列化時(shí)序緩存。

請(qǐng)參閱trtexec部分。

2.11. Polygraphy

Polygraphy 是一個(gè)工具包,旨在幫助在 TensorRT 和其他框架中運(yùn)行和調(diào)試深度學(xué)習(xí)模型。它包括一個(gè)Python API和一個(gè)使用此 API 構(gòu)建的命令行界面 (CLI) 。

除此之外,使用 Polygraphy,您可以:

在多個(gè)后端之間運(yùn)行推理,例如 TensorRT 和 ONNX-Runtime,并比較結(jié)果(例如API 、 CLI )

將模型轉(zhuǎn)換為各種格式,例如具有訓(xùn)練后量化的 TensorRT 引擎(例如API 、 CLI )

查看有關(guān)各種類型模型的信息(例如CLI )

在命令行上修改 ONNX 模型:

提取子圖(例如CLI )

簡(jiǎn)化和清理(例如CLI )

隔離 TensorRT 中的錯(cuò)誤策略(例如CLI )

關(guān)于作者

Ken He 是 NVIDIA 企業(yè)級(jí)開發(fā)者社區(qū)經(jīng)理 & 高級(jí)講師,擁有多年的 GPU 和人工智能開發(fā)經(jīng)驗(yàn)。自 2017 年加入 NVIDIA 開發(fā)者社區(qū)以來(lái),完成過上百場(chǎng)培訓(xùn),幫助上萬(wàn)個(gè)開發(fā)者了解人工智能和 GPU 編程開發(fā)。在計(jì)算機(jī)視覺,高性能計(jì)算領(lǐng)域完成過多個(gè)獨(dú)立項(xiàng)目。并且,在機(jī)器人無(wú)人機(jī)領(lǐng)域,有過豐富的研發(fā)經(jīng)驗(yàn)。對(duì)于圖像識(shí)別,目標(biāo)的檢測(cè)與跟蹤完成過多種解決方案。曾經(jīng)參與 GPU 版氣象模式GRAPES,是其主要研發(fā)者。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5696

    瀏覽量

    110140
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    5283

    瀏覽量

    136099
  • 人工智能
    +關(guān)注

    關(guān)注

    1821

    文章

    50366

    瀏覽量

    267056
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    探索LM25005評(píng)估板:功能、性能與使用要點(diǎn)

    探索LM25005評(píng)估板:功能、性能與使用要點(diǎn) 作為電子工程師,在電源轉(zhuǎn)換設(shè)計(jì)領(lǐng)域,不斷尋找高效、穩(wěn)定的解決方案至關(guān)重要。今天,我們就來(lái)深入探討一下TI公司的LM25005評(píng)估板,它為我們提供了一個(gè)
    的頭像 發(fā)表于 04-19 12:45 ?217次閱讀

    Altair HyperLife疲勞分析功能及車輛行業(yè)應(yīng)用

    議程疲勞與疲勞分析概述HyperLife軟件基本功能介紹車輛行業(yè)疲勞耐久分析方法及案例MotionSolve車輛動(dòng)態(tài)載荷分解HyperLife+MotionSolve疲勞分析案例疲勞與
    的頭像 發(fā)表于 03-18 10:27 ?1440次閱讀
    Altair HyperLife疲勞<b class='flag-5'>分析</b><b class='flag-5'>功能</b>及車輛行業(yè)應(yīng)用

    橫河DLM3000/5000示波器電源分析功能

    深圳市科瑞杰科技有限公司-橫河DLM系列示波器的電源分析功能,是專門針對(duì)電源系統(tǒng)及供電/用電設(shè)備的電參數(shù)進(jìn)行自動(dòng)化、多維度分析的集成功能。
    的頭像 發(fā)表于 03-12 10:45 ?142次閱讀
    橫河DLM3000/5000示波器電源<b class='flag-5'>分析</b><b class='flag-5'>功能</b>

    TDS3052B:性能與效率的可靠保障

    高達(dá) >100,000 wfms/s 的波形捕獲率,顯著提高偶發(fā)異常事件的捕獲概率。 高效的調(diào)試與分析功能 配備 高級(jí)觸發(fā)系統(tǒng) ,支持邊沿、脈寬、欠幅脈沖、邏輯和視頻觸發(fā)。 提供 27種自動(dòng)參數(shù)測(cè)量 ,支持通過/失敗測(cè)試與極限模板測(cè)試。 內(nèi)置 FFT頻譜
    的頭像 發(fā)表于 01-16 09:34 ?188次閱讀
    TDS3052B:性<b class='flag-5'>能與</b>效率的可靠保障

    NVIDIA TensorRT LLM 1.0推理框架正式上線

    TensorRT LLM 作為 NVIDIA 為大規(guī)模 LLM 推理打造的推理框架,核心目標(biāo)是突破 NVIDIA 平臺(tái)上的推理性能瓶頸。為實(shí)現(xiàn)這一目標(biāo),其構(gòu)建了多維度的核心實(shí)現(xiàn)路徑:一方面,針對(duì)需
    的頭像 發(fā)表于 10-21 11:04 ?1459次閱讀

    風(fēng)機(jī)預(yù)警系統(tǒng)故障自診斷功能與其他監(jiān)測(cè)系統(tǒng)的兼容性如何?

    風(fēng)機(jī)預(yù)警系統(tǒng)故障自診斷功能與其他監(jiān)測(cè)系統(tǒng)的兼容性,核心取決于數(shù)據(jù)互通能力、協(xié)議適配性、功能協(xié)同邏輯,目前主流系統(tǒng)通過標(biāo)準(zhǔn)化設(shè)計(jì),已能實(shí)現(xiàn)與多數(shù)工業(yè)監(jiān)測(cè)系統(tǒng)的兼容,但需在前期對(duì)接階段明確接口、數(shù)據(jù)格式和協(xié)同規(guī)則,避免 “信息孤島”。
    的頭像 發(fā)表于 10-20 14:30 ?441次閱讀
    風(fēng)機(jī)預(yù)警系統(tǒng)故障自診斷<b class='flag-5'>功能與</b>其他監(jiān)測(cè)系統(tǒng)的兼容性如何?

    TensorRT-LLM的大規(guī)模專家并行架構(gòu)設(shè)計(jì)

    之前文章已介紹引入大規(guī)模 EP 的初衷,本篇將繼續(xù)深入介紹 TensorRT-LLM 的大規(guī)模專家并行架構(gòu)設(shè)計(jì)與創(chuàng)新實(shí)現(xiàn)。
    的頭像 發(fā)表于 09-23 14:42 ?1419次閱讀
    <b class='flag-5'>TensorRT</b>-LLM的大規(guī)模專家并行架構(gòu)設(shè)計(jì)

    DeepSeek R1 MTP在TensorRT-LLM中的實(shí)現(xiàn)與優(yōu)化

    TensorRT-LLM 在 NVIDIA Blackwell GPU 上創(chuàng)下了 DeepSeek-R1 推理性能的世界紀(jì)錄,Multi-Token Prediction (MTP) 實(shí)現(xiàn)了大幅提速
    的頭像 發(fā)表于 08-30 15:47 ?4733次閱讀
    DeepSeek R1 MTP在<b class='flag-5'>TensorRT</b>-LLM中的實(shí)現(xiàn)與優(yōu)化

    TensorRT-LLM中的分離式服務(wù)

    在之前的技術(shù)博客中,我們介紹了低延遲[1] 和高吞吐[2] 場(chǎng)景的優(yōu)化方法。對(duì)于生產(chǎn)部署,用戶還關(guān)心在滿足特定延遲約束的情況下,每個(gè) GPU 的吞吐表現(xiàn)。本文將圍繞“吞吐量-延遲”性能場(chǎng)景,介紹 TensorRT-LLM 分離式服務(wù)的設(shè)計(jì)理念、使用方法,以及性能研究結(jié)果。
    的頭像 發(fā)表于 08-27 12:29 ?2008次閱讀
    <b class='flag-5'>TensorRT</b>-LLM中的分離式服務(wù)

    NAND閃存芯片功能與應(yīng)用分析

    NAND閃存芯片是一種非易失性存儲(chǔ)技術(shù),廣泛應(yīng)用于現(xiàn)代電子設(shè)備中。以下是其核心功能、特點(diǎn)和應(yīng)用場(chǎng)景的詳細(xì)分析: 1. 核心功能 數(shù)據(jù)存儲(chǔ):以電信號(hào)形式長(zhǎng)期保存數(shù)據(jù),斷電后數(shù)據(jù)不丟失。 快速讀寫:支持
    的頭像 發(fā)表于 08-11 10:43 ?3098次閱讀

    如何在魔搭社區(qū)使用TensorRT-LLM加速優(yōu)化Qwen3系列模型推理部署

    TensorRT-LLM 作為 NVIDIA 專為 LLM 推理部署加速優(yōu)化的開源庫(kù),可幫助開發(fā)者快速利用最新 LLM 完成應(yīng)用原型驗(yàn)證與產(chǎn)品部署。
    的頭像 發(fā)表于 07-04 14:38 ?2463次閱讀

    使用NVIDIA Triton和TensorRT-LLM部署TTS應(yīng)用的最佳實(shí)踐

    針對(duì)基于 Diffusion 和 LLM 類別的 TTS 模型,NVIDIA Triton 和 TensorRT-LLM 方案能顯著提升推理速度。在單張 NVIDIA Ada Lovelace
    的頭像 發(fā)表于 06-12 15:37 ?2102次閱讀
    使用NVIDIA Triton和<b class='flag-5'>TensorRT</b>-LLM部署TTS應(yīng)用的最佳實(shí)踐

    工業(yè)互聯(lián)網(wǎng)數(shù)據(jù)采集平臺(tái)的功能與作用

    工業(yè)互聯(lián)網(wǎng)數(shù)據(jù)采集平臺(tái)的功能與作用 工業(yè)互聯(lián)網(wǎng)數(shù)據(jù)采集平臺(tái)是工業(yè)互聯(lián)網(wǎng)體系的核心組件之一,其核心目標(biāo)是 實(shí)現(xiàn)工業(yè)設(shè)備與系統(tǒng)的互聯(lián)互通,實(shí)時(shí)獲取生產(chǎn)數(shù)據(jù),支撐智能化決策與優(yōu)化 。以下從功能與作用兩方面
    的頭像 發(fā)表于 05-26 09:28 ?833次閱讀

    邊緣計(jì)算網(wǎng)關(guān)的功能與作用

    邊緣計(jì)算網(wǎng)關(guān)是一種能夠在網(wǎng)絡(luò)邊緣執(zhí)行數(shù)據(jù)處理、存儲(chǔ)、轉(zhuǎn)發(fā)和通信功能的智能設(shè)備,具有豐富的功能與重要作用,具體如下: 功能 數(shù)據(jù)采集與傳輸 能夠連接各種傳感器、執(zhí)行器和智能設(shè)備,實(shí)時(shí)采集并傳輸數(shù)據(jù)
    的頭像 發(fā)表于 05-26 09:13 ?899次閱讀

    揭秘ABAQUS強(qiáng)大到超乎想象的分析功能有哪些?

    在工程技術(shù)領(lǐng)域,有限元分析(FEA)軟件扮演著至關(guān)重要的角色,而ABAQUS無(wú)疑是這一領(lǐng)域的佼佼者。作為達(dá)索公司旗下的旗艦產(chǎn)品,ABAQUS憑借其強(qiáng)大的分析功能和廣泛的應(yīng)用領(lǐng)域,成為了工程師
    的頭像 發(fā)表于 05-21 16:15 ?818次閱讀
    揭秘ABAQUS強(qiáng)大到超乎想象的<b class='flag-5'>分析</b><b class='flag-5'>功能</b>有哪些?
    潍坊市| 德惠市| 汕头市| 长兴县| 台中市| 商都县| 全州县| 新丰县| 泾阳县| 漠河县| 平阳县| 正蓝旗| 理塘县| 常熟市| 景洪市| 巫山县| 新平| 鄂伦春自治旗| 赣州市| 巫溪县| 毕节市| 望谟县| 义乌市| 改则县| 毕节市| 三亚市| 鄯善县| 咸宁市| 山东省| 台州市| 克东县| 孝昌县| 浪卡子县| 霍林郭勒市| 稻城县| 高唐县| 钦州市| 七台河市| 阿荣旗| 桂平市| 鞍山市|