日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

注意力可以為視覺應(yīng)用程序帶來所需的上下文

醉清歌 ? 來源:醉清歌 ? 作者:醉清歌 ? 2022-07-15 08:17 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

嵌入式視覺技術(shù)賦予機(jī)器視覺的力量,但今天的系統(tǒng)仍然無法理解圖像的所有細(xì)微差別。一種用于自然語言處理的方法可以解決這個(gè)問題。

基于注意力的神經(jīng)網(wǎng)絡(luò),尤其是變換器網(wǎng)絡(luò),徹底改變了自然語言處理 (NLP),讓機(jī)器比以往任何時(shí)候都更好地理解語言。這種技術(shù)旨在通過為人工神經(jīng)網(wǎng)絡(luò)提供歷史或背景的概念來模擬認(rèn)知過程,與使用記憶的舊方法(如長短期記憶(LSTM)和循環(huán)記憶)相比,它產(chǎn)生了更復(fù)雜的人工智能代理。神經(jīng)網(wǎng)絡(luò)(RNN)。NLP 現(xiàn)在對輸入的問題或提示有了更深層次的理解,并且可以創(chuàng)建很長的文本作為響應(yīng),這些文本通常與人類可能寫的內(nèi)容沒有區(qū)別。

注意力當(dāng)然可以應(yīng)用于圖像處理,盡管到目前為止它在計(jì)算機(jī)視覺中的使用受到限制。Perceive 首席執(zhí)行官、人工智能專家 Steve Teig 在接受 EE Times 的獨(dú)家采訪時(shí)認(rèn)為,注意力對于視覺應(yīng)用程序?qū)⒆兊脴O為重要。

基于注意力的網(wǎng)絡(luò)

注意機(jī)制查看輸入序列,例如句子,并在序列中的每條數(shù)據(jù)(音節(jié)或單詞)之后決定序列的其他部分是相關(guān)的。這類似于您閱讀本文的方式:您的大腦在記憶中保留了某些單詞,即使它專注于您正在閱讀的每個(gè)新單詞,因?yàn)槟呀?jīng)閱讀的單詞與您正在正確閱讀的單詞結(jié)合在一起現(xiàn)在提供有價(jià)值的上下文來幫助您理解文本。

泰格的例子是:

汽車在街上打滑,因?yàn)樗芑?/p>

當(dāng)你讀完這句話時(shí),你會(huì)明白“滑”可能是指街道而不是汽車,因?yàn)槟阋呀?jīng)記住了“街道”和“汽車”這兩個(gè)詞,你的經(jīng)驗(yàn)告訴你, “slippery”和“street”比“slippery”和“car”之間的關(guān)聯(lián)性強(qiáng)得多。神經(jīng)網(wǎng)絡(luò)可以嘗試使用注意力機(jī)制來模仿這種能力。

該機(jī)制“獲取最近過去的所有單詞,并以某種方式將它們進(jìn)行比較,以了解哪些單詞可能與哪些其他單詞相關(guān),”Teig 說?!叭缓缶W(wǎng)絡(luò)知道至少要關(guān)注這一點(diǎn),因?yàn)椤盎备锌赡芘c街道或汽車[相關(guān)]而不是[任何其他詞]。

因此,注意力是一種專注于將呈現(xiàn)數(shù)據(jù)的序列減少到可能感興趣的子集(可能僅是當(dāng)前和以前的句子),然后分配每個(gè)單詞可能相關(guān)程度的可能性的方法。

“[注意力]最終成為了一種利用時(shí)間的方式,以一種有點(diǎn)原則的方式,沒有查看曾經(jīng)發(fā)生的一切的開銷,”泰格說?!斑@導(dǎo)致人??們,直到最近,還認(rèn)為注意力是一種可以管理時(shí)間的技巧。當(dāng)然,它對語音處理、語言處理和其他時(shí)間事物產(chǎn)生了巨大的積極影響。最近,就在最近幾個(gè)月,人們開始意識到,也許我們可以用注意力來做其他的信息聚焦?!?/p>

視覺轉(zhuǎn)換器

迄今為止,為視覺設(shè)計(jì)的神經(jīng)網(wǎng)絡(luò)對注意力技術(shù)的使用非常有限。到目前為止,注意力已與卷積神經(jīng)網(wǎng)絡(luò) (CNN) 一起應(yīng)用或用于替換 CNN 的某些組件。但谷歌科學(xué)家最近發(fā)表的一篇論文(“一幅圖像值得 16 × 16 字:大規(guī)模圖像識別的變形金剛,” 2020 年 10 月)認(rèn)為注意力的概念更廣泛地適用于視覺。作者表明,純 Transformer 網(wǎng)絡(luò)是 NLP 中廣泛使用的一種依賴于注意力機(jī)制的網(wǎng)絡(luò),當(dāng)直接應(yīng)用于圖像塊序列時(shí),可以很好地執(zhí)行圖像分類任務(wù)。研究人員構(gòu)建的變壓器網(wǎng)絡(luò) Vision Transformer (ViT) 取得了優(yōu)于 CNN 的結(jié)果,但訓(xùn)練所需的計(jì)算資源更少。

雖然很容易想象注意力如何應(yīng)用于文本或口語對話,但將相同的概念應(yīng)用于靜止圖像(而不是諸如視頻之類的時(shí)間序列)就不那么明顯了。事實(shí)上,注意力可以用在空間上,而不是這里的時(shí)間上下文中。音節(jié)或單詞類似于圖像的補(bǔ)丁。

Teig 的例子是一張狗的照片。顯示狗耳朵的圖像補(bǔ)丁可能會(huì)將自己識別為耳朵,即使是在毛茸茸的動(dòng)物或四足動(dòng)物身上發(fā)現(xiàn)的特定類型的耳朵。同樣,尾巴補(bǔ)丁知道它也存在于毛茸茸的動(dòng)物和四足動(dòng)物身上。圖像背景中的樹塊知道它有樹枝和樹葉。注意力機(jī)制詢問耳貼和樹貼有什么共同點(diǎn)。答案是,不多。然而,耳貼和尾貼確實(shí)有很多共同點(diǎn)。他們可以討論這些共性,也許神經(jīng)網(wǎng)絡(luò)可以找到比“耳朵”或“尾巴”更大的概念。也許網(wǎng)絡(luò)可以理解圖像提供的一些上下文,以計(jì)算出耳朵加尾巴可能等于狗。

注意力可以通過了解圖像塊之間的相關(guān)性來推斷上下文,從而幫助 AI 代理更好地理解圖像中發(fā)生的事情。

“狗的耳朵和尾巴不是獨(dú)立的這一事實(shí)使我們能夠更簡潔地描述圖片中發(fā)生的事情:‘圖片中有一只狗’,而不是‘旁邊有一個(gè)棕色像素到一個(gè)灰色像素,旁邊是……’,這是對圖片中正在發(fā)生的事情的可怕描述,”Teig 說?!翱梢赃@么說,當(dāng)系統(tǒng)用這些語義術(shù)語描述圖像的各個(gè)部分時(shí),這就是可能的。然后它可以將這些聚合成更有用的概念,用于下游推理。”

Teig 說,最終的目標(biāo)是讓神經(jīng)網(wǎng)絡(luò)理解圖片是一只追逐飛盤的狗。

“祝你好運(yùn),用 1600 萬色像素做到這一點(diǎn),”他說?!斑@是一種嘗試將其處理為‘有一只狗;有一個(gè)飛盤;狗在跑?!?現(xiàn)在我有機(jī)會(huì)理解狗可能在玩飛盤?!?/p>

更近一步

谷歌在視覺系統(tǒng)注意力方面的工作是朝著正確方向邁出的一步,Teig 說,“但我認(rèn)為無論從理論和軟件的角度,還是從硬件的角度來看,這里都有很大的進(jìn)步空間,當(dāng)一個(gè)不必用巨大的矩陣來打擊數(shù)據(jù),我非常懷疑你的大腦正在做什么。有很多東西可以在上下文中過濾掉,而無需將其與其他所有內(nèi)容進(jìn)行比較?!?/p>

雖然 Google 研究團(tuán)隊(duì)的解決方案比 CNN 更節(jié)省地使用計(jì)算資源,但 NLP 中通常實(shí)現(xiàn)注意力的方式使得像轉(zhuǎn)換器這樣的網(wǎng)絡(luò)非常耗費(fèi)資源。Transformer 經(jīng)常構(gòu)建巨大的 N × N 音節(jié)矩陣(用于文本)或像素(用于圖像),需要大量的計(jì)算能力和內(nèi)存來處理。

“那里的數(shù)據(jù)中心人員認(rèn)為,‘太好了——我們有一個(gè)數(shù)據(jù)中心,所以一切對我們來說都像是釘子,’”Teig 說,這就是我們最終得到像 OpenAI 的 GPT-3 這樣的 NLP 模型的方式,它的 1750 億個(gè)參數(shù)?!爱?dāng)你先驗(yàn)地看到所有東西時(shí),你可以說前面句子中的幾乎所有內(nèi)容都無關(guān)緊要,這有點(diǎn)荒謬。你不能提前做任何過濾嗎?你真的要因?yàn)槟阌幸粋€(gè)巨大的矩陣乘法器就粗暴地做這個(gè)嗎……?這有任何意義嗎?可能不是。”

科學(xué)界最近嘗試減少注意力的計(jì)算開銷,已將所需的操作數(shù)量從 N 2減少到 N√N(yùn)。但這些嘗試延續(xù)了“近乎普遍的信念——我不同意——即深度學(xué)習(xí)完全是關(guān)于矩陣和矩陣乘法,”Teig 說,并指出最先進(jìn)的神經(jīng)網(wǎng)絡(luò)研究正在由那些能夠獲得大規(guī)模矩陣乘法加速器。

Teig 作為邊緣 AI 加速器芯片公司 Perceive 的首席執(zhí)行官的觀點(diǎn)是,有更有效的方法來概念化神經(jīng)網(wǎng)絡(luò)計(jì)算。Perceive 已經(jīng)在使用其中一些概念,Teig 認(rèn)為類似的見解將適用于注意力機(jī)制和轉(zhuǎn)換器網(wǎng)絡(luò)。

“我認(rèn)為關(guān)注的精神非常重要,”他說?!拔艺J(rèn)為機(jī)器本身將在未來幾年內(nèi)迅速發(fā)展……在軟件、理論上和硬件方面來代表它?!?/p>

今天的大型變壓器網(wǎng)絡(luò)最終會(huì)安裝到邊緣設(shè)備的加速器上嗎?在 Teig 看來,部分問題在于像 GPT-3 的 1750 億個(gè)參數(shù)這樣的網(wǎng)絡(luò)——大約 1 萬億位信息(為了論證而假設(shè) 8 位參數(shù))。

他說:“這就像我們在玩20個(gè)問題的游戲,只是我要問你一萬億個(gè)問題,才能理解你剛才說的話?!币苍S兩萬或兩百萬不能完成,但一萬億——滾出去!缺陷不是我們有一個(gè)20-MW的小芯片;缺陷在于,擁有1750億個(gè)參數(shù)意味著你真的做錯(cuò)了什么。

根據(jù)泰格的說法,減少基于注意力的網(wǎng)絡(luò)的參數(shù)數(shù)量,并有效地表示它們,可以為邊緣設(shè)備帶來基于注意力的嵌入式視覺。而這樣的發(fā)展“并不遙遠(yuǎn)”。

Percept首席執(zhí)行官Steve Teig將在嵌入式愿景峰會(huì)上發(fā)表兩次演講。在“直面偏見”中,他將討論人工智能系統(tǒng)中歧視的來源,而在“TinyML不夠大”中,他將挑戰(zhàn)TinyML模型必須在準(zhǔn)確性上妥協(xié)以及它們應(yīng)該在CPUMCU上運(yùn)行的觀念。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 嵌入式
    +關(guān)注

    關(guān)注

    5210

    文章

    20680

    瀏覽量

    337429
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4844

    瀏覽量

    108212
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    OpenClaw 全面接入DeepSeek-V4系列模型

    近期,OpenClaw 2026.4.24版本全面接入DeepSeek-V4系列模型,以V4-Flash為默認(rèn)大腦,V4-Pro同步上線,構(gòu)建百萬級Token上下文處理能力。V4-Flash采用混合
    的頭像 發(fā)表于 04-28 09:29 ?631次閱讀

    安信可AI語音模組支持MCP模型上下文協(xié)議

    安信可 PalChat 系列(V1/V2)支持 MCP(模型上下文協(xié)議),工程師只需寫幾十行 C 代碼,就能讓 AI 模型直接控制硬件設(shè)備。V1 基于 Ai-WB2-12F,適合快速驗(yàn)證;V2
    的頭像 發(fā)表于 04-15 09:54 ?518次閱讀

    NVIDIA BlueField-4為推理上下文記憶存儲(chǔ)平臺提供強(qiáng)大支持

    隨著代理式 AI 工作流將上下文窗口擴(kuò)展到數(shù)百萬個(gè) token,并將模型規(guī)模擴(kuò)展到數(shù)百萬億個(gè)參數(shù),AI 原生企業(yè)正面臨著越來越多的擴(kuò)展挑戰(zhàn)。這些系統(tǒng)目前依賴于智能體長期記憶來存儲(chǔ)跨多輪、工具和會(huì)話持續(xù)保存的上下文,以便智能體能夠基于先前的推理進(jìn)行構(gòu)建,而不是每次請求都從頭
    的頭像 發(fā)表于 02-02 10:29 ?1332次閱讀
    NVIDIA BlueField-4為推理<b class='flag-5'>上下文</b>記憶存儲(chǔ)平臺提供強(qiáng)大支持

    如何基于P300個(gè)性化調(diào)控ADHD?

    oddball等認(rèn)知任務(wù)時(shí),P300振幅顯著減少,這與注意力驅(qū)動(dòng)的工作記憶更新和上下文比較過程異常相關(guān)。這種生理異常導(dǎo)致ADHD典型的行為缺陷,如反應(yīng)時(shí)變異性增加、遺漏錯(cuò)誤
    的頭像 發(fā)表于 01-28 18:24 ?504次閱讀
    如何基于P300個(gè)性化調(diào)控ADHD?

    奇異摩爾入選2025中國科創(chuàng)好公司半導(dǎo)體榜單

    隨著國產(chǎn)大模型接連取得突破,AI產(chǎn)業(yè)的焦點(diǎn)正迅速轉(zhuǎn)移。就在本月,DeepSeek正式發(fā)布V3.2和其高算版本Speciale,主力模型V3.2強(qiáng)化通用Agent與長上下文處理能力,而
    的頭像 發(fā)表于 12-16 14:22 ?923次閱讀

    自然場景下注意力如何耳周腦電可靠監(jiān)測

    HUIYING自然聽覺注意力概述聽覺注意力是大腦在復(fù)雜聽覺場景中選擇相關(guān)信息、抑制無關(guān)信息的重要認(rèn)知功能。傳統(tǒng)研究多在實(shí)驗(yàn)室內(nèi)使用笨重設(shè)備與人工刺激進(jìn)行,限制了其生態(tài)效度。本研究采用語音包絡(luò)跟蹤、被
    的頭像 發(fā)表于 12-05 18:03 ?4301次閱讀
    自然場景下<b class='flag-5'>注意力</b>如何耳周腦電可靠監(jiān)測

    大語言模型如何處理上下文窗口中的輸入

    本博客介紹了五個(gè)基本概念,闡述了大語言模型如何處理上下文窗口中的輸入。通過明確的例子和實(shí)踐中獲得的見解,本文介紹了多個(gè)與上下文窗口有關(guān)的基本概念,如詞元化、序列長度和注意力等。
    的頭像 發(fā)表于 12-03 13:48 ?793次閱讀
    大語言模型如何處理<b class='flag-5'>上下文</b>窗口中的輸入

    執(zhí)行脫離上下文的威脅分析與風(fēng)險(xiǎn)評估

    作為WITTENSTEIN high integrity system(WHIS)公司的核心產(chǎn)品,SAFERTOS專為安全關(guān)鍵型嵌入式系統(tǒng)設(shè)計(jì),使其成為確保聯(lián)網(wǎng)車輛環(huán)境可靠防護(hù)的理想選擇。在本文中,我們將討論如何開展SAFERTOS安全分析,結(jié)合威脅評估與風(fēng)險(xiǎn)評估(TARA)結(jié)果,以及這些實(shí)踐方法的具體實(shí)施,最終推動(dòng)SAFERTOS增強(qiáng)型安全模塊的開發(fā)。遵循行業(yè)標(biāo)準(zhǔn),該方法為管理風(fēng)險(xiǎn)并保護(hù)互聯(lián)車輛組件免受不斷演變的威脅提供了一個(gè)結(jié)構(gòu)化的框架。
    的頭像 發(fā)表于 11-28 09:11 ?664次閱讀
    執(zhí)行脫離<b class='flag-5'>上下文</b>的威脅分析與風(fēng)險(xiǎn)評估

    請問riscv中斷還需要軟件保存上下文和恢復(fù)嗎?

    以下是我拷貝的文檔里的說明,這個(gè)中斷處理還需要軟件來寫上下文保存和恢復(fù),在使用ARM核的單片機(jī)都不需要考慮這些的,使用過的小伙伴能解答嗎? 3.8. 進(jìn)出中斷的上下文保存和恢復(fù) RISC-V架構(gòu)
    發(fā)表于 10-20 09:56

    米爾RK3576部署端側(cè)多模態(tài)多輪對話,6TOPS算驅(qū)動(dòng)30億參數(shù)LLM

    多輪交互機(jī)制程序會(huì)提供預(yù)設(shè)問題供用戶選擇(官方案例中也有輸入序號,可以快速提問),同時(shí)支持用戶自定義輸入,核心交互邏輯通過以下機(jī)制實(shí)現(xiàn): 上下文記憶 通過設(shè)置
    發(fā)表于 09-05 17:25

    【「DeepSeek 核心技術(shù)揭秘」閱讀體驗(yàn)】+看視頻+看書籍+國產(chǎn)開源大模型DeepSeekV3技術(shù)詳解--1

    大小的潛在向量 (Latent Vector) c_t 中。同時(shí),為了保證對近期上下文的精確感知,它依然會(huì)實(shí)時(shí)計(jì)算當(dāng)前 token 的 K 和 V。 最終,注意力機(jī)制的計(jì)算將同時(shí)作用于“壓縮的歷史
    發(fā)表于 08-23 15:20

    HarmonyOSAI編程編輯區(qū)代碼續(xù)寫

    利用AI大模型分析并理解開發(fā)者在代碼編輯區(qū)的上下文信息或自然語言描述信息,智能生成符合上下文的ArkTS或C++代碼片段。 使用約束 建議在編輯區(qū)內(nèi)已有較豐富上下文,能夠使模型對編程場景有一定
    發(fā)表于 08-21 15:43

    HarmonyOS AI輔助編程工具(CodeGenie)智能問答

    DeepSeek-R1智能體,快速體驗(yàn)智能問答能力。 一、對話示例 在對話區(qū)域輸入需要查詢的問題,開始問答。示例如下: ArkTS如何實(shí)現(xiàn)多線程? 二、指定上下文問答 在對話框中輸入@符號,或點(diǎn)擊上方@Add
    發(fā)表于 08-15 11:07

    鴻蒙NEXT-API19獲取上下文,在class中和ability中獲取上下文,API遷移示例-解決無法在EntryAbility中無法使用最新版

    摘要:隨著鴻蒙系統(tǒng)API升級至16版本(modelVersion5.1.1),多項(xiàng)API已廢棄。獲取上下文需使用UIContext,具體方法包括:在組件中使用getUIContext(),在類中使
    的頭像 發(fā)表于 07-01 10:57 ?919次閱讀
    鴻蒙NEXT-API19獲取<b class='flag-5'>上下文</b>,在class中和ability中獲取<b class='flag-5'>上下文</b>,API遷移示例-解決無法在EntryAbility中無法使用最新版

    UIAbility組件基本用法說明

    用getContext接口獲取當(dāng)前頁面關(guān)聯(lián)的UIAbilityContext或ExtensionContext。 在UIAbility中可以通過this.context獲取UIAbility實(shí)例的上下文信息
    發(fā)表于 05-16 06:32
    竹北市| 永城市| 岳阳县| 绥棱县| 馆陶县| 绥宁县| 奉新县| 二连浩特市| 旺苍县| 灵武市| 博爱县| 大庆市| 枝江市| 秀山| 濮阳县| 临泽县| 海安县| 高平市| 任丘市| 运城市| 云龙县| 上高县| 鄯善县| 东源县| 云浮市| 唐河县| 玉树县| 永顺县| 同心县| 铁岭县| 安阳市| 银川市| 迁安市| 五大连池市| 彭山县| 孝昌县| 新田县| 会昌县| 东平县| 偏关县| 定边县|