日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

【AI簡報20230908期】正式亮相!打開騰訊混元大模型,全部都是生產(chǎn)力

RTThread物聯(lián)網(wǎng)操作系統(tǒng) ? 來源:未知 ? 2023-09-08 19:15 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

1. 1800億參數(shù),世界頂級開源大模型Falcon官宣!碾壓LLaMA 2,性能直逼GPT-4

原文:https://mp.weixin.qq.com/s/B3KycAYJ2bLWctvoWOAxHQ

一夜之間,世界最強開源大模型Falcon 180B引爆全網(wǎng)!

1800億參數(shù),F(xiàn)alcon在3.5萬億token完成訓練,直接登頂Hugging Face排行榜。

基準測試中,F(xiàn)alcon 180B在推理、編碼、熟練度和知識測試各種任務中,一舉擊敗Llama 2。

wKgaomT7A2KAWmLLAABxeZA7kW8523.png

甚至,F(xiàn)alcon 180B能夠與谷歌PaLM 2不差上下,性能直逼GPT-4。不過,英偉達高級科學家Jim Fan對此表示質疑,- Falcon-180B的訓練數(shù)據(jù)中,代碼只占5%。而代碼是迄今為止對提高推理能力、掌握工具使用和增強AI智能體最有用的數(shù)據(jù)。事實上,GPT-3.5是在Codex的基礎上進行微調的。- 沒有編碼基準數(shù)據(jù)。沒有代碼能力,就不能聲稱「優(yōu)于GPT-3.5」或「接近GPT-4」。它本應是預訓練配方中不可或缺的一部分,而不是事后的微調。- 對于參數(shù)大于30B的語言模型,是時候采用混合專家系統(tǒng)(MoE)了。到目前為止,我們只看到OSS MoE LLM < 10B。

wKgaomT7A2OAJtWEAAU8mL-8cYc409.png

一起來看看,F(xiàn)alcon 180B究竟是什么來頭?世界最強開源大模型此前,F(xiàn)alcon已經(jīng)推出了三種模型大小,分別是1.3B、7.5B、40B。官方介紹,F(xiàn)alcon 180B是40B的升級版本,由阿布扎比的全球領先技術研究中心TII推出,可免費商用。

wKgaomT7A2OAPB8QAARGT4REvWM040.png

這次,研究人員在基底模型上技術上進行了創(chuàng)新,比如利用Multi-Query Attention等來提高模型的可擴展性。對于訓練過程,F(xiàn)alcon 180B基于亞馬遜機器學習平臺Amazon SageMaker,在多達4096個GPU上完成了對3.5萬億token的訓練。總GPU計算時,大約7,000,000個。Falcon 180B的參數(shù)規(guī)模是Llama 2(70B)的2.5倍,而訓練所需的計算量是Llama 2的4倍。具體訓練數(shù)據(jù)中,F(xiàn)alcon 180B主要是RefinedWe數(shù)據(jù)集(大約占85%) 。此外,它還在對話、技術論文,以及一小部分代碼等經(jīng)過整理的混合數(shù)據(jù)的基礎上進行了訓練。這個預訓練數(shù)據(jù)集足夠大,即使是3.5萬億個token也只占不到一個epoch。官方自稱,F(xiàn)alcon 180B是當前「最好」的開源大模型,具體表現(xiàn)如下:在MMLU基準上,F(xiàn)alcon 180B的性能超過了Llama 2 70B和GPT-3.5。在HellaSwag、LAMBADA、WebQuestions、Winogrande、PIQA、ARC、BoolQ、CB、COPA、RTE、WiC、WSC 及ReCoRD上,與谷歌的PaLM 2-Large不相上下。另外,它在Hugging Face開源大模型榜單上,是當前評分最高(68.74分)的開放式大模型,超越了LlaMA 2(67.35)。

2. Meta的Flamera頭顯對增強現(xiàn)實有了新的愿景

原文:https://mp.weixin.qq.com/s/UepWwW7D03_jISTsSmjwnA
Meta的最新原型頭顯Flamera像是直接從科幻動作片中來的一樣,它在Siggraph 2023上引起了人們的注意 —— Flamera在那里獲得了令人垂涎的Best in Show獎。據(jù)悉,F(xiàn)lamera原型頭顯展示了接近人眼分辨率和全新的"透視"真實世界的技術。該原型或許為VR、MR和AR的未來鋪平了道路。頭顯原型展示的技術突破引發(fā)了人們的興趣和關注。Moor Insights&Strategy副總裁兼首席分析師Ansel Sag表示:“這絕對是我見過的質量最好的(增強現(xiàn)實)實現(xiàn)透視真實世界的全新方法?!?/span>

wKgaomT7A2OAKh8qAAMsKyyVc54133.png

Giving Reality the Bug Eye出于顯而易見的原因,在物理上不可能將頭顯的攝像頭與用戶的眼睛完全放置在同一位置。這種位移導致了我(作者,以下簡稱我)個人經(jīng)歷的視角的轉變:我在使用AR/VR頭顯時撞到了墻上,或者被被椅子絆倒了。像Meta Quest Pro這樣的尖端頭顯,通過從正確的角度重新投射周圍環(huán)境的視圖,跨越了這一障礙,但解決方案可能會導致視覺失真。Meta的蟲眼Flamera提出了一個新穎的解決方案。它摒棄了當前頭顯青睞的外部攝像頭陣列,采用了獨特的“光場穿透”設計,將圖像傳感器與物理控制到達傳感器的光的孔徑配對。會導致不正確視角的光被阻擋,而提供準確視角的光則被允許到達傳感器。當直接通過鏡頭觀看時,結果很奇怪:這有點像透過紙上的洞看世界。頭顯重新排列原始圖像以消除間隙并重新定位傳感器數(shù)據(jù)。一旦這個過程完成,耳機就會為用戶提供準確的世界視圖。Sag說:“這絕對是一個原型,但它的圖像質量和分辨率給我留下了深刻印象?!?“幀速率很好,”ModiFace的軟件開發(fā)總監(jiān)Edgar Maucourant也演示了這款頭顯,并對此印象深刻,“我的眼睛所看到的東西和我的手的位置與我的手真正的位置之間沒有延遲,也沒有差異?!?/span>Maucourant認為Flamera的準確性可能會為用戶直接與周圍世界互動的AR應用程序帶來福音?!袄?,如果我們考慮遠程輔助,人們必須操縱物體,那么今天它是用HoloLens和Magic Leap等AR眼鏡來實現(xiàn)的……我們可以想象使用AR穿透來實現(xiàn)這一點?!?/span>Meta’s Answer to the Apple Vision Pro?與微軟的HoloLens和Magic Leap進行比較很重要。它們通過透明顯示器繞過了透視問題,讓用戶的視覺暢通無阻。當HoloLens于2016年發(fā)布時,這種方法感覺像是未來的趨勢,但其顯示質量、視野和亮度仍然存在問題。Meta的Quest Pro和蘋果即將推出的Vision Pro強調了這一方向的轉變。盡管以AR/VR頭顯(或者,蘋果方以“空間計算機”)的形式進行營銷,但它們顯然是虛擬現(xiàn)實家族的一個分支。它們通過不透明的顯示器完全遮擋了用戶的視野。增強現(xiàn)實是通過視頻饋送提供的,該視頻饋送將外部世界投射到顯示器。Vision Pro解決直通問題的方法更注重肌肉而非大腦。它使用了一系列與其他AR/VR頭顯類似的外部攝像頭,但將其與蘋果定制的R1芯片配對,該芯片與蘋果M2芯片協(xié)同工作(就像該公司筆記本電腦中的芯片一樣)。R1是一個“視覺處理器”,可以幫助vision Pro的12臺相機通過計算校正視角(以及其他任務)。這很像Meta在Quest Pro上嘗試的方法,但蘋果將功率提高到了11。Meta的Flamera取而代之的是用鏡頭校正視角。這大大降低了準確直通AR所需的原始計算能力。但這并不是說Meta已經(jīng)完全打開了AR。Flamera的技術距離可供購買的頭顯還有很長的路要走,目前與傳統(tǒng)的直通AR相比存在一些缺點。Sag表示,該頭顯“視野相當有限”,并注意到其景深“不連續(xù)”,這意味著遠處的物體看起來比實際更近。Maucourant警告說“顏色不太好”,并認為頭顯的分辨率很低。盡管如此,F(xiàn)lamera或展示了Meta、蘋果和其他希望進入AR領域的公司之間即將發(fā)生的爭論方向??萍冀绲拇笸髠兯坪醮_信,明天最好的AR/VR頭顯看起來更像最初的Oculus Rift,而不是微軟的HoloLens。然而,目前這些原型更多還是在研究階段,離成為消費級產(chǎn)品還有一段距離。未來,頭顯技術的發(fā)展還需要在各個方面進行突破和創(chuàng)新,以實現(xiàn)更高的分辨率、更低的延遲、更舒適的使用體驗等。只有解決了這些問題,才能讓用戶真正感受到頭顯帶來的沉浸式體驗,進一步推動VR、MR和AR技術的廣泛應用。

3. 騰訊混元大模型正式亮相,我們搶先試了試它的生產(chǎn)力

原文:https://mp.weixin.qq.com/s/xuk77KHJHhoh6kWkf-4AKg
上個星期,國內首批大模型備案獲批,開始面向全社會開放服務,大模型正式進入了規(guī)模應用的新階段。在前期發(fā)布應用的行列中,有些科技巨頭似乎還沒有出手。很快到了 9 月 7 日,在 2023 騰訊全球數(shù)字生態(tài)大會上,騰訊正式揭開了混元大模型的面紗,并通過騰訊云對外開放。作為一個超千億參數(shù)的大模型,混元使用的預訓練語料超過兩萬億 token,憑借多項獨有的技術能力獲得了強大的中文創(chuàng)作能力、復雜語境下的邏輯推理能力,以及可靠的任務執(zhí)行能力。

wKgaomT7A2OATsXzAALWSxeeFT0090.png

騰訊集團副總裁蔣杰表示:「騰訊混元大模型是從第一個 token 開始從零訓練的,我們掌握了從模型算法到機器學習框架,再到 AI 基礎設施的全鏈路自研技術?!?/span>打開大模型,全部都是生產(chǎn)力騰訊一直表示在大模型的相關方向上早已有所布局,專項研究一直有序推進。這個不是「新技術」的大模型是什么級別?在大會上蔣杰通過直接詢問混元大模型的方式透露了一些基本信息,它的參數(shù)量是千億級,訓練用的數(shù)據(jù)截止到今年 7 月份,此外騰訊也表示大模型的知識將會每月更新。騰訊在現(xiàn)場展示了「騰訊混元大模型小程序」、騰訊文檔中的 AI 助手以及騰訊會議 AI 助手的能力。機器之心第一時間獲得測試資格嘗試了一番,首先是微信小程序。

wKgaomT7A2OAVKD1AAHrO7AqPGA691.png

從生產(chǎn)力、生活、娛樂到編程開發(fā),它開放的能力可謂非常全面了,符合一個千億級大模型的身份。那么混元真的能有效地完成這些任務嗎?我要寫一份 PPT,只想好了主題卻不知從何寫起,問一下混元大模型。只需幾秒,AI 就給了一份分出七個部分的大綱,每一部分里也包含細分的點:輸入一篇 arXiv 上 9 月份谷歌提交的論文《RLAIF: Scaling Reinforcement Learning from Human Feedback with AI Feedback》摘要和介紹部分,長長的好幾段,很多大模型根本不支持這么多輸入內容,混元大模型直接進行了總結順便翻譯成中文。它詳細解釋了平方根倒數(shù)算法里面數(shù)字的意義(不過對注釋理解得不太透徹)?;蛟S過不了多久,我們做開發(fā)的時候就離不開大模型了。然后是騰訊文檔。很多人已經(jīng)把 GPT-4 等大模型工具用在了自己的工作流程中,混元大模型在騰訊文檔推出的智能助手功能中已有應用。在 PC 端新建智能文檔,輸入 “/”,就能根據(jù)需求實現(xiàn)內容生成、翻譯、潤色等操作。已覆蓋騰訊超過 50 個業(yè)務蔣杰總結了混元大模型的三大特點:具備強大的中文創(chuàng)作能力、復雜語境下的邏輯推理能力以及可靠的任務執(zhí)行能力。目前不少業(yè)內大模型在場景中的應用依然有限,主要問題集中在容錯率高,只適用于任務簡單的休閑場景。騰訊在算法層面進行了一系列自研創(chuàng)新,提高了模型可靠性和成熟度。

wKgaomT7A2SADuwFAARdIK7C0r8244.png

針對大模型容易「胡言亂語」的問題,騰訊優(yōu)化了預訓練算法及策略,通過自研的「探真」技術,讓混元大模型的「幻覺」相比主流開源大模型降低了 30-50%。「業(yè)界的做法是提供搜索增強,知識圖譜等『外掛』來提升大模型開卷考試的能力。這種方式增加了模型的知識,但在實際應用中存在很多局限性,」蔣杰表示。「混元大模型在開發(fā)初期就考慮完全不依賴外界數(shù)據(jù)的方式,進行了大量研究嘗試,我們找到的預訓練方法,很大程度上解決了幻覺的問題?!?/span>騰訊還通過強化學習的方法,讓模型學會識別陷阱問題,通過位置編碼的優(yōu)化,提高了模型處理超長文的效果和性能。在邏輯方面,騰訊提出了思維鏈的新策略,讓大模型能夠像人一樣結合實際的應用場景進行推理和決策。騰訊混元大模型能夠理解上下文的含義,具有長文記憶能力,可以流暢地進行專業(yè)領域的多輪對話。除此之外,它還能進行文學創(chuàng)作、文本摘要、角色扮演等內容創(chuàng)作,做到充分理解用戶意圖,并高效、準確的給出有時效性的答復。這樣的技術落地之后,才能真正提升生產(chǎn)力。

wKgaomT7A2SARD4JAAKiZ37Y_vY185.png

在中國信通院《大規(guī)模預訓練模型技術和應用的評估方法》的標準符合性測試中,混元大模型共測評 66 個能力項,在「模型開發(fā)」和「模型能力」兩個領域的綜合評價獲得了當前最高分。在主流的評測集 MMLU、CEval 和 AGI-eval 上,混元大模型均有優(yōu)異的表現(xiàn),特別是在中文的理科、高考題和數(shù)學等子項上表現(xiàn)突出。構建大模型的意義在于行業(yè)應用。據(jù)了解,騰訊內部已有超過 50 個業(yè)務和產(chǎn)品接入并測試了騰訊混元大模型,包括騰訊云、騰訊廣告、騰訊游戲、騰訊金融科技、騰訊會議、騰訊文檔、微信搜一搜、QQ 瀏覽器等,并取得了初步效果。騰訊的程序員們,已經(jīng)在用大模型工具提高開發(fā)效率了。此外,騰訊還通過自研機器學習框架 Angel,使模型的訓練速度相比業(yè)界主流框架提升 1 倍,推理速度比業(yè)界主流框架提升 1.3 倍。用于構建大模型的基礎設施也沒有拉下。此前騰訊曾表示已于今年年初構建了大規(guī)模算力中心,近期 MiniMax 和百川智能旗下的大模型都使用了騰訊的算力。騰訊也在致力于把行業(yè)數(shù)據(jù)與自身能力相結合,基于外部客戶的行業(yè)化數(shù)據(jù)來解決行業(yè)特定問題,與實體行業(yè)結合,不斷推動大模型的社會、經(jīng)濟利益和商業(yè)價值。「根據(jù)公開數(shù)據(jù)顯示,國內已有 130 個大模型發(fā)布。其中既有通用模型也有專業(yè)領域模型?;煸鳛橥ㄓ媚P湍軌蛑С烛v訊內部的大部分業(yè)務,今天我展示的幾個深度接入的業(yè)務都有很大的用戶量。大模型已在我們的核心領域獲得了深度應用,」蔣杰說道?!肝掖竽P褪紫仁欠掌髽I(yè)本身,其次是通過騰訊云對外開放?!?/span>在開放給客戶使用時,混元大模型將作為騰訊云模型即服務 MaaS 的底座。客戶既可以直接調用混元 API,也能將混元作為基座模型,為不同的產(chǎn)業(yè)場景構建專屬應用。可見,騰訊在大模型領域的策略講究的是一個穩(wěn)字:專注打好基礎,不急于拿出半成品展示。而這一出手,就展現(xiàn)出了過硬的實力。

wKgaomT7A2SAclC8AASoaG6kyqU007.png

不過大模型的發(fā)展還在繼續(xù),正如蔣杰所言:「毫不夸張地說,騰訊已經(jīng)全面擁抱大模型。我們的能力一直在演進,相信 AIGC 的潛力是無限的,我們已在路上?!?/span>

4. GitHub熱榜登頂:開源版GPT-4代碼解釋器,可安裝任意Python庫,本地終端運行

原文:https://mp.weixin.qq.com/s/TiSVeZOeWourVJ60yyyygw
ChatGPT的代碼解釋器,用自己的電腦也能運行了。剛剛有位大神在GitHub上發(fā)布了本地版的代碼解釋器,很快就憑借3k+星標并登頂GitHub熱榜。不僅GPT-4本來有的功能它都有,關鍵是還可以聯(lián)網(wǎng)。

wKgaomT7A2SAdxnVAACDeq-33yg148.png

ChatGPT“斷網(wǎng)”的消息傳出后引起了一片嘩然,而且一關就是幾個月。這幾個月間聯(lián)網(wǎng)功能一直杳無音訊,現(xiàn)在可算是有解決的辦法了。由于代碼是在本地運行,所以除了聯(lián)網(wǎng)之外,它還解決了網(wǎng)頁版的很多其他問題:
  • 3小時只能發(fā)50條消息
  • 支持的Python模塊數(shù)量有限
  • 處理文件大小有限制,不能超過100MB
  • 關閉會話窗口之后,此前生成的文件會被刪除
如果沒有API,還可以把模型換成開源的Code LLaMa。這個代碼解釋器推出之后,很快有網(wǎng)友表示期待一波網(wǎng)頁版:

wKgaomT7A2SAYiiEAACJ866wDv4031.png

那么我們就來看看這個本地代碼解釋器到底怎么樣吧!讓GPT“重新聯(lián)網(wǎng)”既然調用了GPT-4的API,那GPT-4支持的功能自然都能用,當然也支持中文。關于GPT本身的功能這里就不再一一詳細展示了。不過值得一提的是,有了代碼解釋器之后,GPT的數(shù)學水平提升了好幾個檔次。所以這里我們用一個高難度的求導問題來考驗一下它,題目是f(x)=√(x+√(x+√x))。

wKgaomT7A2WANZhqAAKY31by0PE555.png

Emmm……這個結果有些抽象,不過應該是提示詞的問題,我們修改一下:

wKgaomT7A2WAbh6tAAICWx25NlI982.png

然后我們就看到了這樣的結果:

wKgaomT7A2WAMC1NAAAJqxCZj-A901.png

這個式子和標準答案長得不太一樣,不過是不是格式的問題呢?我們驗證了一下:

wKgaomT7A2WAIrzJAAFmzZwUXB0560.png

結果是正確的!接下來就要進入重頭戲了,來看看這個代碼解釋器的聯(lián)網(wǎng)功能到底是不是噱頭:比如我們想看一下最近有什么新聞。更多的內容請點擊原文,謝謝。

5. ReVersion|圖像生成中的Relation定制化

原文:https://mp.weixin.qq.com/s/7W80wWf2Bj68MnC8NEV9cQ
新任務:Relation Inversion今年,diffusion model和相關的定制化(personalization)的工作越來越受人們歡迎,例如DreamBooth,Textual Inversion,Custom Diffusion等,該類方法可以將一個具體物體的概念從圖片中提取出來,并加入到預訓練的text-to-image diffusion model中,這樣一來,人們就可以定制化地生成自己感興趣的物體,比如說具體的動漫人物,或者是家里的雕塑,水杯等等。現(xiàn)有的定制化方法主要集中在捕捉物體外觀(appearance)方面。然而,除了物體的外觀,視覺世界還有另一個重要的支柱,就是物體與物體之間千絲萬縷的關系(relation)。目前還沒有工作探索過如何從圖片中提取一個具體關系(relation),并將該relation作用在生成任務上。為此,我們提出了一個新任務:Relation Inversion。

wKgaomT7A2WAFN3wAANrxUB9mq4580.png

如上圖,給定幾張參考圖片,這些參考圖片中有一個共存的relation,例如“物體A被裝在物體B中”,Relation Inversion的目標是找到一個relation prompt來描述這種交互關系,并將其應用于生成新的場景,讓其中的物體也按照這個relation互動,例如將蜘蛛俠裝進籃子里。

wKgaomT7A2aAcikVAABogqRWJ7I859.png

論文:https://arxiv.org/abs/2303.13495代碼:https://github.com/ziqihuangg/ReVersion主頁:https://ziqihuangg.github.io/projects/reversion.html視頻:https://www.youtube.com/watch?v=pkal3yjyyKQDemo:https://huggingface.co/spaces/Ziqi/ReVersion
ReVersion框架作為針對Relation Inversion問題的首次嘗試,我們提出了ReVersion框架:

wKgaomT7A2aAR3SjAAWgM4iri0A844.png

相較于已有的Appearance Invesion任務,Relation Inversion任務的難點在于怎樣告訴模型我們需要提取的是relation這個相對抽象的概念,而不是物體的外觀這類有顯著視覺特征的方面。我們提出了relation-focal importance sampling策略來鼓勵更多地關注high-level的relation;同時設計了relation-steering contrastive learning來引導更多地關注relation,而非物體的外觀。更多細節(jié)詳見論文。ReVersion Benchmark我們收集并提供了ReVersion Benchmark:https://github.com/ziqihuangg/ReVersion#the-reversion-benchmark它包含豐富多樣的relation,每個relation有多張exemplar images以及人工標注的文字描述。我們同時對常見的relation提供了大量的inference templates,大家可以用這些inference templates來測試學到的relation prompt是否精準,也可以用來組合生成一些有意思的交互場景。結果展示豐富多樣的relation,我們可以invert豐富多樣的relation,并將它們作用在新的物體上

6. 神經(jīng)網(wǎng)絡大還是???Transformer模型規(guī)模對訓練目標的影響

原文:https://mp.weixin.qq.com/s/el_vtxw-54LVnuWzS1JYDw
論文鏈接:https://arxiv.org/abs/2205.10505
01 TL;DR本文研究了 Transformer 類模型結構(configration)設計(即模型深度和寬度)與訓練目標之間的關系。結論是:token 級的訓練目標(如 masked token prediction)相對更適合擴展更深層的模型,而 sequence 級的訓練目標(如語句分類)則相對不適合訓練深層神經(jīng)網(wǎng)絡,在訓練時會遇到 over-smoothing problem。在配置模型的結構時,我們應該注意模型的訓練目標。一般而言,在我們討論不同的模型時,為了比較的公平,我們會采用相同的配置。然而,如果某個模型只是因為在結構上更適應訓練目標,它可能會在比較中勝出。對于不同的訓練任務,如果沒有進行相應的模型配置搜索,它的潛力可能會被低估。因此,為了充分理解每個新穎訓練目標的應用潛力,我們建議研究者進行合理的研究并自定義結構配置。02 概念解釋下面將集中解釋一些概念,以便于快速理解:2.1 Training Objective(訓練目標)

wKgaomT7A2aAAzpFAARDjOIUTCY804.png

wKgaomT7A2eAa9BQAAF4jfgwRUY591.png訓練目標是模型在訓練過程中完成的任務,也可以理解為其需要優(yōu)化的損失函數(shù)。在模型訓練的過程中,有多種不同的訓練目標可以使用,在此我們列出了 3 種不同的訓練目標并將其歸類為 token level 和 sequence level:
  • sequence level:
    • classification 分類任務,作為監(jiān)督訓練任務。簡單分類(Vanilla Classification)要求模型對輸入直接進行分類,如對句子進行情感分類,對圖片進行分類;而 CLIP 的分類任務要求模型將圖片與句子進行匹配。
  • token level:(無監(jiān)督)
    • masked autoencoder:masked token 預測任務,模型對部分遮蓋的輸入進行重建
    • next token prediction:對序列的下一個 token 進行預測
2.2 Transformer Configration(模型結構:配置)

wKgaomT7A2eAZL3OAAGdniDjxYk047.png

Transoformer 的配置指的是定義 Transformer 模型結構和大小的超參數(shù),包括層數(shù)(深度),隱藏層大?。▽挾龋⒁饬︻^的個數(shù)等。2.3 Over-smoothing (過度平滑)

wKgaomT7A2eAKrShAAKaPun_1CA575.png

過度平滑是一個在圖神經(jīng)網(wǎng)絡中的概念,具體表示模型輸出趨向平滑一致,各個點的輸出缺少細節(jié)和變化的現(xiàn)象。這一現(xiàn)象在圖神經(jīng)網(wǎng)絡中被廣泛研究,但它也在 Transformer 模型中存在。(已有研究)發(fā)現(xiàn) Transoformer 模型遇到的 over-smoothing 問題阻礙模型加深。具體而言,當堆疊多層的 Transformer layers 時,transformer layer 輸出的 token 表征(向量)會趨于一致,丟失獨特性。這阻礙了 Transformer 模型的擴展性,特別是在深度這一維度上。增加 Transformer 模型的深度只帶來微小的性能提升,有時甚至會損害原有模型的性能。1. ViT 和 MAE 中的 over-smoothing直觀上,掩碼自編碼器框架(例如 BERT、BEiT、MAE)的訓練目標是基于未掩碼的 unmasked token 恢復被掩碼的 masked token。與使用簡單分類目標訓練 Transformer 相比,掩碼自編碼器框架采用了序列標注目標。我們先假設掩碼自編碼器訓練能緩解 over-smoothing,這可能是掩碼自編碼器 MAE 有助于提升 Transformer 性能的原因之一。由于不同的 masked token 相鄰的 unmaksed token 也不同,unmasked token 必須具有充分的語義信息,以準確預測其臨近的 masked token。也即,unmasked token 的表征的語義信息是重要的,這抑制了它們趨向一致。總之,我們可以推斷掩碼自編碼器的訓練目標通過對 token 間的差異進行正則化,有助于緩解過度平滑問題。我們通過可視化的實驗來驗證了這一觀點。我們發(fā)現(xiàn) ViT 的 token 表征在更深的層中更加接近,而 MAE 模型則避免了這個問題,這說明在掩碼自編碼器中,over-smoothing 問題得到了緩解。通過簡單的分類任務訓練 Transformer 模型則不具備這一特點。

wKgaomT7A2eAcqaoAAMCl3rQk2I384.png

進一步的,我們還通過傅里葉方法對這一問題進行了研究,具體可以參考我們的論文。2. CLIP 和 LLM 中的 over-smoothing根據(jù)上述分析,我們可以得出結論:token 級的訓練目標(例如語言建模中的:next token prediction)表現(xiàn)出較輕的 over-smoothing。另一方面,基于 sequence 級別的目標(如對比圖像預訓練)更容易出現(xiàn) over-smoothing。為了驗證這個結論,我們使用 CLIP 和 OPT 進行了類似的 cosine 相似度實驗。我們可以看到 CLIP 模型展現(xiàn)了與 Vanilla ViT 類似的 over-smoothing 現(xiàn)象。這一觀察結果符合我們的預期。此外,為了探究 next-token prediction 這一廣泛采用的語言建模預訓練目標是否可以緩解 over-smoothing,我們對 OPT 進行了評估,并發(fā)現(xiàn)它能夠有效應對 over-smoothing。這一發(fā)現(xiàn)具有重要意義,因為它有助于解釋為什么語言建模模型在可擴展性方面(如超大規(guī)模預訓練語言模型)優(yōu)于許多視覺模型。

wKgaomT7A2eAY5ggAAEkzMUIwt4699.png

03 溯源:現(xiàn)有的Transformer架構是怎么來的為了在研究時保證公平的比較,現(xiàn)有的 Transformer 類模型通常會遵循固定的結構(small, base, large…),即相同的寬度和深度。比如前面提到的 transformer-base 就是寬度為 768(隱藏層),深度為 12(層數(shù))。然而,對于不同的研究領域,不同的模型功能,為什么仍要采用相同的超參數(shù)?為此,我們首先對 Transformer 架構進行了溯源,回顧了代表性的工作中 Transformer 結構的來源:Vision Transformer 的作者根據(jù) BERT 中 Transformer-base 的結構作為其 ViT 模型配置;而 BERT 在選擇配置時遵循了 OpenAI GPT 的方法;OpenAI 則參考了最初的 Transformer 論文。在最初的 Transformer 論文中,最佳配置來源于機器翻譯任務的笑容實驗。也就是說,對于不同任務,我們均采用了基于對機器翻譯任務的 Transformer 配置。(參考上文,這是一種序列級別的任務)

wKgaomT7A2iAeo9lAACxJI2KM4A432.png

04 現(xiàn)狀:不同的模型采用不同的訓練目標現(xiàn)在,Transformer 模型通過各種訓練目標進行訓練。以 ViT 為例,我們可以在圖像分類的監(jiān)督學習環(huán)境下從頭開始訓練 Transformer 模型。在這種直接的圖像分類任務中,每個圖像被建模為一個 token 序列,其中每個 token 對應圖像中的一個圖塊。我們使用來自圖像的所有 token(即圖塊)的全局信息來預測單個標簽,即圖像類別。在這里,由于訓練目標是捕捉圖像的全局信息,token 表示之間的差異不會直接被考慮。這一訓練目標與機器翻譯任務完全不同,機器翻譯要求模型理解 token 序列,并以此生成另一個序列。據(jù)此,我們可以合理假設對于這兩個不同任務,應該存在不同的最佳 Transformer 配置。

wKgaomT7A2iAXNI_AAD6TDwD1G4804.png

05 對于MAE訓練目標調整模型結構基于上述的討論,我們得到了如下認識:
  1. 現(xiàn)有的 Transformer 模型在加深模型深度時會發(fā)生 over-smoothing 問題,這阻礙了模型在深度上的拓展。
  2. 相較于簡單分類訓練目標,MAE 的掩碼預測任務能夠緩解 over-smoothing。(進一步地,token 級別的訓練目標都能夠一定程度地緩解 over-smoothing)
  3. MAE 的現(xiàn)有模型結構繼承于機器翻譯任務上的最佳結構設置,不一定合理。
綜合以上三點,可以推知 MAE 應該能夠在深度上更好的拓展,也即使用更深的模型架構。本文探索了 MAE 在更深,更窄的模型設置下的表現(xiàn):采用本文提出的 Bamboo(更深,更窄)模型配置,我們可以在視覺和語言任務上得到明顯的性能提升。

wKgaomT7A2iAUxnWAAO41K7sJds650.png

另外,我們在深度拓展性上也做了實驗,可以看到,當采用 Bamboo 的配置時,MAE 能夠獲得明顯的性能提升,而對于 ViT 而言,更深的模型則是有害的。MAE 在深度增加到 48 層時仍能獲得性能提升,而 ViT 則總是處于性能下降的趨勢。

wKgaomT7A2iAezjKAAKHCPq2F98797.png

以上的結果佐證了本文提出的觀點:訓練目標能夠影響模型拓展的行為。Training objectives can greatly change the scaling behavior.06 結論本文發(fā)現(xiàn),Transformer 的配置與其訓練目標之間存在著密切關系。sequence 級別的訓練目標,如直接分類和 CLIP,通常遇到 over-smoothing。而 token 級的訓練目標,如 MAE 和 LLMs 的 next token prediction,可以較好地緩解 over-smoothing。這一結論解釋了許多模型擴展性研究結果,例如 GPT-based LLMs 的可擴展性以及 MAE 比 ViT 更具擴展性的現(xiàn)象。我們認為這一觀點對我們的學術界有助于理解許多 Transformer 模型的擴展行為。

———————End——————

點擊閱讀原文進入官網(wǎng)


原文標題:【AI簡報20230908期】正式亮相!打開騰訊混元大模型,全部都是生產(chǎn)力

文章出處:【微信公眾號:RTThread物聯(lián)網(wǎng)操作系統(tǒng)】歡迎添加關注!文章轉載請注明出處。


聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • RT-Thread
    +關注

    關注

    32

    文章

    1645

    瀏覽量

    45299

原文標題:【AI簡報20230908期】正式亮相!打開騰訊混元大模型,全部都是生產(chǎn)力

文章出處:【微信號:RTThread,微信公眾號:RTThread物聯(lián)網(wǎng)操作系統(tǒng)】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    HM博學谷狂野AI模型第四

    ,雖然能快速構建原型,卻難以觸及智能的邊界。面對模型的幻覺、推理能力的瓶頸以及定制化需求的落空,單純的應用層知識顯得蒼白無力。博學谷“狂野 AI模型第四”正是為了打破這一層技術天
    發(fā)表于 05-01 17:30

    沐曦股份曦云C系列GPU產(chǎn)品Day 0適配騰訊Hy3 preview語言模型

    4月23日,騰訊團隊正式發(fā)布并開源Hy3 preview語言模型。沐曦股份旗下曦云 C 系列 GPU已完成Day 0適配,為率先支持該模型
    的頭像 發(fā)表于 04-28 15:51 ?827次閱讀
    沐曦股份曦云C系列GPU產(chǎn)品Day 0適配<b class='flag-5'>騰訊</b><b class='flag-5'>混</b><b class='flag-5'>元</b>Hy3 preview語言<b class='flag-5'>模型</b>

    燧原科技L600適配騰訊Hy3 preview語言模型

    2026年4月23日,騰訊 Hy3 preview 語言模型發(fā)布并開源,燧原 L600已同步完成對 Hy3 preview極速全面適配。
    的頭像 發(fā)表于 04-28 15:13 ?223次閱讀
    燧原科技L600適配<b class='flag-5'>騰訊</b><b class='flag-5'>混</b><b class='flag-5'>元</b>Hy3 preview語言<b class='flag-5'>模型</b>

    天數(shù)智芯深度適配騰訊開源Hy3 preview大模型

    4 月 23 日,騰訊正式發(fā)布并開源 Hy3 preview 大模型,作為重建后的首個版
    的頭像 發(fā)表于 04-24 17:56 ?1781次閱讀
    天數(shù)智芯深度適配<b class='flag-5'>騰訊</b><b class='flag-5'>混</b><b class='flag-5'>元</b>開源Hy3 preview大<b class='flag-5'>模型</b>

    騰訊Hy3 preview開源:重構AI模型技術范式,開啟智能計算新紀元

    2026年4月23日,騰訊正式開源其最新語言模型Hy3 preview,這款被官方定義為“
    的頭像 發(fā)表于 04-24 09:07 ?894次閱讀

    云天勵飛中標湛江市AI滲透支撐新質生產(chǎn)力基礎設施建設項目

    日前,云天勵飛中標湛江市AI滲透支撐新質生產(chǎn)力基礎設施建設項目。根據(jù)項目規(guī)劃,公司將基于自研國產(chǎn)AI推理加速卡,參與建設AI推理算集群,并
    的頭像 發(fā)表于 03-14 09:04 ?798次閱讀

    Arm率先適配騰訊HY-1.8B-2Bit模型

    騰訊今日發(fā)布了 HY-1.8B-2Bit,這是一款等效參數(shù)量僅有 0.3B 的極低比特壓縮模型,有助于移動設備廠商和開發(fā)者加速實現(xiàn)生成式 AI
    的頭像 發(fā)表于 02-10 17:29 ?2115次閱讀

    沐曦曦云C500/C550 GPU產(chǎn)品適配騰訊圖像3.0圖生圖模型

    近日,騰訊團隊宣布開源圖像3.0圖生圖版本(HunyuanImage 3.0-Instruct),沐曦股份曦云C500/C550 2
    的頭像 發(fā)表于 02-02 14:43 ?585次閱讀

    壁仞科技壁礪166M產(chǎn)品適配騰訊開源翻譯模型1.5版本

    12月30日,騰訊正式開源翻譯模型1.5版本,該版本共包含兩個模型:Tencent-HY-MT1.5-1.8B和Tencent-HY-M
    的頭像 發(fā)表于 01-05 15:39 ?472次閱讀
    壁仞科技壁礪166M產(chǎn)品適配<b class='flag-5'>騰訊</b><b class='flag-5'>混</b><b class='flag-5'>元</b>開源翻譯<b class='flag-5'>模型</b>1.5版本

    從關鍵詞看新質生產(chǎn)力,瑞之辰踐行創(chuàng)新驅動發(fā)展

    AI浪潮、極速連接、綠色轉型、產(chǎn)業(yè)升級……這些關鍵詞都透露出“引領發(fā)展新質生產(chǎn)力”“因地制宜發(fā)展新質生產(chǎn)力”,已成為未來五年產(chǎn)業(yè)發(fā)展的既定方向。無論是AI人工智能、“新三樣”綠色轉型和
    的頭像 發(fā)表于 12-11 13:23 ?1150次閱讀
    從關鍵詞看新質<b class='flag-5'>生產(chǎn)力</b>,瑞之辰踐行創(chuàng)新驅動發(fā)展

    Arm率先適配騰訊開源模型,助力端側AI創(chuàng)新開發(fā)

    本周初,騰訊宣布開源四款小尺寸模型(參數(shù)分別為 0.5B、1.8B、4B、7B),可無縫運行于消費級顯卡上。作為全球應用范圍最為廣泛的計算平臺,Arm 在開源首日就已率先實現(xiàn)適配,
    的頭像 發(fā)表于 08-08 09:16 ?1580次閱讀
    Arm率先適配<b class='flag-5'>騰訊</b><b class='flag-5'>混</b><b class='flag-5'>元</b>開源<b class='flag-5'>模型</b>,助力端側<b class='flag-5'>AI</b>創(chuàng)新開發(fā)

    硬件與應用同頻共振,英特爾Day 0適配騰訊開源模型

    于OpenVINO? 構建的 AI 軟件平臺的可擴展性,英特爾助力ISV生態(tài)伙伴率先實現(xiàn)應用端Day 0 模型適配,大幅加速了新模型的落地進程,彰顯了 “硬件 + 模型 + 生態(tài)” 協(xié)
    的頭像 發(fā)表于 08-07 14:42 ?1567次閱讀
    硬件與應用同頻共振,英特爾Day 0適配<b class='flag-5'>騰訊</b>開源<b class='flag-5'>混</b><b class='flag-5'>元</b>大<b class='flag-5'>模型</b>

    “一句話秒出PPT“的榮耀YOYO,AI生產(chǎn)力有多強?

    釋放AI生產(chǎn)力,榮耀讓智能體告別發(fā)布會炫技
    的頭像 發(fā)表于 07-14 14:15 ?2855次閱讀
    “一句話秒出PPT“的榮耀YOYO,<b class='flag-5'>AI</b><b class='flag-5'>生產(chǎn)力</b>有多強?

    摩爾線程率先支持騰訊-A13B模型

    近日,騰訊正式開源基于專家混合(MoE)架構的大語言模型-A13B。同日,摩爾線程團隊憑借技術前瞻性,率先完成該模型在全功能GPU的深度
    的頭像 發(fā)表于 07-04 14:10 ?1051次閱讀

    科技云報到:瞄準企業(yè)級智能體,藝賽旗加速業(yè)務出海重塑數(shù)智生產(chǎn)力

    AI為驅動釋放數(shù)智生產(chǎn)力
    的頭像 發(fā)表于 06-05 15:41 ?757次閱讀
    科技云報到:瞄準企業(yè)級智能體,藝賽旗加速業(yè)務出海重塑數(shù)智<b class='flag-5'>生產(chǎn)力</b>
    崇文区| 祁门县| 黑山县| 曲水县| 桦甸市| 奎屯市| 安远县| 大宁县| 海淀区| 唐海县| 武义县| 准格尔旗| 湘潭市| 宜春市| 邯郸县| 兰坪| 孟连| 全椒县| 哈巴河县| 永嘉县| 淄博市| 万荣县| 鹤峰县| 尼玛县| 青川县| 玉树县| 会同县| 华亭县| 盐源县| 鄂伦春自治旗| 竹溪县| 涟水县| 南华县| 湖北省| 兰溪市| 扬州市| 裕民县| 陇川县| 休宁县| 广南县| 黄陵县|