日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

梯度提升算法

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:AI公園 ? 作者:AI公園 ? 2021-03-05 16:12 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

簡(jiǎn)化復(fù)雜的算法

動(dòng)機(jī)

盡管大多數(shù)的Kaggle競(jìng)賽的獲勝者使用了多個(gè)模型的集成,這些集成的模型中,有一個(gè)必定是各種變體的梯度提升算法。舉個(gè)例子,Kaggle競(jìng)賽:Safe Driver Prediction:https://www.kaggle.com/c/porto-seguro-safe-driver-prediction/discussion/44629#250927,Michael Jahrer的方案,使用了表示學(xué)習(xí),使用了6個(gè)模型的綜合。1個(gè)LightGBM和5個(gè)神經(jīng)網(wǎng)絡(luò)。盡管他的成功歸功他使用了結(jié)構(gòu)化的數(shù)據(jù)進(jìn)行了半監(jiān)督學(xué)習(xí),梯度提升算法也實(shí)現(xiàn)了非常重要的部分。

盡管GBM使用的非常廣泛,許多使用者仍然把這個(gè)東西當(dāng)做一個(gè)黑盒子算法,只是使用預(yù)編譯好的庫(kù)跑一跑。寫(xiě)這篇文章的目的是簡(jiǎn)化復(fù)雜的算法,幫助讀者可以直觀的理解算法。我會(huì)解釋原汁原味的梯度提升算法,然后分享一些變種的鏈接。我基于fast.ai的庫(kù)做了一個(gè)決策樹(shù)的代碼,然后構(gòu)建了一個(gè)自己的簡(jiǎn)單的基礎(chǔ)的梯度提升模型。

Ensemble, Bagging, Boosting的簡(jiǎn)單描述

當(dāng)我們使用一個(gè)機(jī)器學(xué)習(xí)技術(shù)來(lái)預(yù)測(cè)目標(biāo)變量的時(shí)候,造成實(shí)際值和預(yù)測(cè)值之間的差別的原因有噪聲,方差和偏差。集成方法能夠幫助減少這些因素(除了噪聲,不可約誤差)。

Ensemble是幾個(gè)預(yù)測(cè)器在一起(比如求平均),給出一個(gè)最終的結(jié)果。使用ensemble的原因是許多不同的預(yù)測(cè)器預(yù)測(cè)同一個(gè)目標(biāo)會(huì)比單個(gè)預(yù)測(cè)器的效果要好。Ensemble技術(shù)又可以分成Bagging和Boosting。

Bagging是一個(gè)簡(jiǎn)單的ensemble的技術(shù),我們構(gòu)建許多獨(dú)立的預(yù)測(cè)器/模型/學(xué)習(xí)器,通過(guò)模型平均的方式來(lái)組合使用。(如權(quán)值的平均,投票或者歸一化平均)

我們?yōu)槊總€(gè)模型使用隨機(jī)抽樣,所以每個(gè)模型都不太一樣。每個(gè)模型的輸入使用有放回的抽樣,所以模型的訓(xùn)練樣本各不相同。因?yàn)檫@個(gè)技術(shù)使用了許多個(gè)不相關(guān)的學(xué)習(xí)器來(lái)進(jìn)行最終的預(yù)測(cè),它通過(guò)減少方差來(lái)減小誤差。bagging的一個(gè)例子是隨機(jī)森林模型。

Boosting在對(duì)模型進(jìn)行ensemble的時(shí)候,不是獨(dú)立的,而是串行的。

這個(gè)技術(shù)使用了這樣的邏輯,后面的預(yù)測(cè)器學(xué)習(xí)的是前面的預(yù)測(cè)器的誤差。因此,觀測(cè)數(shù)據(jù)出現(xiàn)在后面模型中的概率是不一樣的,誤差越大,出現(xiàn)的概率越高。(所以觀測(cè)數(shù)據(jù)不是基于隨機(jī)又放回抽樣bootstrap的方式,而是基于誤差)。預(yù)測(cè)器可以從決策樹(shù),回歸器,分類器中選取。因?yàn)樾碌念A(yù)測(cè)器是從前面的預(yù)測(cè)器的誤差中學(xué)習(xí)的,接近實(shí)際的預(yù)測(cè)只需要更少的時(shí)間和迭代次數(shù)。但是我們不得不選擇嚴(yán)格的停止策略,否則可能會(huì)出現(xiàn)過(guò)擬合。梯度提升算法就是提升算法的一個(gè)例子。

Fig 1.Ensembling

Fig 2.Bagging (independent models) & Boosting (sequential models).Reference:https://quantdare.com/what-is-the-difference-between-bagging-and-boosting/

梯度提升算法

梯度提升是一個(gè)機(jī)器學(xué)習(xí)技術(shù),用來(lái)做回歸和分類的問(wèn)題,通過(guò)組合弱預(yù)測(cè)模型如決策樹(shù),來(lái)得到一個(gè)強(qiáng)預(yù)測(cè)模型。(維基百科定義)

監(jiān)督學(xué)習(xí)算法的目標(biāo)是定義一個(gè)損失函數(shù),然后最小化它。我們來(lái)看看,數(shù)學(xué)上梯度提升算法是怎么工作的。比如我們使用均方誤差(MSE)作為損失函數(shù):

bddbdbae-7c22-11eb-8b86-12bb97331649.jpg

我們希望我們的預(yù)測(cè)讓我們的損失函數(shù)最小。通過(guò)使用梯度提升算法,基于一個(gè)學(xué)習(xí)率來(lái)更新我們的預(yù)測(cè),我們會(huì)發(fā)現(xiàn)一個(gè)讓MSE最小的值。

be251cd8-7c22-11eb-8b86-12bb97331649.png

所以,我們基本上是在更新預(yù)測(cè),讓殘差的和接近于0(或者最小),這樣預(yù)測(cè)的值就和實(shí)際的值足夠的接近了。

梯度提升背后的直覺(jué)

梯度提升背后的邏輯很簡(jiǎn)單,(可以很直觀的理解,不用數(shù)據(jù)公式)。我希望讀這篇文章的人能夠熟悉一下簡(jiǎn)單的線性回歸模型。

線性回歸模型的一個(gè)基本的假設(shè)是殘差是0,也就是說(shuō),參數(shù)應(yīng)該在0的周圍分散。

be8c21b2-7c22-11eb-8b86-12bb97331649.png

現(xiàn)在,把這些殘差作為誤差提交到我們的預(yù)測(cè)模型中。盡管,基于樹(shù)的模型(將決策樹(shù)作為梯度提升的基礎(chǔ)模型)不是基于這個(gè)假設(shè),但是如果我們對(duì)這個(gè)假設(shè)進(jìn)行邏輯思考,我們也許能提出,如果我們能發(fā)現(xiàn)在0的周圍的殘差一些模式,我們可以利用這個(gè)模式來(lái)擬合模型。

所以,梯度提升背后的直覺(jué)就是重復(fù)的利用殘差中的模式利用弱預(yù)測(cè)器來(lái)加強(qiáng)模型,讓模型變得更好。一旦我們到了一個(gè)階段,殘差不具有任何的模式,無(wú)法進(jìn)行建模,我們就可以停止了(否則會(huì)導(dǎo)致過(guò)擬合)。從算法的角度講,我們?cè)谧钚』瘬p失函數(shù),直到測(cè)試損失達(dá)到最小。

總結(jié)一下:

我們首先使用一個(gè)簡(jiǎn)單的模型對(duì)數(shù)據(jù)進(jìn)行建模,分析數(shù)據(jù)的誤差。

這些誤差表示數(shù)據(jù)點(diǎn)使用簡(jiǎn)單的模型很難進(jìn)行擬合。

然后對(duì)于接下來(lái)的模型,我們特別的專注于將那些難于擬合的數(shù)據(jù),把這些數(shù)據(jù)預(yù)測(cè)正確。

最后,我們將所有的預(yù)測(cè)器組合起來(lái),對(duì)于每個(gè)預(yù)測(cè)器給定一個(gè)權(quán)重。

擬合梯度提升模型的步驟

我們來(lái)模擬一些數(shù)據(jù),如下面的散點(diǎn)圖所示,一個(gè)輸入,一個(gè)輸出。

beb975d6-7c22-11eb-8b86-12bb97331649.png

上面的數(shù)據(jù)是通過(guò)下面的python代碼生成的。

x = np.arange(0,50) x = pd.DataFrame({'x':x}) # just random uniform distributions in differnt range y1 = np.random.uniform(10,15,10) y2 = np.random.uniform(20,25,10) y3 = np.random.uniform(0,5,10) y4 = np.random.uniform(30,32,10) y5 = np.random.uniform(13,17,10) y = np.concatenate((y1,y2,y3,y4,y5)) y = y[:,None]

1.擬合一個(gè)簡(jiǎn)單的線性回歸模型或者決策樹(shù)模型(在我的代碼中選擇了決策樹(shù))[x作為輸入,y作為輸出]

xi = x # initialization of input yi = y # initialization of target # x,y --> use where no need to change original y ei = 0 # initialization of error n = len(yi) # number of rows predf = 0 # initial prediction 0 for i in range(30): # loop will make 30 trees (n_estimators). tree = DecisionTree(xi,yi) # DecisionTree scratch code can be found in shared github/kaggle link. # It just create a single decision tree with provided min. sample leaf tree.find_better_split(0) # For selected input variable, this splits (n) data so that std. deviation of # target variable in both splits is minimum as compared to all other splits r = np.where(xi == tree.split)[0][0] # finds index where this best split occurs left_idx = np.where(xi <= tree.split)[0] # index lhs of split ? ? ?right_idx = np.where(xi > tree.split)[0] # index rhs of split

2.計(jì)算誤差,實(shí)際的目標(biāo)值,最小化預(yù)測(cè)目標(biāo)值[e1= y - y_predicted1 ]

3.把誤差作為目標(biāo)值,擬合新的模型,使用同樣的輸入數(shù)據(jù)[叫做e1_predicted]

4.將預(yù)測(cè)的誤差加到之前的預(yù)測(cè)之中[y_predicted2 = y_predicted1 + e1_predicted]

5.在剩下的殘差上擬合另一個(gè)模型,[e2 = y - y_predicted2],重復(fù)第2到第5步,直到開(kāi)始過(guò)擬合,或者殘差的和開(kāi)始不怎么變換。過(guò)擬合可以通過(guò)驗(yàn)證數(shù)據(jù)上的準(zhǔn)確率來(lái)發(fā)現(xiàn)。

# predictions by ith decisision tree predi = np.zeros(n) np.put(predi, left_idx, np.repeat(np.mean(yi[left_idx]), r)) # replace left side mean y np.put(predi, right_idx, np.repeat(np.mean(yi[right_idx]), n-r)) # right side mean y predi = predi[:,None] # make long vector (nx1) in compatible with y predf = predf + predi # final prediction will be previous prediction value + new prediction of residual ei = y - predf # needed originl y here as residual always from original y yi = ei # update yi as residual to reloop

為了幫助理解劃線部分的概念,這里有個(gè)鏈接,有完整的梯度提升模型的實(shí)現(xiàn) [[Link: Gradient Boosting from scratch]](https://www.kaggle.com/grroverpr/gradient-boosting-simplified/)。????????????

梯度提升樹(shù)的可視化工作

藍(lán)色的點(diǎn)(左邊)是輸入(x),紅色的線(左邊)是輸出(y)顯示了決策樹(shù)的預(yù)測(cè)值,綠色的點(diǎn)(右邊)顯示了第i次迭代的殘差vs.輸入(x),迭代表示擬合梯度提升樹(shù)的了序列的順序。

bee0a444-7c22-11eb-8b86-12bb97331649.jpg

Fig 5.Visualization of gradient boosting predictions (First 4 iterations)

bf1d7572-7c22-11eb-8b86-12bb97331649.jpg

Fig 6.Visualization of gradient boosting predictions (18th to 20th iterations)

我們發(fā)現(xiàn)過(guò)了20個(gè)迭代,殘差變成了0附近的隨機(jī)分布(我不會(huì)說(shuō)是隨機(jī)正態(tài)分布),我們的預(yù)測(cè)也非常接近于實(shí)際值。這時(shí)可以停止訓(xùn)練模型了,否則要開(kāi)始過(guò)擬合了。

我們來(lái)看看,50個(gè)迭代之后的樣子:

bf64abcc-7c22-11eb-8b86-12bb97331649.jpg

Fig 7. Visualization of gradient boosting prediction (iteration 50th)

我們發(fā)現(xiàn),即使是50個(gè)迭代之后,殘差vs. x的圖和我們看到的20個(gè)迭代的圖也沒(méi)太大區(qū)別。但是模型正在變的越來(lái)越復(fù)雜,預(yù)測(cè)結(jié)果在訓(xùn)練數(shù)據(jù)上出現(xiàn)了過(guò)擬合。所以,最好是在20個(gè)迭代的時(shí)候就停止。

用來(lái)畫(huà)圖的python代碼。

# plotting after prediction xa = np.array(x.x) # column name of x is x order = np.argsort(xa) xs = np.array(xa)[order] ys = np.array(predf)[order] #epreds = np.array(epred[:,None])[order] f, (ax1, ax2) = plt.subplots(1, 2, sharey=True, figsize = (13,2.5)) ax1.plot(x,y, 'o') ax1.plot(xs, ys, 'r') ax1.set_title(f'Prediction (Iteration {i+1})') ax1.set_xlabel('x') ax1.set_ylabel('y / y_pred') ax2.plot(x, ei, 'go') ax2.set_title(f'Residuals vs. x (Iteration {i+1})') ax2.set_xlabel('x') ax2.set_ylabel('Residuals')

我希望這個(gè)博客可以幫助你對(duì)梯度提升算法的工作有一個(gè)基本的直覺(jué)。為了理解梯度提升回歸算法的細(xì)節(jié),我強(qiáng)烈建議你讀一讀下面這些文章。

更多有用的資源

我的github倉(cāng)庫(kù)和kaggle的kernel的鏈接,從頭開(kāi)始GBM

https://www.kaggle.com/grroverpr/gradient-boosting-simplified/https://nbviewer.jupyter.org/github/groverpr/Machine-Learning/blob/master/notebooks/01_Gradient_Boosting_Scratch.ipynb

一個(gè)直觀和細(xì)致的梯度提升算法的解釋

http://explained.ai/gradient-boosting/index.html

Fast.ai的github倉(cāng)庫(kù)鏈接,從頭開(kāi)始做決策樹(shù)

https://github.com/fastai/fastai

Alexander Ihler的視頻,這視頻幫我理解了很多。

https://youtu.be/sRktKszFmSk

最常用的GBM算法

XGBoost || Lightgbm || Catboost || sklearn.ensemble.GradientBoostingClassifier

責(zé)任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:【算法理解】從頭開(kāi)始理解梯度提升算法

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    研華科技攜全梯度邊緣算力產(chǎn)品矩陣重磅亮相CMEF 2026

    CMEF醫(yī)療展期間,研華重磅展出 x86 與 Arm 雙架構(gòu)并行的全梯度邊緣算力產(chǎn)品矩陣,覆蓋內(nèi)窺鏡、手術(shù)機(jī)器人、超聲 / CT、體外診斷等醫(yī)療核心場(chǎng)景,直擊行業(yè) “算力不匹配、架構(gòu)不兼容、AI 部署難” 三大共性挑戰(zhàn)。
    的頭像 發(fā)表于 04-11 17:25 ?3756次閱讀

    算法工程師需要具備哪些技能?

    景:神經(jīng)網(wǎng)絡(luò)中的權(quán)重矩陣計(jì)算、降維算法(如PCA)等。 概率論與數(shù)理統(tǒng)計(jì)核心內(nèi)容:貝葉斯定理、最大似然估計(jì)、假設(shè)檢驗(yàn)等。應(yīng)用場(chǎng)景:模型不確定性分析、A/B測(cè)試效果評(píng)估等。 微積分核心內(nèi)容:導(dǎo)數(shù)、梯度
    發(fā)表于 02-27 10:53

    小華半導(dǎo)體數(shù)字電源算法配置工具DPACT介紹

    參考設(shè)計(jì)算法基礎(chǔ)上完成定制化開(kāi)發(fā),高效生成符合項(xiàng)目需求的算法程序;用戶幾乎不需要懂電力電子算法、顯著降低開(kāi)發(fā)門(mén)檻、縮短產(chǎn)品上市周期、既提升開(kāi)發(fā)效率又
    的頭像 發(fā)表于 02-11 11:28 ?491次閱讀
    小華半導(dǎo)體數(shù)字電源<b class='flag-5'>算法</b>配置工具DPACT介紹

    SM4算法實(shí)現(xiàn)分享(一)算法原理

    SM4分組加密算法采用的是非線性迭代結(jié)構(gòu),以字為單位進(jìn)行加密、解密運(yùn)算,每次迭代稱為一輪變換,每輪變換包括S盒變換、非線性變換、線性變換、合成變換。加解密算法與密鑰擴(kuò)展都是采用32輪非線性迭代結(jié)構(gòu)
    發(fā)表于 10-30 08:10

    CNN卷積神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)原理及在MCU200T上仿真測(cè)試

    數(shù)的提出很大程度的解決了BP算法在優(yōu)化深層神經(jīng)網(wǎng)絡(luò)時(shí)的梯度耗散問(wèn)題。當(dāng)x&gt;0 時(shí),梯度恒為1,無(wú)梯度耗散問(wèn)題,收斂快;當(dāng)x&lt;0 時(shí),該層的輸出為0。 CNN
    發(fā)表于 10-29 07:49

    梯度科技亮相第27屆中國(guó)軟博會(huì)

    10月15日,第27屆中國(guó)國(guó)際軟件博覽會(huì)在鄭州國(guó)際會(huì)展中心盛大開(kāi)幕。梯度科技作為廣西科技展團(tuán)的重要成員,攜旗下云數(shù)智能底座產(chǎn)品精彩亮相,全面展示公司在政企與軍工等領(lǐng)域數(shù)字化轉(zhuǎn)型的創(chuàng)新成果與標(biāo)桿案例。
    的頭像 發(fā)表于 10-17 17:43 ?1500次閱讀

    信號(hào)發(fā)生器如何與波束賦形算法配合優(yōu)化?

    信號(hào)發(fā)生器與波束賦形算法的配合優(yōu)化是無(wú)線通信系統(tǒng)(如5G毫米波、衛(wèi)星通信、雷達(dá)系統(tǒng))中提升信號(hào)質(zhì)量、覆蓋范圍和抗干擾能力的關(guān)鍵環(huán)節(jié)。其核心在于通過(guò)信號(hào)發(fā)生器生成高精度、動(dòng)態(tài)可調(diào)的測(cè)試信號(hào),模擬真實(shí)
    發(fā)表于 08-08 14:41

    梯度結(jié)構(gòu)聚氨酯研磨墊的制備及其對(duì)晶圓 TTV 均勻性的提升

    摘要 本文聚焦半導(dǎo)體晶圓研磨工藝,介紹梯度結(jié)構(gòu)聚氨酯研磨墊的制備方法,深入探究其對(duì)晶圓總厚度變化(TTV)均勻性的提升作用,為提高晶圓研磨質(zhì)量提供新的技術(shù)思路與理論依據(jù)。 引言 在半導(dǎo)體制造過(guò)程中
    的頭像 發(fā)表于 08-04 10:24 ?926次閱讀
    <b class='flag-5'>梯度</b>結(jié)構(gòu)聚氨酯研磨墊的制備及其對(duì)晶圓 TTV 均勻性的<b class='flag-5'>提升</b>

    DFT算法與FFT算法的優(yōu)劣分析

    一概述 在諧波分析儀中,我們常常提到的兩個(gè)詞語(yǔ),就是DFT算法與FFT算法,那么一款功率分析儀/諧波分析儀采用DFT算法或者FFT算法,用戶往往關(guān)注的是能否達(dá)到所要分析諧波次數(shù)的目的,
    的頭像 發(fā)表于 08-04 09:30 ?1808次閱讀

    梯度科技亮相2025可信云大會(huì)

    近日,由中國(guó)通信標(biāo)準(zhǔn)化協(xié)會(huì)主辦,中國(guó)信息通信研究院(以下簡(jiǎn)稱“中國(guó)信通院”)承辦的2025可信云大會(huì)在北京召開(kāi)。梯度算力調(diào)度平臺(tái)入選《AI Cloud MSP大模型工程化交付服務(wù)商能力圖譜》,同時(shí)其
    的頭像 發(fā)表于 07-29 17:01 ?1447次閱讀

    梯度科技亮相廣西科技成果展示活動(dòng)

    此前,6月23日-24日,廣西科技成果展示活動(dòng)在南寧成功舉辦。本次活動(dòng)重點(diǎn)展示了廣西科技“尖鋒”行動(dòng)成效、中國(guó)科學(xué)院重大科技成果、自治區(qū)重大與重點(diǎn)科普成果等。梯度科技作為本土科技創(chuàng)新企業(yè)代表之一,攜自主研發(fā)的人工智能平臺(tái)及行業(yè)解決方案重磅亮相,成為本次前沿科技成果展示活動(dòng)中的亮點(diǎn)。
    的頭像 發(fā)表于 06-27 17:48 ?1577次閱讀

    基于進(jìn)給量梯度調(diào)節(jié)的碳化硅襯底切割厚度均勻性提升技術(shù)

    碳化硅襯底切割過(guò)程中,厚度不均勻問(wèn)題嚴(yán)重影響其后續(xù)應(yīng)用性能。傳統(tǒng)固定進(jìn)給量切割方式難以適應(yīng)材料特性與切割工況變化,基于進(jìn)給量梯度調(diào)節(jié)的方法為提升切割厚度均勻性提供了新思路,對(duì)推動(dòng)碳化硅襯底加工
    的頭像 發(fā)表于 06-13 10:07 ?749次閱讀
    基于進(jìn)給量<b class='flag-5'>梯度</b>調(diào)節(jié)的碳化硅襯底切割厚度均勻性<b class='flag-5'>提升</b>技術(shù)

    交流充電樁負(fù)載能效提升技術(shù)

    沖損耗,降低無(wú)效能耗5%~10%。 谷值充電與分時(shí)電價(jià)協(xié)同 通過(guò)內(nèi)置能源管理算法,在電網(wǎng)負(fù)荷低谷期(如夜間)自動(dòng)提高充電功率,利用低價(jià)電降低用戶成本,同時(shí)平衡電網(wǎng)負(fù)載,提升能源利用率。 多模塊并聯(lián)
    發(fā)表于 05-21 14:38

    梯度科技參編兩項(xiàng)重磅標(biāo)準(zhǔn)正式發(fā)布

    近日,由梯度科技深度參與編制的團(tuán)體標(biāo)準(zhǔn)《國(guó)家工業(yè)互聯(lián)網(wǎng)大數(shù)據(jù)中心體系 應(yīng)用系統(tǒng)數(shù)據(jù)資源接入規(guī)范》(下稱《規(guī)范》)和《國(guó)家工業(yè)互聯(lián)網(wǎng)大數(shù)據(jù)中心體系 產(chǎn)業(yè)鏈編碼規(guī)則》(下稱《規(guī)則》)正式發(fā)布。兩項(xiàng)標(biāo)準(zhǔn)分
    的頭像 發(fā)表于 05-08 15:56 ?823次閱讀

    鈣鈦礦/硅疊層電池效率達(dá)30.74%,梯度折射率IZrO/IZO多層透明電極的應(yīng)用突破

    鈣鈦礦/硅疊層太陽(yáng)能電池因其理論效率超40%而成為光伏領(lǐng)域的研究熱點(diǎn)。然而,透明電極的光學(xué)損失(如反射與寄生吸收)嚴(yán)重限制了短路電流密度JSC的提升。傳統(tǒng)單層透明導(dǎo)電氧化物(TCO)如IZO(鋅摻雜
    的頭像 發(fā)表于 05-07 09:03 ?3534次閱讀
    鈣鈦礦/硅疊層電池效率達(dá)30.74%,<b class='flag-5'>梯度</b>折射率IZrO/IZO多層透明電極的應(yīng)用突破
    佛山市| 台前县| 会泽县| 镇赉县| 天全县| 海盐县| 登封市| 汝城县| 资兴市| 泗洪县| 平阳县| 武邑县| 三穗县| 岳阳市| 双鸭山市| 满洲里市| 沅陵县| 临西县| 福清市| 潼关县| 原阳县| 宜兰市| 永修县| 萨迦县| 抚顺市| 松原市| 原阳县| 砀山县| 兰考县| 柘荣县| 元阳县| 乌兰县| 临湘市| 宜城市| 平原县| 文安县| 新乡市| 元阳县| 龙游县| 黔西县| 太湖县|