日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

飛槳框架高層API 十行代碼搞定深度學(xué)習(xí)

工程師鄧生 ? 來(lái)源:機(jī)器之心 ? 作者:機(jī)器之心 ? 2020-12-02 17:52 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

向往深度學(xué)習(xí)技術(shù),可是深度學(xué)習(xí)框架太難學(xué)怎么辦?百度傾心打造飛槳框架高層 API,零基礎(chǔ)也能輕松上手深度學(xué)習(xí),一起來(lái)看看吧?另:文末有福利,一定要看完呦~

高層 API,What

深度學(xué)習(xí)作為人工智能時(shí)代的核心技術(shù),近年來(lái)無(wú)論學(xué)術(shù)、還是工業(yè)領(lǐng)域,均發(fā)揮著愈加重要的作用。然而,深度學(xué)習(xí)理論太難學(xué),開(kāi)發(fā)過(guò)程太復(fù)雜,又將許多人拒之于深度學(xué)習(xí)的門(mén)外。

為了簡(jiǎn)化深度學(xué)習(xí)的學(xué)習(xí)過(guò)程、降低深度學(xué)習(xí)的開(kāi)發(fā)難度,百度飛槳框架歷經(jīng)近一年的打磨,不斷地優(yōu)化深度學(xué)習(xí) API,并針對(duì)開(kāi)發(fā)者的使用場(chǎng)景進(jìn)行封裝,在飛槳框架的最新版本中,推出了高低融合、科學(xué)統(tǒng)一的飛槳全新 API 體系。

飛槳框架將 API 分為兩種,基礎(chǔ) API 和高層 API。用制作披薩舉例,一般有兩種方法:一種是我們準(zhǔn)備好面粉、牛奶、火腿等食材,精心加工后,就能制作出美味的披薩;而第二種則是我們買(mǎi)商家預(yù)烤制的披薩餅,以及調(diào)好的餡料,直接加熱就可以吃到披薩了。

那么這兩種方法有什么區(qū)別呢?采用方法一,自己準(zhǔn)備食材,可以隨心所欲的搭配料理,制作醬料,從而滿足我們的不同口味,但是,這更適合「老司機(jī)」,如果是新人朋友,很有可能翻車;而方法二,用商家預(yù)烤制的披薩餅與餡料,直接加熱就可以非常快速的完成披薩的制作,而且味道會(huì)有保障;但是,相比于方法一,我們會(huì)少一些口味的選擇。

用框架來(lái)類比,基礎(chǔ) API 對(duì)應(yīng)方法一,高層 API 對(duì)應(yīng)方法二。使用基礎(chǔ) API,我們可以隨心所欲的搭建自己的深度學(xué)習(xí)模型,不會(huì)受到任何限制;而使用方法二,我們可以很快的實(shí)現(xiàn)模型,但是可能會(huì)少一些自主性。

但是,與制作披薩不同的是,飛槳框架可以做到真正的「魚(yú)與熊掌」可以兼得。因?yàn)楦邔?API 本身不是一個(gè)獨(dú)立的體系,它完全可以和基礎(chǔ) API 互相配合使用,做到高低融合,使用起來(lái)會(huì)更加便捷。使我們?cè)陂_(kāi)發(fā)過(guò)程中,既可以享受到基礎(chǔ) API 的強(qiáng)大,又可以兼顧高層 API 的快捷。

高層 API,All

飛槳框架高層 API 的全景圖如下:

從圖中可以看出,飛槳框架高層 API 由五個(gè)模塊組成,分別是數(shù)據(jù)加載、模型組建、模型訓(xùn)練、模型可視化和高階用法。針對(duì)不同的使用場(chǎng)景,飛槳框架提供了不同高層 API,從而降低開(kāi)發(fā)難度,讓每個(gè)人都能輕松上手深度學(xué)習(xí)。

我們先通過(guò)一個(gè)深度學(xué)習(xí)中經(jīng)典的手寫(xiě)數(shù)字分類任務(wù),來(lái)簡(jiǎn)單了解飛槳高層 API。然后再詳細(xì)的介紹每個(gè)模塊中所包含的 API。

importpaddle

frompaddle.vision.transforms importCompose, Normalize

frompaddle.vision.datasets importMNIST

importpaddle.nn asnn

# 數(shù)據(jù)預(yù)處理,這里用到了歸一化

transform = Compose([Normalize(mean=[ 127.5],

std=[ 127.5],

data_format= ‘CHW’)])

# 數(shù)據(jù)加載,在訓(xùn)練集上應(yīng)用數(shù)據(jù)預(yù)處理的操作

train_dataset = paddle.vision.datasets.MNIST(mode= ‘train’, transform=transform)

test_dataset = paddle.vision.datasets.MNIST(mode= ‘test’, transform=transform)

# 模型組網(wǎng)

mnist = nn.Sequential(

nn.Flatten,

nn.Linear( 784, 512),

nn.ReLU,

nn.Dropout( 0.2),

nn.Linear( 512, 10))

# 模型封裝,用 Model 類封裝

model = paddle.Model(mnist)

# 模型配置:為模型訓(xùn)練做準(zhǔn)備,設(shè)置優(yōu)化器,損失函數(shù)和精度計(jì)算方式

model.prepare(optimizer=paddle.optimizer.Adam(parameters=model.parameters),

loss=nn.CrossEntropyLoss,

metrics=paddle.metric.Accuracy)

# 模型訓(xùn)練,

model.fit(train_dataset,

epochs= 10,

batch_size= 64,

verbose= 1)

# 模型評(píng)估,

model.evaluate(test_dataset, verbose= 1)

# 模型保存,

model.save( ‘model_path’)

從示例可以看出,在數(shù)據(jù)預(yù)處理、數(shù)據(jù)加載、模型組網(wǎng)、模型訓(xùn)練、模型評(píng)估、模型保存等場(chǎng)景,高層 API 均可以通過(guò) 1~3 行代碼實(shí)現(xiàn)。相比傳統(tǒng)方法動(dòng)輒幾十行的代碼量,高層 API 只需要十來(lái)行代碼,就能輕松完成一個(gè) MNIST 分類器的實(shí)現(xiàn)。以極少的代碼就能達(dá)到與基礎(chǔ) API 同樣的效果,大幅降低了深度學(xué)習(xí)的學(xué)習(xí)門(mén)檻。

如果是初次學(xué)習(xí)深度學(xué)習(xí)框架,使用飛槳高層 API,可以「凡爾賽」說(shuō)出「好煩哦,飛槳高層 API 怎么這么快就完成開(kāi)發(fā)了,我還想多寫(xiě)幾行代碼呢!」

高層 API,How

接下來(lái)以 CV 任務(wù)為例,簡(jiǎn)單介紹飛槳高層 API 在不同場(chǎng)景下的使用方法。

本示例的完整代碼可以在 AI Studio 上獲取,無(wú)需準(zhǔn)備任何軟硬件環(huán)境即可直接在線運(yùn)行代碼,相當(dāng)方便哦:https://aistudio.baidu.com/aistudio/projectdetail/1243085

一、數(shù)據(jù)預(yù)處理與數(shù)據(jù)加載

對(duì)于數(shù)據(jù)加載,在一些典型的任務(wù)中,我們完全可以使用飛槳框架內(nèi)置的數(shù)據(jù)集,完成數(shù)據(jù)的加載。飛槳框架將常用的數(shù)據(jù)集作為領(lǐng)域 API,集成在 paddle.vision.datasets 目錄中,包含了 CV 領(lǐng)域中常見(jiàn)的 MNIST、Cifar、Flowers 等數(shù)據(jù)集。

而在數(shù)據(jù)預(yù)處理場(chǎng)景中,飛槳框架提供了 20 多種常見(jiàn)的圖像預(yù)處理 API,方便我們快速實(shí)現(xiàn)數(shù)據(jù)增強(qiáng),如實(shí)現(xiàn)圖像的色調(diào)、對(duì)比度、飽和度、大小等各種數(shù)字圖像處理的方法。圖像預(yù)處理 API 集成在 paddle.vision.transforms 目錄中,使用起來(lái)非常方便。只需要先創(chuàng)建一個(gè)數(shù)據(jù)預(yù)處理的 transform,在其中存入需要進(jìn)行的數(shù)據(jù)預(yù)處理方法,然后在數(shù)據(jù)加載的過(guò)程中,將 transform 作為參數(shù)傳入即可。

此外,如果我們需要加載自己的數(shù)據(jù)集,使用飛槳框架標(biāo)準(zhǔn)數(shù)據(jù)定義與數(shù)據(jù)加載 API paddle.io.Dataset 與 paddle.io.DataLoader,就可以「一鍵」完成數(shù)據(jù)集的定義與數(shù)據(jù)的加載。這里通過(guò)一個(gè)案例來(lái)展示如何利用 Dataset 定義數(shù)據(jù)集,示例如下:

frompaddle.io importDataset

classMyDataset(Dataset):

“”“

步驟一:繼承 paddle.io.Dataset 類

”“”

def__init__(self):

“”“

步驟二:實(shí)現(xiàn)構(gòu)造函數(shù),定義數(shù)據(jù)讀取方式,劃分訓(xùn)練和測(cè)試數(shù)據(jù)集

”“”

super(MyDataset, self).__init__

self.data = [

[ ‘traindata1’, ‘label1’],

[ ‘traindata2’, ‘label2’],

[ ‘traindata3’, ‘label3’],

[ ‘traindata4’, ‘label4’],

def__getitem__(self, index):

“”“

步驟三:實(shí)現(xiàn)__getitem__方法,定義指定 index 時(shí)如何獲取數(shù)據(jù),并返回單條數(shù)據(jù)(訓(xùn)練數(shù)據(jù),對(duì)應(yīng)的標(biāo)簽

”“”

data = self.data[index][ 0]

label = self.data[index][ 1]

returndata, label

def__len__(self):

“”“

步驟四:實(shí)現(xiàn)__len__方法,返回?cái)?shù)據(jù)集總數(shù)目

”“”

returnlen(self.data)

# 測(cè)試定義的數(shù)據(jù)集

train_dataset = MyDataset

print( ‘=============train dataset=============’)

fordata, label intrain_dataset:

print(data, label)

只需要按照上述規(guī)范的四個(gè)步驟,我們就實(shí)現(xiàn)了一個(gè)自己的數(shù)據(jù)集。然后,將 train_dataset 作為參數(shù),傳入到 DataLoader 中,即可獲得一個(gè)數(shù)據(jù)加載器,完成訓(xùn)練數(shù)據(jù)的加載。

【Tips:對(duì)于數(shù)據(jù)集的定義,飛槳框架同時(shí)支持 map-style 和 iterable-style 兩種類型的數(shù)據(jù)集定義,只需要分別繼承 paddle.io.Dataset 和 paddle.io.IterableDataset 即可。】

二、網(wǎng)絡(luò)構(gòu)建

在網(wǎng)絡(luò)構(gòu)建模塊,飛槳高層 API 與基礎(chǔ) API 保持一致,統(tǒng)一使用 paddle.nn 下的 API 進(jìn)行組網(wǎng)。paddle.nn 目錄下包含了所有與模型組網(wǎng)相關(guān)的 API,如卷積相關(guān)的 Conv1D、Conv2D、Conv3D,循環(huán)神經(jīng)網(wǎng)絡(luò)相關(guān)的 RNN、LSTM、GRU 等。

對(duì)于組網(wǎng)方式,飛槳框架支持 Sequential 或 SubClass 進(jìn)行模型組建。Sequential 可以幫助我們快速的組建線性的網(wǎng)絡(luò)結(jié)構(gòu),而 SubClass 支持更豐富靈活的網(wǎng)絡(luò)結(jié)構(gòu)。我們可以根據(jù)實(shí)際的使用場(chǎng)景,來(lái)選擇最合適的組網(wǎng)方式。如針對(duì)順序的線性網(wǎng)絡(luò)結(jié)構(gòu)可以直接使用 Sequential ,而如果是一些比較復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu),我們使用 SubClass 的方式來(lái)進(jìn)行模型的組建,在 __init__ 構(gòu)造函數(shù)中進(jìn)行 Layer 的聲明,在 forward 中使用聲明的 Layer 變量進(jìn)行前向計(jì)算。

下面就來(lái)分別看一下 Sequential 與 SubClass 的實(shí)例。

1、Sequential

對(duì)于線性的網(wǎng)絡(luò)模型,我們只需要按網(wǎng)絡(luò)模型的結(jié)構(gòu)順序,一層一層的加到 Sequential 后面即可,具體實(shí)現(xiàn)如下:

# Sequential 形式組網(wǎng)

mnist = nn.Sequential(

nn.Flatten,

nn.Linear(784, 512),

nn.ReLU,

nn.Dropout(0.2),

nn.Linear(512, 10)

2、SubClass

使用 SubClass 進(jìn)行組網(wǎng)的實(shí)現(xiàn)如下:

# SubClass 方式組網(wǎng)

classMnist( nn. Layer):

def__init__( self) :

super(Mnist, self).__init_ _

self.flatten = nn.Flatten

self.linear_1 = nn.Linear( 784, 512)

self.linear_2 = nn.Linear( 512, 10)

self.relu = nn.ReLU

self.dropout = nn.Dropout( 0. 2)

defforward( self, inputs) :

y = self.flatten(inputs)

y = self.linear_1(y)

y = self.relu(y)

y = self.dropout(y)

y = self.linear_2(y)

returny

?

上述的 SubClass 組網(wǎng)的結(jié)果與 Sequential 組網(wǎng)的結(jié)果完全一致,可以明顯看出,使用 SubClass 組網(wǎng)會(huì)比使用 Sequential 更復(fù)雜一些。不過(guò),這帶來(lái)的是網(wǎng)絡(luò)模型結(jié)構(gòu)的靈活性。我們可以設(shè)計(jì)不同的網(wǎng)絡(luò)模型結(jié)構(gòu)來(lái)應(yīng)對(duì)不同的場(chǎng)景。

3、飛槳框架內(nèi)置模型

除了自定義模型結(jié)構(gòu)外,飛槳框架還「貼心」的內(nèi)置了許多模型,真正的一行代碼實(shí)現(xiàn)深度學(xué)習(xí)模型。目前,飛槳框架內(nèi)置的模型都是 CV 領(lǐng)域領(lǐng)域的模型,都在 paddle.vision.models 目錄下,包含了常見(jiàn)的 vgg 系列、resnet 系列等模型。使用方式如下:

import paddle

from paddle.vision.models import resnet18

# 方式一: 一行代碼直接使用

resnetresnet = resnet18

# 方式二: 作為主干網(wǎng)絡(luò)進(jìn)行二次開(kāi)發(fā)

classFaceNet( paddle. nn. Layer):

def__init__( self, num_keypoints= 15, pretrained=False) :

super(FaceNet, self).__init_ _

self.backbone = resnet18(pretrained)

self.outLayer1 = paddle.nn.Linear( 1000, 512)

self.outLayer2 = paddle.nn.Linear( 512, num_keypoints* 2)

defforward( self, inputs) :

out = self.backbone(inputs)

out = self.outLayer1(out)

out = self.outLayer2(out)

returnout

三、模型可視化

在我們完成模型的構(gòu)建后,有時(shí)還需要可視化模型的網(wǎng)絡(luò)結(jié)構(gòu)與參數(shù),只要我們用 Model 進(jìn)行模型的封裝后,然后調(diào)用 model.summary 即可實(shí)現(xiàn)網(wǎng)絡(luò)模型的可視化,具體如下:

mnist = nn.Sequential(

nn.Flatten,

nn.Linear(784, 512),

nn.ReLU,

nn.Dropout(0.2),

nn.Linear(512, 10))

# 模型封裝,用 Model 類封裝

model = paddle.Model(mnist)

model.summary

其輸出如下:

---------------------------------------------------------------------------

Layer ( type) Input Shape Output Shape Param #

===========================================================================

Flatten -795[[32, 1, 28, 28]][ 32, 784] 0

Linear -5[[32, 784]][ 32, 512] 401, 920

ReLU -3[[32, 512]][ 32, 512] 0

Dropout -3[[32, 512]][ 32, 512] 0

Linear -6[[32, 512]][ 32, 10] 5, 130

===========================================================================

Total params: 407, 050

Trainable params: 407, 050

Non-trainable params: 0

---------------------------------------------------------------------------

Input size (MB): 0.10

Forward/backward pass size (MB): 0.57

Params size (MB): 1.55

Estimated Total Size (MB): 2.22

---------------------------------------------------------------------------

{ ‘total_params’: 407050, ‘trainable_params’: 407050}

?

Model.summary 不僅會(huì)給出每一層網(wǎng)絡(luò)的形狀,還會(huì)給出每層網(wǎng)絡(luò)的參數(shù)量與模型的總參數(shù)量,非常方便直觀的就可以看到模型的全部信息。

四、模型訓(xùn)練

1、使用高層 API 在全部數(shù)據(jù)集上進(jìn)行訓(xùn)練

過(guò)去常常困擾深度學(xué)習(xí)開(kāi)發(fā)者的一個(gè)問(wèn)題是,模型訓(xùn)練的代碼過(guò)于復(fù)雜,常常要寫(xiě)好多步驟,才能使程序運(yùn)行起來(lái),冗長(zhǎng)的代碼使許多開(kāi)發(fā)者望而卻步。

現(xiàn)在,飛槳高層 API 將訓(xùn)練、評(píng)估與預(yù)測(cè) API 都進(jìn)行了封裝,直接使用 Model.prepare、Model.fit、Model.evaluate、Model.predict就可以完成模型的訓(xùn)練、評(píng)估與預(yù)測(cè)。

對(duì)比傳統(tǒng)框架動(dòng)輒一大塊的訓(xùn)練代碼。使用飛槳高層 API,可以在 3-5 行內(nèi),完成模型的訓(xùn)練,極大的簡(jiǎn)化了開(kāi)發(fā)的代碼量,對(duì)初學(xué)者開(kāi)發(fā)者非常友好。具體代碼如下:

# 將網(wǎng)絡(luò)結(jié)構(gòu)用 Model 類封裝成為模型

model = paddle.Model(mnist)

# 為模型訓(xùn)練做準(zhǔn)備,設(shè)置優(yōu)化器,損失函數(shù)和精度計(jì)算方式

model.prepare(optimizer=paddle.optimizer.Adam(parameters=model.parameters),

loss=paddle.nn.CrossEntropyLoss,

metrics=paddle.metric.Accuracy)

# 啟動(dòng)模型訓(xùn)練,指定訓(xùn)練數(shù)據(jù)集,設(shè)置訓(xùn)練輪次,設(shè)置每次數(shù)據(jù)集計(jì)算的批次大小,設(shè)置日志格式

model.fit(train_dataset,

epochs=10,

batch_size=64,

verbose=1)

# 啟動(dòng)模型評(píng)估,指定數(shù)據(jù)集,設(shè)置日志格式

model.evaluate(test_dataset, verbose=1)

# 啟動(dòng)模型測(cè)試,指定測(cè)試集

Model.predict(test_dataset)

2、使用高層 API 在一個(gè)批次的數(shù)據(jù)集上訓(xùn)練、驗(yàn)證與測(cè)試

有時(shí)我們需要對(duì)數(shù)據(jù)按 batch 進(jìn)行取樣,然后完成模型的訓(xùn)練與驗(yàn)證,這時(shí),可以使用 train_batch、eval_batch、predict_batch 完成一個(gè)批次上的訓(xùn)練、驗(yàn)證與測(cè)試,具體如下:

# 模型封裝,用 Model 類封裝

model = paddle.Model(mnist)

# 模型配置:為模型訓(xùn)練做準(zhǔn)備,設(shè)置優(yōu)化器,損失函數(shù)和精度計(jì)算方式

model.prepare(optimizer=paddle.optimizer.Adam(parameters=model.parameters),

loss=nn.CrossEntropyLoss,

metrics=paddle.metric.Accuracy)

# 構(gòu)建訓(xùn)練集數(shù)據(jù)加載器

train_loader = paddle.io.DataLoader(train_dataset, batch_size= 64, shuffle= True)

# 使用 train_batch 完成訓(xùn)練

forbatch_id, data inenumerate(train_loader):

model.train_batch([data[ 0]],[data[ 1]])

# 構(gòu)建測(cè)試集數(shù)據(jù)加載器

test_loader = paddle.io.DataLoader(test_dataset, places=paddle.CPUPlace, batch_size= 64, shuffle= True)

# 使用 eval_batch 完成驗(yàn)證

forbatch_id, data inenumerate(test_loader):

model.eval_batch([data[ 0]],[data[ 1]])

# 使用 predict_batch 完成預(yù)測(cè)

forbatch_id, data inenumerate(test_loader):

model.predict_batch([data[ 0]])

五、高階用法

除此之外,飛槳高層 API 還支持一些高階的玩法,如自定義 Loss、自定義 Metric、自定義 Callback 等等。

自定義 Loss 是指有時(shí)我們會(huì)遇到特定任務(wù)的 Loss 計(jì)算方式在框架既有的 Loss 接口中不存在,或算法不符合自己的需求,那么期望能夠自己來(lái)進(jìn)行 Loss 的自定義。

自定義 Metric 和自定義 Loss 的場(chǎng)景一樣,如果遇到一些想要做個(gè)性化實(shí)現(xiàn)的操作時(shí),我們也可以來(lái)通過(guò)框架完成自定義的評(píng)估計(jì)算方法。

自定義 Callback 則是可以幫助我們收集訓(xùn)練時(shí)的一些參數(shù)以及數(shù)據(jù),由于 Model.fit封裝了訓(xùn)練過(guò)程,如果我們需要保存訓(xùn)練時(shí)的 loss、metric 等信息,則需要通過(guò) callback 參數(shù)收集這部分信息。

更多更豐富的玩法,可以掃描關(guān)注文末的二維碼獲取~

高層 API,Next

上文以 CV 任務(wù)為例,介紹了飛槳框架高層 API 的使用指南。后續(xù),飛槳框架還計(jì)劃推出 NLP 領(lǐng)域?qū)S玫臄?shù)據(jù)預(yù)處理模塊,如對(duì)數(shù)據(jù)進(jìn)行 padding、獲取數(shù)據(jù)集詞表等;在組網(wǎng)方面,也會(huì)實(shí)現(xiàn) NLP 領(lǐng)域中組網(wǎng)專用的 API,如組網(wǎng)相關(guān)的 sequence_mask,評(píng)估指標(biāo)相關(guān)的 BLEU 等;最后,針對(duì) NLP 領(lǐng)域中的神器 transformer,我們也會(huì)對(duì)其進(jìn)行特定的優(yōu)化;待這些功能上線后,我們會(huì)第一時(shí)間告訴大家,敬請(qǐng)期待吧~

高層 API,Where

看完前面飛槳高層 API 的使用介紹,是不是有種躍躍欲試的沖動(dòng)呀?

體驗(yàn)方式一:在線體驗(yàn)

無(wú)需準(zhǔn)備任何軟硬件環(huán)境,直接訪問(wèn)以下地址,即可在線跑代碼看效果:https://aistudio.baidu.com/aistudio/projectdetail/1243085

體驗(yàn)方式二:本地體驗(yàn)

如果你還想在自己本地電腦上體驗(yàn),那需要確保本地電腦上已成功安裝飛槳開(kāi)源框架 2.0。

下面介紹飛槳開(kāi)源框架 2.0 的安裝方法,可以參考下面的命令,直接使用 pip 安裝。安裝后,就可以開(kāi)始使用高層 API 啦。

# CPU 版

$ pip3 install paddlepaddle== 2.0.0rc0 -i https: //mirror.baidu.com/pypi/simple

# GPU

$ pip3 install paddlepaddle_gpu== 2.0.0rc0 -i https: //mirror.baidu.com/pypi/simple

高層 API,You

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 框架
    +關(guān)注

    關(guān)注

    0

    文章

    404

    瀏覽量

    18504
  • 代碼
    +關(guān)注

    關(guān)注

    30

    文章

    4977

    瀏覽量

    74425
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5610

    瀏覽量

    124659
  • 飛槳
    +關(guān)注

    關(guān)注

    0

    文章

    37

    瀏覽量

    2668
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    瀚博半導(dǎo)體宣布深度參與百度黑客松生態(tài)活動(dòng)

    近日,瀚博半導(dǎo)體正式宣布深度參與百度主辦的黑客松生態(tài)活動(dòng)。面向全球開(kāi)發(fā)者開(kāi)放旗下載天系列加速卡開(kāi)發(fā)環(huán)境,支持部署百度文心ERNIE-4.5 系列開(kāi)源模型與PP-OCRv4 文檔理解模型,打造
    的頭像 發(fā)表于 04-11 09:41 ?718次閱讀

    沐曦股份與百度黑客松硬核賽題來(lái)襲

    沐曦股份作為黑客松第期文心合作伙伴賽道核心出題方之一,攜專屬賽題「優(yōu)化 PaddleOCR-VL-1.5+MetaX GPU」重磅來(lái)襲,邀全球開(kāi)發(fā)者共探深度
    的頭像 發(fā)表于 04-02 09:20 ?465次閱讀
    沐曦股份與百度<b class='flag-5'>飛</b><b class='flag-5'>槳</b>黑客松硬核賽題來(lái)襲

    【智能檢測(cè)】基于AI深度學(xué)習(xí)拍技術(shù)的影像測(cè)量系統(tǒng):實(shí)現(xiàn)高效精準(zhǔn)的全自動(dòng)光學(xué)檢測(cè)與智能制造數(shù)據(jù)閉環(huán)

    內(nèi)容概要:文檔內(nèi)容介紹了中圖儀器(Chotest)影像測(cè)量?jī)x融合人工智能深度學(xué)習(xí)拍技術(shù)的自動(dòng)化檢測(cè)解決方案。系統(tǒng)通過(guò)AI深度學(xué)習(xí)實(shí)現(xiàn)
    發(fā)表于 03-31 17:11

    沐曦曦索GPU產(chǎn)品賦能AI4S重塑材料研發(fā)新范式

    2026年1月29日,“AI4Science 前沿:材料研發(fā)計(jì)算新范式——國(guó)產(chǎn)算力×深度學(xué)習(xí)框架技術(shù)沙龍·上海站”在張江百度人工智能產(chǎn)業(yè)
    的頭像 發(fā)表于 02-10 14:28 ?708次閱讀

    蔡司光學(xué)高層蒞臨谷東智能參訪交流

    2026年1月6日,蔡司光學(xué)XR中國(guó)業(yè)務(wù)發(fā)展主管June Jiang、XR中國(guó)產(chǎn)品管理負(fù)責(zé)人Alex Zhou等一來(lái)到谷東智能參訪交流。這是繼此前谷東智能董事長(zhǎng)崔海濤、COO 曹炳辰等高層走訪蔡司光學(xué)之后,雙方圍繞光學(xué)與顯示領(lǐng)域的又一次
    的頭像 發(fā)表于 01-08 17:28 ?716次閱讀

    【團(tuán)購(gòu)】獨(dú)家全套珍藏!龍哥LabVIEW視覺(jué)深度學(xué)習(xí)實(shí)戰(zhàn)課(11大系列課程,共5000+分鐘)

    的亮點(diǎn)及優(yōu)勢(shì)? 一、課程亮點(diǎn) 工業(yè)級(jí)案例:包含雙CCD光學(xué)分選轉(zhuǎn)盤(pán)、機(jī)械手手眼協(xié)調(diào)等12個(gè)完整項(xiàng)目 源碼交付:所有案例提供LabVIEW源代碼,包含深度學(xué)習(xí)模型DLL 硬件聯(lián)動(dòng):支持工業(yè)相機(jī)硬觸發(fā)
    發(fā)表于 12-04 09:28

    2025百度大科技前沿發(fā)明亮相

    從大模型、深度學(xué)習(xí)框架到智能體、數(shù)字人、無(wú)人駕駛等AI技術(shù)突破,今年發(fā)布的大科技前沿發(fā)明涵蓋了人工智能算力、框架、模型、場(chǎng)景應(yīng)用全棧技術(shù)體
    的頭像 發(fā)表于 11-05 15:42 ?876次閱讀

    1688 API 實(shí)戰(zhàn)指南:搞定批發(fā)場(chǎng)景的 3 大核心難題(附簽名代碼與避坑清單)

    全球電商API
    的頭像 發(fā)表于 09-10 16:27 ?680次閱讀

    英特爾高層到訪江元集團(tuán)深圳總部

    近日,英特爾中國(guó)區(qū)客戶端技術(shù)總監(jiān)顏濤、CTE業(yè)務(wù)經(jīng)理Aaron Dai等高層代表一到訪江元集團(tuán)深圳總部。江元集團(tuán)董事長(zhǎng)鄭洪明親自帶領(lǐng)筆電事業(yè)部國(guó)內(nèi)負(fù)責(zé)人熊陽(yáng)輝、研發(fā)副總李寧熱情接待并陪同參觀交流
    的頭像 發(fā)表于 09-09 10:19 ?929次閱讀

    別再搜了!國(guó)內(nèi)用戶搞定OpenAI API Key的兩種最佳實(shí)踐(保姆級(jí)教程)

    需要國(guó)際卡? 拿到Key了,卻不知道怎么在代碼里安全地使用? 別慌,你遇到的坑,我都踩過(guò)。這篇教程就是你的避坑指南,我將以“技術(shù)學(xué)長(zhǎng)”的身份,帶你走通兩條獲取OpenAI API Key的路徑,從注冊(cè)到代碼調(diào)用,幫你
    的頭像 發(fā)表于 08-24 19:02 ?1.5w次閱讀

    信捷電氣Motion-API重構(gòu)工業(yè)控制形態(tài)框架

    在工業(yè)自動(dòng)化領(lǐng)域,“高效” “靈活” “穩(wěn)定” 始終是核心追求。而Motion-API作為信捷電氣推出的集成化解決方案,正以 “硬實(shí)力+軟創(chuàng)新” 的雙重優(yōu)勢(shì),重新定義工業(yè)控制的邊界。從框架設(shè)計(jì)到硬件配置,從軟件功能到實(shí)際應(yīng)用,它將高靈活度與強(qiáng)性能
    的頭像 發(fā)表于 08-07 16:22 ?1076次閱讀
    信捷電氣Motion-<b class='flag-5'>API</b>重構(gòu)工業(yè)控制形態(tài)<b class='flag-5'>框架</b>

    如何在RK3576開(kāi)發(fā)板上運(yùn)行TinyMaix :超輕量級(jí)推理框架--基于米爾MYD-LR3576開(kāi)發(fā)板

    讓你在任意低資源MCU上運(yùn)行輕量級(jí)深度學(xué)習(xí)模型。關(guān)鍵特性核心代碼少于400(tm_layers.c+tm_model.c+arch_cpu.h),
    的頭像 發(fā)表于 07-25 08:03 ?4439次閱讀
    如何在RK3576開(kāi)發(fā)板上運(yùn)行TinyMaix :超輕量級(jí)推理<b class='flag-5'>框架</b>--基于米爾MYD-LR3576開(kāi)發(fā)板

    API讓電商“”起來(lái),告別手動(dòng)操作

    ,讓您輕松告別繁瑣的手動(dòng)操作。本文將一步步解析如何利用API實(shí)現(xiàn)電商流程的自動(dòng)化,幫助您的業(yè)務(wù)“”起來(lái)。我們將從基礎(chǔ)概念入手,逐步展示實(shí)際應(yīng)用,并提供一個(gè)簡(jiǎn)單的代碼示例,確保您能快速上手。 什么是
    的頭像 發(fā)表于 07-16 10:31 ?562次閱讀
    <b class='flag-5'>API</b>讓電商“<b class='flag-5'>飛</b>”起來(lái),告別手動(dòng)操作

    2025年電商API發(fā)展趨勢(shì):智能化與個(gè)性化

    體驗(yàn)與商業(yè)生態(tài)。 一、智能化趨勢(shì):從自動(dòng)化到自主決策 AI驅(qū)動(dòng)的實(shí)時(shí)決策 API深度集成機(jī)器學(xué)習(xí)模型,實(shí)現(xiàn)動(dòng)態(tài)定價(jià)、庫(kù)存預(yù)測(cè)與風(fēng)險(xiǎn)管控。例如: ? # 偽代碼:智能庫(kù)存預(yù)警
    的頭像 發(fā)表于 07-11 14:26 ?758次閱讀
    2025年電商<b class='flag-5'>API</b>發(fā)展趨勢(shì):智能化與個(gè)性化

    龍芯中科與文心系列模型開(kāi)展深度技術(shù)合作

    ”解決方案。 強(qiáng)強(qiáng)聯(lián)合!自主架構(gòu)賦能大模型訓(xùn)練 文心大模型 文心4.5系列模型均使用深度學(xué)習(xí)框架進(jìn)行高效訓(xùn)練、推理和部署。在大語(yǔ)言模型的
    的頭像 發(fā)表于 07-02 16:53 ?1497次閱讀
    西峡县| 呼玛县| 洪洞县| 梓潼县| 阿图什市| 台中市| 太仓市| 岚皋县| 平阴县| 厦门市| 承德县| 合阳县| 綦江县| 襄樊市| 赫章县| 汉沽区| 云龙县| 鹤峰县| 赤壁市| 阳高县| 茂名市| 巫山县| 饶阳县| 崇州市| 隆回县| 凉山| 北安市| 故城县| 吴桥县| 长泰县| 东丽区| 周至县| 柯坪县| 闵行区| 阜城县| 浙江省| 上蔡县| 乐至县| 任丘市| 德钦县| 怀远县|