日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

ElfBoard開(kāi)源項(xiàng)目|百度智能云平臺(tái)的人臉識(shí)別項(xiàng)目

ElfBoard ? 2024-12-24 10:54 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

百度智能云平臺(tái)的人臉識(shí)別項(xiàng)目,旨在利用其強(qiáng)大的人臉識(shí)別服務(wù)實(shí)現(xiàn)自動(dòng)人臉識(shí)別。選擇百度智能云的原因是其高效的API接口和穩(wěn)定的服務(wù)質(zhì)量,能夠幫助開(kāi)發(fā)者快速實(shí)現(xiàn)人臉識(shí)別應(yīng)用。

本項(xiàng)目使用攝像頭捕捉圖像后,通過(guò)百度智能云平臺(tái)的人臉識(shí)別服務(wù),能夠輕松識(shí)別圖像中的人臉,并將識(shí)別結(jié)果實(shí)時(shí)顯示在Qt界面上。

wKgZO2dqH8eALz0sAAGsIZC5P6M422.png

功能特性

1、圖片處理和人臉識(shí)別:使用百度智能云的人臉識(shí)別服務(wù),通過(guò)API輕松識(shí)別圖像中的人臉。

2、攝像頭實(shí)時(shí)采集圖像并保存:使用Qt設(shè)計(jì)了直觀的用戶界面,控制USB攝像頭的打開(kāi)、關(guān)閉以及實(shí)時(shí)顯示攝像頭捕獲的視頻流,并將采集到的視頻流保存為圖像。

環(huán)境說(shuō)明

1、開(kāi)發(fā)環(huán)境操作系統(tǒng):Ubuntu18.04 64位版

2、交叉編譯工具鏈:arm-poky-linux-gnueabi-gcc 5.3.0

3、開(kāi)發(fā)板使用Bootloader版本:u-boot-2016.03

4、開(kāi)發(fā)板內(nèi)核版本:linux-4.1.15

5、開(kāi)發(fā)板移植QT版本:qt5.6.2

圖片處理和人臉識(shí)別

百度智能云網(wǎng)址:cloud.baidu.com

本次人臉識(shí)別的方案是通過(guò)百度智能云平臺(tái)進(jìn)行實(shí)現(xiàn)的。首先進(jìn)入百度智能云網(wǎng)頁(yè)- >選擇人臉與人體- > 人臉識(shí)別。

wKgZO2dqH_OAWu-gAAKjGVJGn_Y086.png

進(jìn)入人臉識(shí)別頁(yè)面之后可通過(guò)閱讀技術(shù)文檔來(lái)學(xué)習(xí)人臉識(shí)別的使用方法。

1、創(chuàng)建人臉庫(kù)

(1)單擊“應(yīng)用列表”,單擊“查看人臉庫(kù)”。

(2)單擊“新建組”。

(3)選擇用戶組場(chǎng)景類型,填寫組ID,單擊“確認(rèn)”。

(4)單擊剛新建的組ID。

(5)單擊“新建用戶”,填寫用戶ID,添加圖片,單擊“確認(rèn)”。

wKgZO2dqIC2AIpQ0AACv_qifvqM043.png

2、在線識(shí)別人臉圖片

在本地實(shí)現(xiàn)之前可通過(guò)平臺(tái)提供的在線驗(yàn)證方法進(jìn)行驗(yàn)證,如下圖,需要在旁邊輸入一張人臉圖片的base64 編碼的字符串或者選擇上傳一張人臉圖片,并填寫組ID即可進(jìn)行在線識(shí)別。

wKgZO2dqIEuAFq9_AGQSHdaqySY915.png

3、識(shí)別本地人臉圖片

本地實(shí)現(xiàn)人臉識(shí)別的方法需要將識(shí)別代碼拷貝到本地,并需要實(shí)現(xiàn)一個(gè)將圖片轉(zhuǎn)換為base64編碼的函數(shù)。需要輸入自己的access_token(通過(guò)閱讀文檔可知怎么獲?。?/p>

#include #include #include #include #include #include #include #include #include #include #include #include inline size_t onWriteData(void * buffer, size_t size, size_t nmemb, void * userp) { std::string * str = dynamic_cast((std::string *)userp); str->append((char *)buffer, size * nmemb); return nmemb;

} std::string getFileBase64Content(const char * path, bool urlencoded=false) { const std::string base64_chars = "ABCDEFGHIJKLMNOPQRSTUVWXYZ" "abcdefghijklmnopqrstuvwxyz" "0123456789+/"; std::string ret;

int i = 0; int j = 0; unsigned char char_array_3[3]; unsigned char char_array_4[4]; unsigned int bufferSize = 1024;

unsigned char buffer[bufferSize]; std::ifstream file_read; file_read.open(path, std::ios::binary); while (!file_read.eof()){ file_read.read((char *) buffer, bufferSize * sizeof(char)); int num = file_read.gcount(); int m = 0; while (num--){ char_array_3[i++] = buffer[m++];

if(i == 3){ char_array_4[0] = (char_array_3[0] & 0xfc) >> 2; char_array_4[1] = ((char_array_3[0] & 0x03) << 4) + ((char_array_3[1] & 0xf0) >> 4); char_array_4[2] = ((char_array_3[1] & 0x0f) << 2) + ((char_array_3[2] & 0xc0) >> 6);

char_array_4[3] = char_array_3[2] & 0x3f; for(i = 0; (i <4) ; i++) ret += base64_chars[char_array_4[i]]; i = 0; } } } file_read.close(); if(i){ for(j = i; j < 3; j++) char_array_3[j] = '\0'; char_array_4[0] = (char_array_3[0] & 0xfc) >> 2; char_array_4[1] = ((char_array_3[0] & 0x03) << 4) + ((char_array_3[1] & 0xf0) >> 4); char_array_4[2] = ((char_array_3[1] & 0x0f) << 2) + ((char_array_3[2] & 0xc0) >> 6); char_array_4[3] = char_array_3[2] & 0x3f; for(j = 0; (j < i + 1); j++) ret += base64_chars[char_array_4[j]]; while((i++ < 3)) ret += '='; }

if (urlencoded) ret = curl_escape(ret.c_str(), ret.length()); return ret; } std::string performCurlRequest(const char *pic_path, const std::string &token) { std::string result; char *web_curl = nullptr; CURL *curl = curl_easy_init(); CURLcode res = CURLE_OK;

if (!asprintf(&web_curl, "https://aip.baidubce.com/rest/2.0/face/v3/search?access_token=%s", token.c_str())) { perror("asprintf error"); }

if (curl) { curl_easy_setopt(curl, CURLOPT_CUSTOMREQUEST, "POST");

// std::string url = "https://aip.baidubce.com/rest/2.0/face/v3/search?access_token=" + token; curl_easy_setopt(curl, CURLOPT_URL, web_curl); curl_easy_setopt(curl, CURLOPT_FOLLOWLOCATION, 1L); curl_easy_setopt(curl, CURLOPT_DEFAULT_PROTOCOL, "HTTPS"); curl_easy_setopt(curl, CURLOPT_SSL_VERIFYPEER, 0L); curl_easy_setopt(curl, CURLOPT_SSL_VERIFYHOST, 0L);

struct curl_slist *headers = NULL; headers = curl_slist_append(headers, "Content-Type: application/json");

curl_easy_setopt(curl, CURLOPT_HTTPHEADER, headers); std::string base64_image = getFileBase64Content(pic_path, true); std::string post_data = "image=" + base64_image + "&group_id_list=one&image_type=BASE64";

curl_easy_setopt(curl, CURLOPT_POSTFIELDS, post_data.c_str()); curl_easy_setopt(curl, CURLOPT_WRITEDATA, &result); curl_easy_setopt(curl, CURLOPT_WRITEFUNCTION, onWriteData);

if(curl_easy_perform(curl) != CURLE_OK) fprintf(stderr, "Curl request failed: %s\n", curl_easy_strerror(res)); }

curl_easy_cleanup(curl); free(web_curl); return result; } int main(int argc, char *argv[])

{ std::string result; std::string name; std::string token = "24.2bc619cf9c09c32ce5af202ccc98c0c9.2592000.1724918062.282335-100710397"; result = performCurlRequest("/home/root/num/1.jpg", token); std::string json = result; std::regex pattern(""user_id":"(.*?)""); std::smatch match; if (std::regex_search(json, match, pattern)) { name = match[1].str(); std::cout << "read name is: " << name << std::endl; } return 0; }

1)依賴庫(kù)編譯

編譯人臉識(shí)別的應(yīng)用需要依賴Curl庫(kù)、OpenSSL庫(kù)、OpenCv庫(kù)、JsonCPP庫(kù)。詳細(xì)的依賴庫(kù)安裝步驟請(qǐng)參考以下鏈接:

bbs.elfboard.com/forum.php?mod=viewthread&tid=496&extra=page%3D1

bbs.elfboard.com/forum.php?mod=viewthread&tid=495&extra=page%3D1

bbs.elfboard.com/forum.php?mod=viewthread&tid=497&extra=page%3D1

bbs.elfboard.com/forum.php?mod=viewthread&tid=498&extra=page%3D1

2)應(yīng)用編譯

elf@ubuntu:~/work$ . /opt/fsl-imx-x11/4.1.15-2.0.0/environment-setup-cortexa7hf-neon-poky-linux-gnueabi elf@ubuntu:~/work$ $CC demoFace.cpp -o demoFace -I /home/elf/work/opencv-3.4.1/install/include/ -I /home/elf/work/curl-7.71.1/install/include/ -I /home/elf/work/jsoncpp-1.9.5/install/include/ -L /home/elf/work/opencv-3.4.1/install/lib/ -L /home/elf/work/curl-7.71.1/install/lib/ -L /home/elf/work/jsoncpp-1.9.5/install/lib/ -lopencv_highgui -lopencv_core -lopencv_imgproc -lopencv_objdetect -lopencv_videoio -lopencv_imgcodecs -std=c++11 -lcurl -lcrypto -ljsoncpp -lstdc++

編譯完成將文件通過(guò)scp拷貝到ELF 1開(kāi)發(fā)板運(yùn)行即可,這樣就可以將本地的圖片通過(guò)HTTPS發(fā)送到百度智能云進(jìn)行識(shí)別,并將識(shí)別結(jié)果返回。

攝像頭實(shí)時(shí)采集圖像并保存

1、程序設(shè)計(jì)

在前面一個(gè)章節(jié)實(shí)現(xiàn)了對(duì)本地人臉圖片的識(shí)別,下面來(lái)介紹如何通過(guò)攝像頭進(jìn)行人臉識(shí)別,采用USB攝像頭進(jìn)行識(shí)別,程序設(shè)計(jì)如下圖所示。

wKgZPGdSYC-ADVntAACniexGP6E983.png

主函數(shù)的實(shí)現(xiàn)main.cpp

int main(int argc, char *argv[]) { QApplication a(argc, argv); Camera w; w.setWindowFlags(w.windowFlags()& ~Qt::WindowMaximizeButtonHint& ~Qt::WindowMinimizeButtonHint ); w.showMaximized(); w.show(); return a.exec(); }

設(shè)置UI

ui->setupUi(this); timer = new QTimer; QDesktopWidget* desktopWidget = QApplication::desktop(); QRect screenRect = desktopWidget->screenGeometry(); qDebug("screen.width = %d , screen.height = %d",screenRect.width(),screenRect.height()); this->imageWidget = new ImageWidget(this); this->imageWidget->setBackgroundRole(QPalette::Dark); this->imageWidget->setSizePolicy(QSizePolicy::Ignored, QSizePolicy::Ignored); this->imageWidget->setObjectName(QString::fromUtf8("imageWidget")); if(screenRect.width()==800) { ui->pbt_start->setGeometry(60,300,70,50); ui->pbt_stop->setGeometry(190,300,70,50); this->imageWidget->setGeometry(QRect(5, 30, 350, 250)); } else if(screenRect.width()>800) { ui->pbt_start->setGeometry(80,400,70,70); ui->pbt_stop->setGeometry(260,400,70,70); this->imageWidget->setGeometry(QRect(6, 37, 500, 330)); }

打開(kāi)攝像頭設(shè)備

void deviceOpen(void) { fd = open(deviceName, O_RDWR | O_NONBLOCK, 0); if (-1 == fd) { QMessageBox::about(NULL, "About", "camera open error"); exit(EXIT_FAILURE); } }

初始化攝像頭設(shè)備

void deviceInit(void) { struct v4l2_capability cap; struct v4l2_cropcap cropcap; struct v4l2_crop crop; struct v4l2_format fmt; struct v4l2_streamparm sparm; unsigned int min; if (-1 == xioctl(fd, VIDIOC_QUERYCAP, &cap)) { if (EINVAL == errno) { QMessageBox::about(NULL,"Information"," no V4L2 device"); exit(EXIT_FAILURE); } else { errno_exit("VIDIOC_QUERYCAP"); } } if (!(cap.capabilities & V4L2_CAP_VIDEO_CAPTURE)) { QMessageBox::about(NULL,"Information"," no video capture device");

exit(EXIT_FAILURE); } struct v4l2_input input; input.index = 0; if ( ioctl(fd, VIDIOC_ENUMINPUT, &input) != 0) { QMessageBox::about(NULL,"Information","set input error"); exit(0); } if ((ioctl(fd, VIDIOC_S_INPUT, &input)) < 0) { QMessageBox::about(NULL,"Information","set s_input error"); exit(0); } CLEAR(cropcap); cropcap.type = V4L2_BUF_TYPE_VIDEO_CAPTURE; if (0 == xioctl(fd, VIDIOC_CROPCAP, &cropcap)) { crop.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;

crop.c.top = 0; crop.c.left = 0; crop.c.height = 720; crop.c.width = 1280; if (-1 == xioctl(fd, VIDIOC_S_CROP, &crop)) { switch (errno) { case EINVAL: break; default: break; } } } CLEAR (fmt); // v4l2_format fmt.type = V4L2_BUF_TYPE_VIDEO_CAPTURE; fmt.fmt.pix.width = width; fmt.fmt.pix.height = height; fmt.fmt.pix.pixelformat = V4L2_PIX_FMT_YUYV;

fmt.fmt.pix.field = V4L2_FIELD_ANY; if (-1 == xioctl(fd, VIDIOC_S_FMT, &fmt)) errno_exit("VIDIOC_S_FMT");

/* Note VIDIOC_S_FMT may change width and height.*/ if (width != fmt.fmt.pix.width) { width = fmt.fmt.pix.width; //fprintf(stderr,"Image width set to %i by device %s.\n",width,deviceName); } if (height != fmt.fmt.pix.height) { height = fmt.fmt.pix.height; //fprintf(stderr,"Image height set to %i by device %s.\n",height,deviceName); } /*Buggy driver paranoia. */ min = fmt.fmt.pix.width * 2; if (fmt.fmt.pix.bytesperline < min) fmt.fmt.pix.bytesperline = min; min = fmt.fmt.pix.bytesperline * fmt.fmt.pix.height; if (fmt.fmt.pix.sizeimage < min) fmt.fmt.pix.sizeimage = min; CLEAR (sparm); sparm.type = V4L2_BUF_TYPE_VIDEO_CAPTURE; sparm.parm.capture.capturemode = 0; sparm.parm.capture.timeperframe.numerator = 1; sparm.parm.capture.timeperframe.denominator = 30; if(xioctl(fd,VIDIOC_S_PARM,&sparm) < 0){ errno_exit("cam s parm"); // exit(1); } mmapInit(); }

開(kāi)啟視頻流捕獲

void captureStart(void) { unsigned int i; enum v4l2_buf_type type; for (i = 0; i < n_buffers; ++i) { struct v4l2_buffer buf; CLEAR (buf); buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE; buf.memory = V4L2_MEMORY_MMAP; buf.index = i; if (-1 == xioctl(fd, VIDIOC_QBUF, &buf)) errno_exit("VIDIOC_QBUF"); } type = V4L2_BUF_TYPE_VIDEO_CAPTURE; if (-1 == xioctl(fd, VIDIOC_STREAMON, &type)) errno_exit("VIDIOC_STREAMON"); }

超時(shí)處理

void Camera::up_date() { unsigned char image_buf[921600+54]; frameRead(image_buf); this->imageWidget->setPixmap(image_buf); }

2、應(yīng)用編譯及測(cè)試

1)編譯

elf@ubuntu:~/work/camera-demo$ . /opt/fsl-imx-x11/4.1.15-2.0.0/environment-setup-cortexa7hf-neon-poky-linux-gnueabi elf@ubuntu:~/work/camera-demo$ qmake elf@ubuntu:~/work/camera-demo$ make

2)拷貝camera-demo到ELF 1開(kāi)發(fā)板的/home/root路徑下,運(yùn)行測(cè)試。

root@ELF1:~# cp /run/media/sda1/camera-demo ./ root@ELF1:~# chmod 777 camera-demo root@ELF1:~# export DISPLAY=:0.0 root@ELF1:~# ./camera-demo

點(diǎn)擊start按鈕之后,使用ls num路徑下查看會(huì)有攝像頭拍攝的圖片。液晶屏上會(huì)實(shí)時(shí)預(yù)覽攝像頭拍到的圖像,如下圖所示:

wKgZPGdSYRCAUYsRAAGWgTwKOp4829.png

在這里就可以和前面人臉識(shí)別結(jié)合起來(lái)了,比如攝像頭里面的畫面是一張人臉信息,通過(guò)截取攝像頭中的實(shí)時(shí)畫面到本地,然后上傳到百度智能云進(jìn)行識(shí)別,至此就完成了通過(guò)攝像頭進(jìn)行人臉識(shí)別的過(guò)程。

項(xiàng)目測(cè)試

在此基礎(chǔ)上再次完善應(yīng)用,識(shí)別人臉的應(yīng)用將識(shí)別到的人臉信息保存到文本中,基于攝像頭的應(yīng)用讀取文檔中的人臉信息顯示在Qt界面中。

1、確保開(kāi)發(fā)板已連接USB攝像頭和屏幕

2、設(shè)置Wi-Fi連接

root@ELF1:~# elf1_cmd_wifi.sh -i 8723 -s 賬號(hào) -p 密碼

3、執(zhí)行應(yīng)用

root@ELF1:~# ./camera-demo & root@ELF1:~# ./demoFace

單擊“start”按鈕,識(shí)別結(jié)果如下圖所示。

wKgZO2dqH8eALz0sAAGsIZC5P6M422.png
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    百度智能推出首個(gè)國(guó)產(chǎn)企業(yè)級(jí)滿血版OpenClaw產(chǎn)品DuMate

    今天,首個(gè)國(guó)產(chǎn)企業(yè)級(jí)滿血版OpenClaw——百度智能DuMate(中文名:搭子)正式上線,全量開(kāi)放。你的專屬AI搭子來(lái)了!
    的頭像 發(fā)表于 03-24 10:27 ?697次閱讀

    百度智能推出全球首款手機(jī)龍蝦應(yīng)用

    昨天,百度智能發(fā)布了一款即開(kāi)即用的零部署服務(wù)DuClaw。目前,DuClaw網(wǎng)頁(yè)端服務(wù)已上線,能夠?qū)崿F(xiàn)零門檻“養(yǎng)蝦”。DuClaw來(lái)了!零門檻開(kāi)啟自由“養(yǎng)蝦”
    的頭像 發(fā)表于 03-13 11:38 ?603次閱讀

    百度地圖開(kāi)放平臺(tái)與400萬(wàn)開(kāi)發(fā)者共赴智能時(shí)空新未來(lái)

    二十年星辰大海,十五載開(kāi)放引航。2025年,百度地圖迎來(lái)服務(wù)用戶的二十周年,其開(kāi)放平臺(tái)亦走過(guò)了與開(kāi)發(fā)者并肩同行的十五個(gè)春秋。在近期舉行的“2025百度地圖開(kāi)發(fā)者盛典”上,百度地圖開(kāi)放
    的頭像 發(fā)表于 01-23 09:03 ?960次閱讀
    <b class='flag-5'>百度</b>地圖開(kāi)放<b class='flag-5'>平臺(tái)</b>與400萬(wàn)開(kāi)發(fā)者共赴<b class='flag-5'>智能</b>時(shí)空新未來(lái)

    有方科技攜手百度智能重塑AI賦能新生態(tài)

    12月30日,由百度智能主辦的“智思享會(huì):大模型重塑消費(fèi)電子新體驗(yàn)”行業(yè)研討會(huì)在深圳舉辦。本次大會(huì)匯聚了芯片、模組、方案商、大模型、品牌商、市場(chǎng)及渠道等全產(chǎn)業(yè)鏈的眾多企業(yè)代表與專家
    的頭像 發(fā)表于 01-08 11:00 ?515次閱讀

    百度世界大會(huì)亮點(diǎn) 五年五芯 百度宣布打造最硬AI

    年,持續(xù)為行業(yè)搭建起交流前沿技術(shù)、碰撞創(chuàng)新思維、洞察未來(lái)趨勢(shì)的重要平臺(tái)。 今日(11月13日)Baidu World 2025在北京舉辦。在這里,可以體驗(yàn)AI應(yīng)用的價(jià)值涌現(xiàn),見(jiàn)證AI能力的創(chuàng)新爆發(fā)。 今年的百度世界2025以“效果涌現(xiàn)|AI in?Action”為主題,設(shè)
    的頭像 發(fā)表于 11-13 15:47 ?1950次閱讀

    百度世界2025進(jìn)行中 百度昆侖芯超節(jié)點(diǎn)亮相 性能巨幅提升

    思維、洞察未來(lái)趨勢(shì)的重要平臺(tái)。 今日(11月13日)Baidu World 2025在北京舉辦。在這里,可以體驗(yàn)AI應(yīng)用的價(jià)值涌現(xiàn),見(jiàn)證AI能力的創(chuàng)新爆發(fā)。 今年的百度世界2025以“效果涌現(xiàn)|AI in Action”為主題,設(shè)置有1+ 6場(chǎng)頂尖論壇。
    的頭像 發(fā)表于 11-13 11:51 ?1497次閱讀

    合創(chuàng)智行與百度地圖簽約交通數(shù)字信號(hào)上圖項(xiàng)目

    2025年10月31日,以 “萬(wàn)物智聯(lián),無(wú)盡前沿” 為核心主題的2025世界物聯(lián)網(wǎng)博覽會(huì)在無(wú)錫盛大啟幕。在展會(huì)核心活動(dòng) ——2025 “車路一體化” 智能駕駛發(fā)展大會(huì)暨第六屆車聯(lián)網(wǎng)(無(wú)錫)產(chǎn)業(yè)發(fā)展大會(huì)現(xiàn)場(chǎng),江蘇合創(chuàng)智行科技有限公司與
    的頭像 發(fā)表于 11-04 15:00 ?1049次閱讀

    光庭信息成為百度智能大模型行業(yè)合伙人

    8月28日-30日,以“智能,生成無(wú)限可能”為主題的百度智大會(huì)在北京舉辦。數(shù)千位行業(yè)領(lǐng)袖、技術(shù)專家與企業(yè)代表齊聚一堂,共同見(jiàn)證人工智能從技術(shù)探索邁向規(guī)?;瘧?yīng)用的產(chǎn)業(yè)變革。29日,在大
    的頭像 發(fā)表于 09-02 16:17 ?984次閱讀

    珠海泰芯半導(dǎo)體攜手百度共筑智能硬件產(chǎn)業(yè)新生態(tài)

    2025年8月29日,北京國(guó)際會(huì)議中心二期迎來(lái)科技行業(yè)年度盛會(huì)。由百度智能與極客公園聯(lián)合主辦的百度智大會(huì)AI+
    的頭像 發(fā)表于 09-01 17:46 ?1238次閱讀

    昆侖芯科技亮相2025百度智大會(huì)

    近日,2025百度智大會(huì)在北京國(guó)家會(huì)議中心二期隆重啟幕。本屆大會(huì)以“智能,生成無(wú)限可能”為主題,聚焦人工智能從技術(shù)到產(chǎn)業(yè)的全鏈條落地,深入探討AI賦能千行
    的頭像 發(fā)表于 09-01 11:00 ?1511次閱讀

    百度智能全面升級(jí)舸5.0和千帆4.0

    大會(huì)上,百度智能全面升級(jí)舸AI計(jì)算平臺(tái)5.0、千帆企業(yè)級(jí)AI開(kāi)發(fā)平臺(tái)4.0兩大AI基礎(chǔ)設(shè)施,
    的頭像 發(fā)表于 08-30 09:18 ?2006次閱讀

    百度智能發(fā)布全球首批AI數(shù)字員工

    沒(méi)錯(cuò),在今天的百度AI Day開(kāi)放日現(xiàn)場(chǎng),這么溜的同事們正式上崗!
    的頭像 發(fā)表于 08-12 09:47 ?1911次閱讀

    百度智能亮相第二十二屆ChinaJoy

    百度智能亮相第二十二屆ChinaJoy 8月1日,第二十二屆中國(guó)國(guó)際數(shù)碼互動(dòng)娛樂(lè)展覽會(huì)(ChinaJoy)在上海開(kāi)幕。大會(huì)期間,百度全景展示了百度
    的頭像 發(fā)表于 08-05 09:47 ?948次閱讀

    65%央企大模型落地首選百度智能

    今天,很榮幸地分享一個(gè)好消息,百度智能已牽手65%的央企,共同推進(jìn)大模型產(chǎn)業(yè)落地。得益于全棧的AI能力,百度聯(lián)合眾多央國(guó)企伙伴,針對(duì)各類不同業(yè)務(wù)場(chǎng)景,打造了一大批可推廣、可復(fù)制的標(biāo)桿
    的頭像 發(fā)表于 06-11 15:44 ?1042次閱讀

    百度地圖重磅發(fā)布地圖AI開(kāi)放平臺(tái)

    近日,在WGDC25全球時(shí)空智能大會(huì)上,百度地圖重磅發(fā)布地圖AI開(kāi)放平臺(tái)。百度地圖深耕20年的數(shù)據(jù)能力、引擎能力與AI技術(shù)全面開(kāi)放,向開(kāi)發(fā)者深度開(kāi)放四大核心能力和五大場(chǎng)景解決方案。
    的頭像 發(fā)表于 05-26 11:26 ?2053次閱讀
    客服| 长寿区| 岳阳市| 武山县| 易门县| 平乡县| 宜阳县| 玛曲县| 江源县| 会理县| 乌恰县| 驻马店市| 政和县| 龙里县| 青河县| 巴林左旗| 旌德县| 高清| 邯郸市| 齐齐哈尔市| 平湖市| 鲁山县| 西安市| 板桥市| 法库县| 清徐县| 乌审旗| 乌拉特后旗| 双鸭山市| 扎赉特旗| 环江| 施秉县| 梁山县| 营口市| 图们市| 临江市| 饶平县| 达日县| 穆棱市| 新建县| 汝南县|