日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

云電腦:快速部署無(wú)限制、可聯(lián)網(wǎng)、帶專(zhuān)屬知識(shí)庫(kù)的私人 DeepSeek 大數(shù)據(jù)模型

京東云 ? 來(lái)源:jf_75140285 ? 作者:jf_75140285 ? 2025-02-12 18:26 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在當(dāng)下的科技領(lǐng)域,DeepSeek 無(wú)疑是一顆耀眼的明星,近期關(guān)于它的話題熱度持續(xù)飆升,引發(fā)了無(wú)數(shù)技術(shù)愛(ài)好者和行業(yè)從業(yè)者的熱烈討論。大家紛紛被其強(qiáng)大的大數(shù)據(jù)處理能力和廣泛的應(yīng)用前景所吸引,急切地想要深入探索和使用這一先進(jìn)的模型。然而,當(dāng)人們滿懷期待地訪問(wèn) DeepSeek 官網(wǎng)時(shí),卻遭遇了令人頭疼的問(wèn)題 —— 官網(wǎng)響應(yīng)極其緩慢,常常讓等待的時(shí)間變得漫長(zhǎng)而煎熬,嚴(yán)重影響了大家獲取信息和使用服務(wù)的效率。

不過(guò),現(xiàn)在有一個(gè)絕佳的解決方案擺在我們面前。今天,就讓我們一同深入學(xué)習(xí)如何巧妙利用京東云電腦,快速部署一個(gè)功能強(qiáng)大的私人 DeepSeek 大數(shù)據(jù)模型。這個(gè)模型不僅無(wú)使用限制,還能自由聯(lián)網(wǎng),更可自定義自己的專(zhuān)屬知識(shí)庫(kù),能夠滿足你多樣化的使用需求,為你帶來(lái)前所未有的便捷體驗(yàn)。

為什么要部署私人大數(shù)據(jù)模型?

或許你會(huì)心生疑惑,既然有眾多便捷的云端 AI 服務(wù)可供選擇,為何還要大費(fèi)周章地進(jìn)行私人部署呢?實(shí)際上,本地部署私人 DeepSeek 大數(shù)據(jù)模型有著諸多不可替代的獨(dú)特優(yōu)勢(shì)。

1.免費(fèi)使用,降低成本:在當(dāng)今的 AI 服務(wù)領(lǐng)域,許多云端服務(wù)都需要按使用量付費(fèi),對(duì)于頻繁使用 AI 模型的用戶來(lái)說(shuō),這無(wú)疑會(huì)帶來(lái)一筆不菲的開(kāi)支。而本地部署,一旦完成初始的環(huán)境搭建與模型下載,便無(wú)需再支付額外的使用費(fèi)用,就像擁有了一臺(tái)專(zhuān)屬的 AI 超級(jí)助手,隨時(shí)待命,卻不會(huì)產(chǎn)生任何后續(xù)的經(jīng)濟(jì)負(fù)擔(dān)。

2.數(shù)據(jù)隱私保護(hù):當(dāng)我們使用云端 AI 服務(wù)時(shí),數(shù)據(jù)會(huì)被上傳至第三方服務(wù)器,這意味著我們的隱私數(shù)據(jù)可能面臨泄露的風(fēng)險(xiǎn)。而本地部署將數(shù)據(jù)完全存儲(chǔ)在本地,就如同將珍貴的寶藏鎖在自己的保險(xiǎn)柜里,只有自己擁有鑰匙,極大地保障了數(shù)據(jù)的安全性和隱私性,讓我們可以毫無(wú)顧慮地處理敏感信息。

3.無(wú)網(wǎng)絡(luò)依賴,隨時(shí)隨地使用:云端服務(wù)對(duì)網(wǎng)絡(luò)的依賴性極高,一旦網(wǎng)絡(luò)出現(xiàn)波動(dòng)或中斷,服務(wù)便無(wú)法正常使用。而本地部署的 AI 模型則擺脫了這種束縛,無(wú)論身處網(wǎng)絡(luò)信號(hào)良好的繁華都市,還是網(wǎng)絡(luò)覆蓋薄弱的偏遠(yuǎn)地區(qū),只要設(shè)備正常運(yùn)行,就能隨時(shí)隨地調(diào)用模型,享受高效穩(wěn)定的 AI 服務(wù),就像擁有了一個(gè)隨叫隨到的私人智能秘書(shū)。

4.靈活定制,滿足個(gè)性化需求:不同的用戶在使用 AI 模型時(shí),往往有著不同的需求和偏好。本地部署賦予了我們充分的自主控制權(quán),我們可以根據(jù)自己的實(shí)際需求,自由調(diào)整模型的參數(shù)和配置,添加個(gè)性化的功能,打造專(zhuān)屬于自己的獨(dú)一無(wú)二的 AI 模型,使其更貼合我們的工作和生活場(chǎng)景。

5.性能與效率優(yōu)勢(shì):本地部署能夠充分利用本地設(shè)備的硬件資源,避免了云端服務(wù)中可能出現(xiàn)的網(wǎng)絡(luò)延遲和資源競(jìng)爭(zhēng)問(wèn)題,從而實(shí)現(xiàn)更快的響應(yīng)速度和更高的運(yùn)行效率。在處理復(fù)雜任務(wù)時(shí),本地部署的模型能夠迅速給出結(jié)果,大大提升了工作效率,讓我們?cè)谂c時(shí)間賽跑的競(jìng)爭(zhēng)中搶占先機(jī)。

6.無(wú)額外限制:一些云端 AI 服務(wù)可能會(huì)對(duì)使用時(shí)長(zhǎng)、請(qǐng)求次數(shù)、生成內(nèi)容等設(shè)置限制,這在一定程度上束縛了我們的使用體驗(yàn)。而本地部署的模型則沒(méi)有這些限制,我們可以盡情發(fā)揮創(chuàng)意,自由探索 AI 的無(wú)限可能,充分滿足我們對(duì)技術(shù)的好奇心和探索欲。

DeepSeek 各版本示意

在深入探討部署過(guò)程之前,我們先來(lái)了解一下 DeepSeek 模型的不同版本及其特點(diǎn),這將有助于我們更好地選擇適合本地部署的模型。DeepSeek 模型主要有滿血版和蒸餾版兩個(gè)版本,它們?cè)诙鄠€(gè)方面存在明顯差異。

?滿血版指的是 DeepSeek 的完整版本,通常具有非常大的參數(shù)量。例如,DeepSeek-R1 的滿血版擁有 6710 億個(gè)參數(shù)。這種版本的模型性能非常強(qiáng)大,但對(duì)硬件資源的要求極高,通常需要專(zhuān)業(yè)的服務(wù)器支持。例如,部署滿血版的 DeepSeek-R1 至少需要 1T 內(nèi)存和雙 H100 80G 的推理服務(wù)器。

?蒸餾版本是通過(guò)知識(shí)蒸餾技術(shù)從滿血版模型中提取關(guān)鍵知識(shí)并轉(zhuǎn)移到更小的模型中,從而在保持較高性能的同時(shí),顯著降低計(jì)算資源需求。蒸餾版本的參數(shù)量從 1.5B 到 70B 不等,比如以下幾種變體:

?DeepSeek-R1-Distill-Qwen-1.5B

?DeepSeek-R1-Distill-Qwen-7B

?DeepSeek-R1-Distill-Qwen-14B

?DeepSeek-R1-Distill-Qwen-32B

?DeepSeek-R1-Distill-Llama-8B

?DeepSeek-R1-Distill-Llama-70B

DeepSeek-R1 是主模型的名字;Distill 的中文含義是 “蒸餾”,代表這是一個(gè)蒸餾后的版本;而后面跟的名字是從哪個(gè)模型蒸餾來(lái)的版本,例如 DeepSeek-R1-Distill-Qwen-32B 代表是基于千問(wèn)(Qwen)蒸餾而來(lái);最后的參數(shù)量(如 671B、32B、1.5B):表示模型中可訓(xùn)練參數(shù)的數(shù)量( “B” 代表 “Billion” ,即十億。因此,671B、32B、1.5B 分別表示模型的參數(shù)量為 6710億、320億和15億。),參數(shù)量越大,模型的表達(dá)能力和復(fù)雜度越高,但對(duì)硬件資源的需求也越高。

1.對(duì)于本地部署而言,蒸餾版是更為合適的選擇。一方面,它對(duì)硬件的要求相對(duì)較低,不需要昂貴的多 GPU 服務(wù)器,普通用戶使用配備合適顯卡的電腦即可完成部署,降低了硬件成本和技術(shù)門(mén)檻。另一方面,雖然蒸餾版在性能上相較于滿血版有所降低,但在很多實(shí)際應(yīng)用場(chǎng)景中,其性能表現(xiàn)依然能夠滿足需求,性價(jià)比極高。

購(gòu)買(mǎi)和登錄云電腦

訪問(wèn)京東云官網(wǎng)(https://www.jdcloud.com/),使用京東APP掃碼進(jìn)入管理控制臺(tái),購(gòu)買(mǎi)云電腦。

當(dāng)前官網(wǎng)有試用活動(dòng),可以在首頁(yè)進(jìn)入試用中心(https://www.jdcloud.com/cn/pages/free_center),找到4核8G云電腦9.9元7天使用活動(dòng),下單。

wKgZO2esdzSAJHxdAACdvgF0__o069.png

下單完成后,按照指導(dǎo)登錄云電腦。

搭建 Ollama 服務(wù)

在本地部署 DeepSeek 大數(shù)據(jù)模型的過(guò)程中,Ollama 扮演著至關(guān)重要的角色,它是一個(gè)開(kāi)源的 LLM(Large Language Model,大型語(yǔ)言模型)服務(wù)工具,就像是一位貼心的助手,專(zhuān)門(mén)用于簡(jiǎn)化和降低大語(yǔ)言模型在本地的部署和使用門(mén)檻 ,讓我們能夠更加輕松地在本地環(huán)境部署和管理 LLM 運(yùn)行環(huán)境,快速搭建起屬于自己的 AI 模型服務(wù)。

接下來(lái),我們將以在 Windows Server 2016 系統(tǒng)環(huán)境中部署 Ollama 為例,詳細(xì)介紹其安裝和部署步驟。

首先,我們需要下載 Ollama 的安裝文件。

wKgZPGesdzWAZkihAACdb9tJsxY965.png

?

Ollama 官方為 Windows、Linux 以及 MacOS 等多種主流系統(tǒng)都提供了對(duì)應(yīng)的安裝文件,我們可以直接從 Ollama 官網(wǎng)的下載頁(yè)面(https://ollama.com/download )獲取。在下載頁(yè)面中,找到 Windows 系統(tǒng)對(duì)應(yīng)的安裝包,點(diǎn)擊 “Download for Windows ” 進(jìn)行下載。

wKgZO2esdzaAFSKtAABxh8Yno5E091.png

下載完成后,我們只需一路點(diǎn)擊 “install” 進(jìn)行安裝即可。安裝過(guò)程就像安裝普通的軟件一樣簡(jiǎn)單,按照安裝向?qū)У奶崾局鸩讲僮?,很快就能完成安裝。

安裝完成之后,我們需要驗(yàn)證 Ollama 是否安裝成功。首先檢查任務(wù)欄中是否有Ollama的圖標(biāo)。

wKgZPGesdzaAPosuAACOf31QUXU274.png

然后打開(kāi)一個(gè) cmd 命令窗口,輸入 “ollama” 命令,如果顯示 ollama 相關(guān)的信息,那就證明安裝已經(jīng)成功了。這就好比我們安裝完一款游戲后,打開(kāi)游戲能夠正常顯示游戲界面,就說(shuō)明游戲安裝成功了一樣。

wKgZO2esdzeAbP33AAD26P2k77A585.png

為了讓 Ollama 在系統(tǒng)啟動(dòng)時(shí)自動(dòng)運(yùn)行,我們還需要將其添加為啟動(dòng)服務(wù)。在 Windows 系統(tǒng)中,我們可以通過(guò)以下步驟來(lái)實(shí)現(xiàn):

1.打開(kāi) “服務(wù)” 窗口。我們可以通過(guò)在 “運(yùn)行” 對(duì)話框中輸入 “services.msc” 并回車(chē)來(lái)快速打開(kāi)。

2.在 “服務(wù)” 窗口中,找到 “Ollama” 服務(wù)(如果沒(méi)有找到,可以先在 cmd 命令窗口中輸入 “ollama serve” 啟動(dòng) Ollama 服務(wù))。

3.右鍵點(diǎn)擊 “Ollama” 服務(wù),選擇 “屬性”。

4.在 “屬性” 窗口中,將 “啟動(dòng)類(lèi)型” 設(shè)置為 “自動(dòng)”,然后點(diǎn)擊 “確定” 保存設(shè)置。

這樣,當(dāng)我們的系統(tǒng)下次啟動(dòng)時(shí),Ollama 服務(wù)就會(huì)自動(dòng)啟動(dòng),隨時(shí)準(zhǔn)備為我們提供服務(wù),就像我們?cè)O(shè)置了鬧鐘,每天早上鬧鐘會(huì)自動(dòng)響起,提醒我們新的一天開(kāi)始了一樣。

運(yùn)行 DeepSeek 模型

當(dāng) Ollama 服務(wù)成功搭建并順利啟動(dòng)后,我們就可以著手使用它來(lái)運(yùn)行 DeepSeek 模型了。打開(kāi)模型的官網(wǎng)地址:https://ollama.com/library/deepseek-r1。

wKgZPGesdziAG5KfAADcOpZFTDo549.png

這里我們選擇1.5b的模型,復(fù)制后面的內(nèi)容。

wKgZO2esdzmAJA7mAADRvFTGu7Q470.png

各模型版本說(shuō)明

模型版本 所需空余空間 部署命令 配置說(shuō)明
1.5b 1.1GB ollama run deepseek-r1:1.5b 適用于內(nèi)存為4G的電腦,參數(shù)規(guī)模較小,適合輕量級(jí)任務(wù)。
7b 4.7GB ollama run deepseek-r1:7b 適用于內(nèi)存為16G的電腦,參數(shù)規(guī)模適中,適合中等復(fù)雜度的任務(wù)。
8b 4.9GB ollama run deepseek-r1:8b 適用于內(nèi)存為16G的電腦,參數(shù)規(guī)模適中,適合中等復(fù)雜度的任務(wù)。
14b 9GB ollama run deepseek-r1:14b 適用于內(nèi)存為16G的電腦,參數(shù)規(guī)模較大,適合較高復(fù)雜度的任務(wù)。
32b 20GB ollama run deepseek-r1:32b 適用于內(nèi)存較大的電腦,參數(shù)規(guī)模大,適合高復(fù)雜度任務(wù)和高準(zhǔn)確性要求。
70b 43GB ollama run deepseek-r1:70b 適用于內(nèi)存較大的電腦,參數(shù)規(guī)模極大,適合極高復(fù)雜度任務(wù)和高準(zhǔn)確性要求。
671b 404GB ollama run deepseek-r1:671b 基礎(chǔ)大模型,參數(shù)數(shù)量最多,模型容量極大,適合處理海量知識(shí)和復(fù)雜語(yǔ)言模式的任務(wù)。

?

在命令行中,我們輸入 “ollama run deepseek-r1: 版本號(hào)”,由于我們上面復(fù)制了,直接鼠標(biāo)右鍵就可以粘貼成功。

wKgZPGesdzqAZ1HZAAEA7VsPlmI821.png

回車(chē)后,開(kāi)始下載

wKgZO2esdzqAXNq7AADrbz_PPg0129.png

耐心等待后,見(jiàn)如下提示success表示下載成功。

wKgZPGesdzuAK-h_AACyXWezrAI080.png

可以問(wèn)他一些問(wèn)題,如下:

wKgZO2esdzyAAFg9AACnARCVG8I353.png

?

圖形客戶端配置本地知識(shí)庫(kù)

利用 CherryStudio 搭建知識(shí)寶庫(kù)

Cherry Studio 是一款強(qiáng)大的聚合主流大語(yǔ)言模型服務(wù)的桌面工具,為我們搭建本地知識(shí)庫(kù)提供了便捷的途徑,宛如一位貼心的知識(shí)管家,幫助我們高效地管理和利用知識(shí)。

1.下載與安裝:打開(kāi) Cherry 官網(wǎng)(https://cherry-ai.com/download ),根據(jù)自己的操作系統(tǒng)選擇適配的版本進(jìn)行下載。下載完成后,按照默認(rèn)設(shè)置進(jìn)行安裝即可。

2.選擇 DeepSeek R1 模型:?jiǎn)?dòng) Cherry Studio 后,首先需要配置模型服務(wù)。我們把在硅基流動(dòng)中申請(qǐng)的 API 密鑰添加進(jìn)去,這就像是給模型服務(wù)配了一把鑰匙,讓它能夠順利開(kāi)啟。如果還沒(méi)有申請(qǐng)過(guò)密鑰,可以在 API 秘鑰下方點(diǎn)擊 “這里獲取密鑰”,進(jìn)入硅基流動(dòng)官網(wǎng),點(diǎn)擊創(chuàng)建 API 密鑰即可。完成密鑰添加后,在下方添加 DeepSeek R1 模型,具體路徑為 deepseek-ai/DeepSeek-R1 ,也可以點(diǎn)擊下方管理按鈕找到 DeepSeek 模型直接添加。添加完成后,點(diǎn)擊檢查按鈕進(jìn)行測(cè)試,當(dāng)看到檢查按鈕變成綠色對(duì)鉤,就表示測(cè)試通過(guò),我們已經(jīng)成功與 DeepSeek R1 模型建立了聯(lián)系。

3.搭建本地知識(shí)庫(kù):點(diǎn)擊管理按鈕,選擇嵌入模型,這里我們可以把常用的幾個(gè)嵌入模型都添加進(jìn)去,為后續(xù)的知識(shí)處理做好準(zhǔn)備。確認(rèn)添加后,就能看到之前添加的嵌入式模型了。接著,點(diǎn)擊左側(cè)知識(shí)庫(kù)按鈕,添加本地文檔。在彈出的窗口中,填寫(xiě)知識(shí)庫(kù)名稱(chēng),選擇合適的嵌入模型,然后上傳本地文件。Cherry Studio 支持多種類(lèi)型的知識(shí)上傳,包括文件、目錄、網(wǎng)址、筆記等等,非常方便。比如我們上傳了一個(gè)《三體》全集,當(dāng)出現(xiàn)對(duì)鉤時(shí),就表示文件處理完成,已經(jīng)成功加入到我們的知識(shí)庫(kù)中了。

4.使用知識(shí)庫(kù):在聊天窗口選擇知識(shí)庫(kù)圖標(biāo),選中之前創(chuàng)建的知識(shí)庫(kù),如我們創(chuàng)建的 “test” 知識(shí)庫(kù)?,F(xiàn)在,就可以在聊天區(qū)域詢問(wèn)有關(guān)知識(shí)庫(kù)的問(wèn)題了。比如我們?cè)儐?wèn) “《三體》中三體人的科技特點(diǎn)是什么?”,DeepSeek R1 模型就會(huì)結(jié)合知識(shí)庫(kù)中的《三體》內(nèi)容,給出準(zhǔn)確而詳細(xì)的回答,讓我們輕松獲取所需的知識(shí)。

Page Assist 實(shí)現(xiàn)本地模型聯(lián)網(wǎng)

Page Assist 是一款開(kāi)源瀏覽器擴(kuò)展程序,它就像是一座橋梁,為本地 AI 模型與網(wǎng)絡(luò)之間搭建起了溝通的渠道,讓我們的本地 DeepSeek 模型能夠?qū)崿F(xiàn)聯(lián)網(wǎng)搜索,獲取更廣泛的信息。

1.安裝 Page Assist 插件:打開(kāi)我們常用的瀏覽器(建議使用 Chrome 或 Edge),在瀏覽器的擴(kuò)展商店中搜索 “Page Assist”,找到對(duì)應(yīng)的插件后點(diǎn)擊安裝。安裝完成后,插件會(huì)在瀏覽器的插件欄中顯示。

2.配置 Page Assist:安裝完成后,在瀏覽器的插件列表中點(diǎn)擊打開(kāi) Page Assist。在 Page Assist 的 Web UI 界面中,首先選擇剛剛下載的 DeepSeek 模型,確保模型與插件正確連接。接著,在 “RAG 設(shè)置” 中,確保選擇了深度求索模型,為聯(lián)網(wǎng)搜索做好準(zhǔn)備。

3.使用聯(lián)網(wǎng)功能:回到主界面,此時(shí)界面已經(jīng)是中文版,使用起來(lái)更加方便。點(diǎn)擊 “Page Assist” 插件,點(diǎn)擊上方的下拉菜單,選擇已經(jīng)安裝的模型。然后將聊天框的聯(lián)網(wǎng)按鈕開(kāi)關(guān)打開(kāi),就可以進(jìn)行聯(lián)網(wǎng)搜索了。比如我們?cè)儐?wèn) “最近的科技新聞?dòng)心男俊?,模型就?huì)通過(guò)聯(lián)網(wǎng)獲取最新的科技資訊,并給出回答,讓我們及時(shí)了解行業(yè)動(dòng)態(tài)。為了更好地利用知識(shí),我們還可以添加嵌入模型,通過(guò) “ollama pull nomic-embed-text” 命令下載嵌入模型,然后在插件里 RAG 設(shè)置中選擇嵌入模型。具體操作是點(diǎn)擊右上角齒輪【設(shè)置】——》【RAG 設(shè)置】——》選擇文本嵌入模型 ——》點(diǎn)擊【保存】按鈕即可。這樣,模型在處理問(wèn)題時(shí)能夠更好地理解文本的語(yǔ)義和關(guān)聯(lián),提供更準(zhǔn)確的回答。

Anything LLM 打通本地知識(shí)庫(kù)以及聯(lián)網(wǎng)設(shè)置

Anything LLM 專(zhuān)注于文檔知識(shí)庫(kù)與問(wèn)答場(chǎng)景,自帶向量檢索管理,就像是一個(gè)智能的知識(shí)搜索引擎,能夠?qū)崿F(xiàn)多文檔整合,為我們打造一個(gè)強(qiáng)大的本地知識(shí)庫(kù)問(wèn)答系統(tǒng),同時(shí)它也支持聯(lián)網(wǎng)設(shè)置,讓知識(shí)獲取更加全面。

1.下載與安裝:打開(kāi) Anything LLM 的官網(wǎng)(https://anythingllm.com/desktop ),根據(jù)自己的系統(tǒng)選擇下載對(duì)應(yīng)的版本。下載完成后,按照默認(rèn)路徑安裝或者根據(jù)自己的需求修改安裝路徑都可以。安裝完成后,點(diǎn)擊完成按鈕,會(huì)自動(dòng)跳轉(zhuǎn)到 Anything LLM 界面。

2.配置模型:在 Anything LLM 界面中,首先選擇 Ollama 作為模型管理器,因?yàn)槲覀冎耙呀?jīng)通過(guò) Ollama 運(yùn)行了 DeepSeek 模型,這樣可以實(shí)現(xiàn)兩者的無(wú)縫對(duì)接。Anything LLM 會(huì)自動(dòng)檢測(cè)本地部署的模型,前提是確保 Ollama 本地部署的模型正常運(yùn)行。在模型配置中,“LLM Selection(大語(yǔ)言模型選擇)” 選擇名為 Ollama 的模型,這意味著我們的模型和聊天記錄僅在運(yùn)行 Ollama 模型的機(jī)器上可訪問(wèn),保障了數(shù)據(jù)的安全性和隱私性;“Embedding Preference(嵌入偏好)” 使用名為 AnythingLLM Embedder 的嵌入工具,說(shuō)明文檔文本是在 Anything LLM 的實(shí)例上私密嵌入的,不會(huì)泄露給第三方;“Vector Database(向量數(shù)據(jù)庫(kù))” 使用 LanceDB 作為向量數(shù)據(jù)庫(kù),保證向量和文檔文本都存儲(chǔ)在這個(gè) Anything LLM 實(shí)例上,進(jìn)一步強(qiáng)調(diào)了數(shù)據(jù)的私密性。

3.搭建本地知識(shí)庫(kù):在左側(cè)工作區(qū)找到上傳按鈕,點(diǎn)擊上傳按鈕后,可以選擇上傳本地文件或者鏈接。比如我們上傳了一個(gè)包含公司項(xiàng)目資料的文件,選中上傳的文件,點(diǎn)擊 “Move to Workspace”,然后點(diǎn)擊 “Save and Embed”,系統(tǒng)會(huì)對(duì)文檔進(jìn)行切分和詞向量化處理,將文檔轉(zhuǎn)化為模型能夠理解和處理的格式。完成后,點(diǎn)擊圖釘按鈕,將這篇文檔設(shè)置為當(dāng)前對(duì)話的背景文檔,這樣在提問(wèn)時(shí),模型就會(huì)優(yōu)先參考這篇文檔的內(nèi)容。

4.深度調(diào)整:為了讓模型更好地回答問(wèn)題,我們可以進(jìn)行一些深度調(diào)整。點(diǎn)開(kāi)設(shè)置,將聊天模式改成查詢模式,這樣 AI 會(huì)更基于它查詢出來(lái)的數(shù)據(jù)進(jìn)行回答;將向量數(shù)據(jù)庫(kù)的最大上下文片段改成 6,意味著每次查詢時(shí),模型會(huì)去數(shù)據(jù)庫(kù)里取出 6 個(gè)和問(wèn)題相關(guān)的片段,以便更全面地理解問(wèn)題;將文檔相似性閾值改成中,用來(lái)控制查詢到的數(shù)據(jù)和問(wèn)題相關(guān)程度的閾值,確保獲取到的信息與問(wèn)題高度相關(guān)。

5.聯(lián)網(wǎng)設(shè)置:雖然 Anything LLM 主要用于本地知識(shí)庫(kù)的搭建,但它也支持聯(lián)網(wǎng)設(shè)置。在一些高級(jí)設(shè)置中,我們可以配置網(wǎng)絡(luò)訪問(wèn)權(quán)限,讓模型在需要時(shí)能夠聯(lián)網(wǎng)獲取更廣泛的信息。比如當(dāng)本地知識(shí)庫(kù)中沒(méi)有相關(guān)信息時(shí),模型可以通過(guò)聯(lián)網(wǎng)搜索來(lái)補(bǔ)充知識(shí),提供更準(zhǔn)確的回答。不過(guò)在使用聯(lián)網(wǎng)功能時(shí),需要注意網(wǎng)絡(luò)安全和隱私保護(hù),確保數(shù)據(jù)的安全傳輸。

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3834

    瀏覽量

    52291
  • 大數(shù)據(jù)
    +關(guān)注

    關(guān)注

    64

    文章

    9099

    瀏覽量

    144103
  • DeepSeek
    +關(guān)注

    關(guān)注

    2

    文章

    857

    瀏覽量

    3419
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    AI大模型小龍蝦-OpenClaw-0基礎(chǔ)從入門(mén)到實(shí)戰(zhàn)

    的合同摘要或營(yíng)銷(xiāo)話術(shù)。這種場(chǎng)景下,OpenClaw 是完美的“業(yè)務(wù)提效利器”。 二、 垂直領(lǐng)域個(gè)人知識(shí)庫(kù)快速構(gòu)建與問(wèn)答場(chǎng)景 隨著大模型能力的普及,越來(lái)越多的人希望擁有一個(gè)懂自己、懂自己專(zhuān)業(yè)
    發(fā)表于 05-06 16:04

    華為首發(fā)適配DeepSeek-V4模型

    4月24日,DeepSeek-V4模型正式發(fā)布并開(kāi)源,華為首發(fā)適配。DeepSeek-V4擁有百萬(wàn)Token超長(zhǎng)上下文,在Agent能力、世界知識(shí)
    的頭像 發(fā)表于 04-28 17:01 ?576次閱讀

    開(kāi)發(fā)知識(shí)庫(kù)測(cè)試添加知識(shí)庫(kù)

    文檔類(lèi)型的知識(shí)要等待數(shù)據(jù)校驗(yàn)完成后才能上架 可以點(diǎn)擊知識(shí)名稱(chēng)查看知識(shí)詳情 等待后端處理完成可以點(diǎn)擊知識(shí)列表的上架 在智能體中
    發(fā)表于 03-06 15:07

    鴻蒙智能體開(kāi)發(fā)知識(shí)庫(kù)---創(chuàng)建知識(shí)庫(kù)

    在小藝智能體平臺(tái)頁(yè)面,通過(guò)【工作空間】-【知識(shí)庫(kù)】-【新建知識(shí)庫(kù)】,進(jìn)入新建知識(shí)庫(kù)流程。 若勾選【授權(quán)知識(shí)庫(kù)用于知識(shí)問(wèn)答,授權(quán)后該
    發(fā)表于 03-06 10:18

    模型 ai coding 比較

    K2.5 93 57.5 ? 90 85 1M(100萬(wàn)tokens) 65 百萬(wàn)級(jí)長(zhǎng)上下文、重構(gòu)理解能力強(qiáng)、中文流暢 長(zhǎng)文本知識(shí)庫(kù)、文檔分析、內(nèi)容生成 ?本次實(shí)測(cè) + 月之暗面公開(kāi)數(shù)據(jù) 智譜GLM-5
    發(fā)表于 02-19 13:43

    如何在ZYNQ本地部署DeepSeek模型

    一個(gè)將最小號(hào) DeepSeek 模型部署到 AMD Zynq UltraScale+ MPSoC 處理系統(tǒng)的項(xiàng)目。
    的頭像 發(fā)表于 12-19 15:43 ?7883次閱讀
    如何在ZYNQ本地<b class='flag-5'>部署</b><b class='flag-5'>DeepSeek</b><b class='flag-5'>模型</b>

    DeepSeek模型如何在服務(wù)器上部署?

    隨著大型語(yǔ)言模型(LLM)的應(yīng)用日益普及,許多開(kāi)發(fā)者和企業(yè)希望將像DeepSeek這樣的優(yōu)秀模型部署到自己的服務(wù)器上,以實(shí)現(xiàn)私有化、定制化
    的頭像 發(fā)表于 10-13 16:52 ?1186次閱讀

    本地部署openWebUI + ollama+DeepSeek 打造智能知識(shí)庫(kù)并實(shí)現(xiàn)遠(yuǎn)程訪問(wèn)

    。 DeepSeek 作為一個(gè)開(kāi)源的大語(yǔ)言模型,我們可以通過(guò) ZeroNews + openWebUI + ollama的方式,輕松的在本地私有化部署 DeepSeek,不受網(wǎng)絡(luò)攻擊影
    的頭像 發(fā)表于 09-10 16:41 ?5546次閱讀
    本地<b class='flag-5'>部署</b>openWebUI + ollama+<b class='flag-5'>DeepSeek</b> 打造智能<b class='flag-5'>知識(shí)庫(kù)</b>并實(shí)現(xiàn)遠(yuǎn)程訪問(wèn)

    零基礎(chǔ)在智能硬件上克隆原神莉?qū)崿F(xiàn)桌面陪伴(提供人設(shè)提示詞、知識(shí)庫(kù)、固件下載)

    和回復(fù)語(yǔ)的固件,直接下載燒錄就可以使用了) 詳細(xì)的人設(shè)提示詞、知識(shí)庫(kù)、固件下載地址已在文章末尾提供。 一、創(chuàng)建配置莉的基礎(chǔ)信息核心性格、語(yǔ)言習(xí)慣和行為特點(diǎn)等可以通過(guò)提示詞的方式進(jìn)行塑造,用電腦打開(kāi)聆思
    發(fā)表于 08-22 19:51

    速看!EASY-EAI教你離線部署Deepseek R1大模型

    和自然語(yǔ)言推理等復(fù)雜任務(wù)。作為國(guó)產(chǎn)AI大數(shù)據(jù)模型的代表,憑借其卓越的推理能力和高效的文本生成技術(shù),在全球人工智能領(lǐng)域引發(fā)廣泛關(guān)注。本文主要說(shuō)明DeepSeek-R1
    的頭像 發(fā)表于 07-25 15:22 ?1606次閱讀
    速看!EASY-EAI教你離線<b class='flag-5'>部署</b><b class='flag-5'>Deepseek</b> R1大<b class='flag-5'>模型</b>

    【「DeepSeek 核心技術(shù)揭秘」閱讀體驗(yàn)】+混合專(zhuān)家

    -V3的版本區(qū)別, 深入了解Deepseek的技術(shù)細(xì)節(jié),快速掌握大模型領(lǐng)域的前沿知識(shí),洞察對(duì)行業(yè)應(yīng)用的影響,提升自身在該領(lǐng)域的專(zhuān)業(yè)水平和競(jìng)爭(zhēng)力。 本書(shū)流程非常清晰,先認(rèn)識(shí)
    發(fā)表于 07-22 22:14

    【「DeepSeek 核心技術(shù)揭秘」閱讀體驗(yàn)】書(shū)籍介紹+第一章讀后心得

    Janus系列、代碼大模型deepseek-coder系列、混合專(zhuān)家模型DeepSeekMoE等等,V3和R1還有其蒸餾(Distill)過(guò)的模型,比如可以在我們自己
    發(fā)表于 07-17 11:59

    信而泰×DeepSeek:AI推理引擎驅(qū)動(dòng)網(wǎng)絡(luò)智能診斷邁向 “自愈”時(shí)代

    對(duì)工程師個(gè)人經(jīng)驗(yàn)的過(guò)度依賴,降低主觀因素導(dǎo)致的誤判風(fēng)險(xiǎn),實(shí)現(xiàn)數(shù)據(jù)驅(qū)動(dòng)的客觀決策。l 持續(xù)自進(jìn)化:模型通過(guò)持續(xù)學(xué)習(xí)新的故障案例和網(wǎng)絡(luò)變化,動(dòng)態(tài)更新知識(shí)庫(kù),自適應(yīng)網(wǎng)絡(luò)架構(gòu)演進(jìn),保持診斷能力的先進(jìn)性。3.
    發(fā)表于 07-16 15:29

    【書(shū)籍評(píng)測(cè)活動(dòng)NO.62】一本書(shū)讀懂 DeepSeek 全家桶核心技術(shù):DeepSeek 核心技術(shù)揭秘

    的展望,大模型的訓(xùn)練方法、推理部署,到 GPU 硬件及推理模型的發(fā)展趨勢(shì),以前瞻性的視角為讀者描繪了大模型的發(fā)展藍(lán)圖。 DeepSeek
    發(fā)表于 06-09 14:38

    ElfBoard技術(shù)實(shí)戰(zhàn)|ELF 2開(kāi)發(fā)板本地部署DeepSeek模型的完整指南

    ELF 2開(kāi)發(fā)板本地部署DeepSeek模型的完整指南
    的頭像 發(fā)表于 05-16 11:13 ?2805次閱讀
    ElfBoard技術(shù)實(shí)戰(zhàn)|ELF 2開(kāi)發(fā)板本地<b class='flag-5'>部署</b><b class='flag-5'>DeepSeek</b>大<b class='flag-5'>模型</b>的完整指南
    六枝特区| 郑州市| 潞城市| 古交市| 桃源县| 遂川县| 长岭县| 晴隆县| 玉龙| 闽清县| 新野县| 永德县| 陕西省| 丰台区| 呼伦贝尔市| 常德市| 雷波县| 花莲市| 台湾省| 靖远县| 锡林浩特市| 花莲县| 贡觉县| 凤翔县| 永济市| 黄陵县| 梅河口市| 增城市| 晋中市| 台东市| 林西县| 鸡东县| 永福县| 沽源县| 常德市| 芜湖县| 佛坪县| 隆回县| 汝州市| 平陆县| 蓬莱市|