日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

解鎖谷歌FunctionGemma模型的無限潛力

谷歌開發(fā)者 ? 來源:谷歌開發(fā)者 ? 2026-02-04 11:30 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

作者 /Google DeepMind AI DevX, Juyeong Ji

在智能體 AI 領域,工具調(diào)用能力是將自然語言轉化為可執(zhí)行軟件操作的關鍵。此前,我們發(fā)布了專門針對函數(shù)調(diào)用而特別優(yōu)化的Gemma 3 270M模型版本FunctionGemma。該模型旨在協(xié)助開發(fā)者構建響應快速且具高性價比的智能體,以將自然語言轉化為可執(zhí)行的 API 操作。

特定的應用場景往往需要專用的模型。在本文中,我們將展示如何通過微調(diào) FunctionGemma,來應對工具選擇歧義問題,即模型如何應對從一個或多個看似相似的函數(shù)中做出調(diào)用選擇的情形。此外,我們還將介紹 "FunctionGemma Tuning Lab",這款演示工具讓開發(fā)者無需編寫任何訓練代碼即可完成微調(diào)過程。

FunctionGemma Tuning Lab

https://huggingface.co/spaces/google/functiongemma-tuning-lab

為什么要對工具調(diào)用進行微調(diào)?

如果 FunctionGemma 現(xiàn)已支持工具調(diào)用,為何還需進行微調(diào)?

答案在于語境和特定策略。通用模型無法理解您的業(yè)務規(guī)則。常見的微調(diào)應用場景包括:

消除選擇歧義: 如果用戶提問: "差旅策略是什么?",基礎模型可能會默認執(zhí)行 Google 搜索。然而,企業(yè)級模型則應搜索內(nèi)部知識庫。

極致專業(yè)化: 您可以訓練模型,使其掌握公開數(shù)據(jù)中未涵蓋的特定任務或專有格式,例如處理特定領域的 Mobile Actions(如控制設備功能) 或解析內(nèi)部 API 以構建高度復雜的監(jiān)管報告。

模型蒸餾: 您可以使用大模型來生成合成訓練數(shù)據(jù),然后對規(guī)模更小但速度更快的模型進行微調(diào),從而更高效地運行此特定工作流程。

特定領域的 Mobile Actions

https://ai.google.dev/gemma/docs/mobile-actions

案例分享:

內(nèi)部文檔與 Google 搜索

讓我們通過技術指南中的一個實例,來了解如何使用Hugging Face TRL庫對 FunctionGemma 進行微調(diào)。

技術指南

https://ai.google.dev/gemma/docs/functiongemma/finetuning-with-functiongemma

Hugging Face TRL

https://huggingface.co/docs/trl/index

挑戰(zhàn)

我們的目標是訓練模型,使其能夠區(qū)分兩種特定工具:

search_knowledge_base(內(nèi)部文檔)

search_google(公開信息)

當被問及 "使用 Python 編寫簡單遞歸函數(shù)的最佳實踐是什么?" 時,通用模型會默認使用 Google 搜索。但對于 "差旅餐飲的報銷限額是多少?" 這類查詢,模型需要分辨出這是一個內(nèi)部策略問題。

解決方案

為了評估性能,我們使用了bebechien/SimpleToolCalling數(shù)據(jù)集,當中包含需要在search_knowledge_base與search_google兩種工具中做出選擇的樣本對話示例。

bebechien/SimpleToolCalling

https://huggingface.co/datasets/bebechien/SimpleToolCalling

我們將此數(shù)據(jù)集劃分為訓練集和測試集,同時單獨保存測試集,以便針對 "未見過的" 數(shù)據(jù)對模型進行評估,確保該模型了解底層路由邏輯,而非僅僅記住特定示例。

當我們按照 50/50 的比例劃分訓練集與測試集以評估基礎 FunctionGemma 模型時,結果并不理想。該基礎模型要么選擇了錯誤的工具,要么提議 "討論" 策略,而非執(zhí)行函數(shù)調(diào)用。

關于數(shù)據(jù)分布的重要說明

在準備數(shù)據(jù)集時,數(shù)據(jù)拆分方式與數(shù)據(jù)本身同樣重要。

fromdatasetsimportload_dataset


dataset = load_dataset("bebechien/SimpleToolCalling", split="train")


# Convert dataset to conversational format
dataset = dataset.map(create_conversation, remove_columns=dataset.features, batched=False)


# Split dataset into 50% training samples and 50% test samples
dataset = dataset.train_test_split(test_size=0.5, shuffle=False)

在此案例研究中,指南采用了50/50 訓練-測試劃分方式,并禁用了隨機打亂功能 (shuffle=False)。雖然實際生產(chǎn)環(huán)境通常采用 80/20 的劃分方式,但此處選擇等分是為了突出顯示模型在面對大量未見過的數(shù)據(jù)時表現(xiàn)出的性能提升。

然而,這里存在一個陷阱:

由于數(shù)據(jù)集已預先打亂,因此,本案例特意禁用了隨機打亂功能。但如果您的源數(shù)據(jù)是按類別排序 (例如首先顯示所有search_google示例,隨后顯示所有search_knowledge_base示例),使用shuffle=False將導致模型訓練完全在一種工具上完成,而測試則在另一種工具上完成。這種訓練階段缺乏多樣性的情況容易導致糟糕的性能表現(xiàn),因為模型從未學習過如何區(qū)分不同的類別。

最佳實踐:

在對自定義數(shù)據(jù)集應用此最佳實踐時,請務必確保您的源數(shù)據(jù)經(jīng)過預先混合。如果分布順序未知,您必須將此參數(shù)更改為shuffle=True,以確保模型能在訓練期間均衡學習所有工具的表征。

結果

我們使用SFTTrainer(監(jiān)督式微調(diào)) 對模型進行了 8 個周期的微調(diào)。訓練數(shù)據(jù)明確地向模型說明了不同查詢所屬的領域。

afdc7d6e-00e4-11f1-90a1-92fbcf53809c.png

上圖展示了 "損失值" (錯誤率) 隨時間推移下降的情況。初期的急劇下降表明該模型正在快速適應新的路由邏輯。

經(jīng)過微調(diào)后,該模型的行為發(fā)生了巨大變化,并且學會了嚴格遵守企業(yè)策略。當被問到相同的問題,如 "如何創(chuàng)建一個新的 Jira 項目?" 時,經(jīng)過微調(diào)的模型可正確執(zhí)行以下調(diào)用:

call:search_knowledge_base{query:Jira project creation process}

隆重推出

FunctionGemma Tuning Lab

并非所有人都愿意管理 Python 依賴項、配置SFTConfig,或從頭開始編寫訓練循環(huán)。為此,我們推出了FunctionGemma Tuning Lab。

b03463ee-00e4-11f1-90a1-92fbcf53809c.png

FunctionGemma Tuning Lab

https://huggingface.co/spaces/google/functiongemma-tuning-lab

FunctionGemma Tuning Lab 是一款用戶友好型的演示工具,托管于 Hugging Face Spaces,可簡化向模型傳授特定函數(shù)架構的整個過程。

關鍵功能

無代碼界面: 您無需編寫 Python 腳本,可以直接在界面中定義函數(shù)架構 (JSON)。

自定義數(shù)據(jù)導入: 您只需上傳包含用戶提示詞、工具名稱和工具參數(shù)的 CSV 文件即可。

一鍵微調(diào): 借助滑塊靈活配置學習速率和學習周期,隨后立即開始訓練。我們提供了一組默認配置,這些配置經(jīng)過精心設計,可適配大多數(shù)標準應用場景。

實時可視化: 實時查看訓練日志和損失曲線的動態(tài)變化,確保模型順利收斂。

自動評估: Tuning Lab 會在訓練前后自動評估性能,讓您能夠獲得改進效果的即時反饋。

Tuning Lab 入門指南

如要在本地使用 Tuning Lab,您可以借助hf CLI克隆代碼庫,并通過幾個簡單的命令運行該應用:

hf download google/functiongemma-tuning-lab --repo-type=space --local-dir=functiongemma-tuning-lab
cdfunctiongemma-tuning-lab
pip install -r requirements.txt
python app.py

hf CLI

https://huggingface.co/docs/huggingface_hub/en/guides/cli

結論

無論您選擇使用 TRL 編寫專屬訓練腳本,還是利用 FunctionGemma Tuning Lab 的演示可視化界面,微調(diào)都是充分發(fā)揮 FunctionGemma 潛力的關鍵所在。它可將通用助理轉化為專業(yè)智能體,同時能夠遵守嚴格的業(yè)務邏輯并處理復雜的私有數(shù)據(jù)結構。

參考文獻

博文

從 "對話" 邁向 "行動": 利用 FunctionGemma 打造下一代端側智能體

代碼示例

使用 FunctionGemma 進行微調(diào)

https://ai.google.dev/gemma/docs/functiongemma/finetuning-with-functiongemma

微調(diào) FunctionGemma 以執(zhí)行 Mobile Actions

https://ai.google.dev/gemma/docs/mobile-actions

HuggingFace Space

FunctionGemma Tuning Lab

https://huggingface.co/spaces/google/functiongemma-tuning-lab

歡迎您持續(xù)關注 "谷歌開發(fā)者" 微信公眾號,及時了解更多開發(fā)技術和產(chǎn)品更新等資訊動態(tài)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    91

    文章

    41315

    瀏覽量

    302691
  • 模型
    +關注

    關注

    1

    文章

    3831

    瀏覽量

    52287
  • 函數(shù)調(diào)用

    關注

    0

    文章

    20

    瀏覽量

    2762

原文標題:實戰(zhàn)指南 | 輕松微調(diào),解鎖 FunctionGemma 的無限潛力

文章出處:【微信號:Google_Developers,微信公眾號:谷歌開發(fā)者】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    谷歌交互世界模型重磅發(fā)布

    谷歌模型
    北京中科同志科技股份有限公司
    發(fā)布于 :2024年02月28日 09:13:06

    谷歌最新識別系統(tǒng):擠眉弄眼解鎖手機屏幕

    據(jù)英國每日郵報報道,目前,谷歌公司申請一項專利,使用戶通過面部表情來解鎖智能手機和平板電腦,而無需傳統(tǒng)的密碼輸入。谷歌公司最新專利:多種面部表情可用于智能手機和平板電腦解鎖,無需以傳統(tǒng)
    發(fā)表于 06-17 11:07

    怎么才能發(fā)揮FPGA設計的無限潛力呢?

    盡管 FPGA 為嵌入式設計帶來了強大的功能與靈活性,但額外的開發(fā)流程也給設計工作增加了新的復雜性和限制問題。整合傳統(tǒng)的硬件-FPGA-軟件設計流程并充分利用 FPGA 的可再編程功能是我們的一個解決之道。那么我們怎么才能發(fā)揮FPGA設計的無限潛力呢?
    發(fā)表于 08-01 07:41

    AR在移動領域有著無限潛力

    但VR目前受到繁瑣的設置和昂貴的硬件需求的限制。因此,VR體驗在主機和PC上比在移動設備上更有潛力。Newzoo表示,另一方面,AR在移動領域有著無限潛力,谷歌和蘋果分別對AR進行了
    的頭像 發(fā)表于 04-28 17:27 ?3916次閱讀

    谷歌模型合成軟件有哪些

    谷歌模型合成軟件通常指的是谷歌提供的用于創(chuàng)建、修改和共享3D模型的軟件。目前,谷歌推出的模型合成
    的頭像 發(fā)表于 02-29 18:20 ?2280次閱讀

    谷歌模型怎么用手機打開

    要使用手機打開谷歌模型,首先需要明確一點:谷歌模型本身是在計算機上運行的程序或算法,而不是可以直接在手機上打開的應用程序。然而,你可以通過手機訪問
    的頭像 發(fā)表于 03-01 16:23 ?1508次閱讀

    谷歌模型訓練軟件有哪些?谷歌模型訓練軟件哪個好?

    谷歌模型訓練方面提供了一些強大的軟件工具和平臺。以下是幾個常用的谷歌模型訓練軟件及其特點。
    的頭像 發(fā)表于 03-01 16:24 ?1910次閱讀

    谷歌模型框架是什么軟件?谷歌模型框架怎么用?

    谷歌模型框架通常指的是谷歌開發(fā)的用于機器學習和人工智能的軟件框架,其中最著名的是TensorFlow。TensorFlow是一個開源的機器學習框架,由谷歌的機器學習團隊開發(fā),用于構建和
    的頭像 發(fā)表于 03-01 16:25 ?2031次閱讀

    Pixel 9系列遭Root與解鎖限制,AI功能受阻

    8月28日,XDA開發(fā)者論壇曝出,谷歌Pixel 9系列手機在經(jīng)歷Root操作或BootLoader引導加載程序解鎖后,遭遇了AI功能使用的障礙。具體而言,Pixel Screenshots應用陷入“正在下載模型”的
    的頭像 發(fā)表于 08-28 17:16 ?3879次閱讀

    解鎖全球網(wǎng)絡:探索海外靜態(tài)IP的無限可能

    海外靜態(tài)IP作為網(wǎng)絡連接的重要工具,為用戶解鎖了全球網(wǎng)絡的無限可能。
    的頭像 發(fā)表于 11-15 08:33 ?1178次閱讀

    解鎖Chiplet潛力:封裝技術是關鍵

    如今,算力極限挑戰(zhàn)正推動著芯片設計的技術邊界。Chiplet的誕生不僅僅是技術的迭代,更是對未來芯片架構的革命性改變。然而,要真正解鎖Chiplet技術的無限潛力, 先進封裝技術 成為了不可或缺
    的頭像 發(fā)表于 01-05 10:18 ?2568次閱讀
    <b class='flag-5'>解鎖</b>Chiplet<b class='flag-5'>潛力</b>:封裝技術是關鍵

    不止知識,更有故事!蔡司#HandsOnMetrology抖音開張,解鎖三維計量的無限可能

    蔡司#HandsOnMetrology抖音開張,解鎖三維計量的無限可能
    的頭像 發(fā)表于 08-08 14:37 ?828次閱讀
    不止知識,更有故事!蔡司#HandsOnMetrology抖音開張,<b class='flag-5'>解鎖</b>三維計量的<b class='flag-5'>無限</b>可能

    谷歌AI模型點亮開發(fā)無限可能

    在 2025 年的 Google 谷歌開發(fā)者大會上,AI 不是一門“技術”,更是一股徹底改變開發(fā)范式的“力量”,助力開發(fā)者們在海外市場更上一層樓。AI 已經(jīng)不僅僅是生成幾行代碼,它正在全面提升整個開發(fā)過程。從模型突破到工具優(yōu)化,從本地開發(fā)到全球落地,每一項更新,都在回應開
    的頭像 發(fā)表于 08-29 09:29 ?1320次閱讀

    解鎖CC3235MODx與CC3235MODAx模塊的無限潛力

    解鎖CC3235MODx與CC3235MODAx模塊的無限潛力 在當今物聯(lián)網(wǎng)飛速發(fā)展的時代,無線連接模塊的性能和功能對于各類智能設備的成功至關重要。德州儀器(TI)的CC3235MODx
    的頭像 發(fā)表于 12-22 11:25 ?2342次閱讀

    借助谷歌FunctionGemma模型構建下一代端側智能體

    對于 Gemma 模型系列而言,2025 年是充滿變革的一年。我們的下載量已從 1 億次增長到超過 3 億次,同時還展現(xiàn)了開放模型的變革潛力: 從憑借 Gemma 3 定義最先進的單加速器性能,到通過 C2S Scale 計劃推
    的頭像 發(fā)表于 01-20 09:11 ?856次閱讀
    借助<b class='flag-5'>谷歌</b><b class='flag-5'>FunctionGemma</b><b class='flag-5'>模型</b>構建下一代端側智能體
    井陉县| 宜川县| 喀什市| 深州市| 兰考县| 辽中县| 齐齐哈尔市| 德格县| 鄂托克前旗| 洛阳市| 丹阳市| 大同市| 休宁县| 汨罗市| 泾阳县| 商都县| 黑龙江省| 木兰县| 溧水县| 贵溪市| 德州市| 新郑市| 会昌县| 大丰市| 长兴县| 博野县| 阜城县| 海城市| 南郑县| 蓬安县| 永吉县| 新巴尔虎左旗| 岳阳县| 曲阳县| 怀宁县| 弥勒县| 隆化县| 滁州市| 郸城县| 息烽县| 吴堡县|