使用 Gemini API 進行微調

提示設計策略 (例如少量樣本提示) 不一定能 理想的結果微調是一項可改善模型 表現,或協助模型遵循特定輸出內容 並提供一組範例,藉此補充: 來呈現所需的輸出內容

本頁面說明如何微調 Gemini API 使用的文字模型 文字服務。

微調功能的運作方式

微調的目的在於進一步提升 您的具體任務微調功能的運作方式是提供模型訓練資料 包含許多任務範例的資料集。針對小眾任務 單獨微調模型,大幅提升模型成效 和樣本數量

您的訓練資料架構應是含有提示輸入範例的範例, 預期的回應輸出內容您也可以直接使用範例資料調整模型 介紹生成式 AI 的各種功能目標是訓練模型模仿期望的行為 或工作或任務,以提供更多例子說明該行為或工作

執行調整工作時,模型會學習其他參數 將必要資訊編碼以執行所需工作 行為系統會在推論期間使用這些參數。模型的輸出內容 調整工作是新的模型,有效結合了 訓練參數和原始模型

準備資料集

您需要有用來調整模型的資料集,才能開始微調。適用對象 資料集中的範例必須為高品質、 來代表真實的輸入和輸出內容。

格式

資料集中的範例應與預期的正式環境相符 流量如果資料集包含特定格式、關鍵字、操作說明 生產資料的格式應該相同 包含相同指示

舉例來說,如果資料集中的範例包含 "question:""context:",生產流量也應格式化為包含 "question:""context:" 的順序與出現在資料集的順序相同 範例。如果排除情境,模型就無法辨識模式 即使確切問題位於資料集的範例中也一樣

在資料集中的每個範例中加入提示或前置詞,也可能有助於 可以提高調整後模型的成效請注意,如果提示或前置碼 也應該包含在調整後的提示中 推論模型

訓練資料大小

您最多可以使用 20 個範例微調模型。額外資料 通常也會改善回應的品質。您應指定 100 之間 以及 500 個範例,視您的應用程式而定。下表顯示 建議資料集大小,以便針對各種常見工作微調文字模型:

工作 資料集中的範例數量
分類 100 人以上
製作摘要 100 至 500 人以上
文件搜尋 100 人以上

上傳調整用資料集

系統可以透過 API 內嵌傳送資料,或經由上傳到 Google 的檔案進行傳遞 進行測試

按一下「匯入」按鈕,然後按照對話方塊的指示匯入資料 選用結構化提示,或是選擇含有範例的結構化提示,做為調整作業的匯入內容

用戶端程式庫

如要使用用戶端程式庫,請在 createTunedModel 中提供資料檔案 呼叫。檔案大小上限為 4 MB。請參閱這一節, Python,即可開始使用。

cURL

如要使用 cURL 呼叫 REST API,請以 JSON 格式提供訓練範例, training_data 引數。請參閱這裡的調整快速入門導覽課程: cURL 即可開始設定。

進階調整設定

建立調整工作時,您可以指定下列進階設定:

  • 訓練週期:整個訓練集的完整訓練通過,因此 系統已處理過一次範例
  • 批量:單一訓練「疊代」中使用的範例組合。 批次大小會決定批次中的樣本數量
  • 學習率:是一個浮點數,能告知演算法如何 強力調整每次疊代的模型參數舉例來說 學習率為 0.3 後,權重和偏誤會再調整三倍 遠遠超過學習率 0.1高低學習率有 並依據自己的用途調整
  • 學習率調節係數:費率調節係數會修改模型的 原始學習率值為 1 時,系統會使用原有學習率 模型如果值大於 1,學習率和值會介於 1 之間 將學習率降低 0

下表列出微調 基礎模型:

超參數 預設值 建議調整
Epoch 5

如果損失開始值早於 5 個週期,請使用較小的值。

如果損失是採收斂處理,看起來並未偏平,則輸入較高的價值。

批量 4
學習率 0.001 如果是較小的資料集,請使用較小的值。

損失曲線會顯示模型預測與理想偏差的程度 訓練樣本中的預測結果最好 然後沿著曲線上最低點的高強度訓練例如: 下圖顯示了大約 4-6 號的損失曲線,這代表 就算將 Epoch 參數設為 4,您還是可以享有相同效能。

顯示模型損失曲線的折線圖。介於
第二步的訓練週期後
接著急遽下降至將近 0 個
要有三次訓練

查看調整工作狀態

您可以在 Google AI Studio 的 」分頁或使用調整後模型的 metadata 屬性 或 Gemini API 整合。

排解錯誤

本節提供了一些訣竅,說明如何解決 建立調整後的模型

驗證

使用 API 與用戶端程式庫進行調整時,需要使用者驗證。API 金鑰 單憑一己之力是不夠的如果看到 'PermissionDenied: 403 Request had insufficient authentication scopes' 錯誤,請務必設定使用者 驗證。

如要設定 Python 的 OAuth 憑證,請參閱 OAuth 設定 教學課程

已取消的模型

在工作完成前,您隨時可以取消微調工作。不過 取消模型的推論成效是無法預測的 系統就會在訓練過程提前取消調整工作。取消原因: 想要在早期週期停止訓練時 並將週期設為較低的值。

後續步驟