OpenAI 推出了 GPT-4o 微調功能,每天免費送100萬Token

OpenAI 推出 GPT-4o 的微調功能,允許開發者根據特定應用需求定製模型,從而提升性能和準確性。開發者可以使用自定義數據集對模型進行微調,使其能夠適應特定用例,調整響應結構,並遵循複雜的領域特定指令。

微調功能對所有付費使用層級的開發者開放,並且在9月23日之前提供免費訓練Token。經過微調的 GPT-4o 模型在多個基準測試中表現出顯著提升,例如 Cosine 的 Genie 在 SWE-bench 基準測試中取得了最先進的成績。

詳細內容:

  1. 微調功能上線: 開發者現在可以微調 GPT-4o 和 GPT-4o mini 模型,從而在多個領域(如編程和創意寫作)中提升模型性能。微調使模型能夠根據少量的訓練數據集定製響應的結構和語氣,或是遵循複雜的領域特定指令。
  2. 費用和訪問權限: 微調的訓練成本為每百萬個Token $25,而推理成本為每百萬個輸入Token $3.75 和每百萬個輸出Token $15。每個組織每天可以免費獲得 100萬個訓練Token。GPT-4o mini 微調也對所有付費層級的開發者開放,並在9月23日之前每天提供200萬免費訓練Token
  3. 成功案例:

    • Cosine 的 Genie: 這個由 Cosine 開發的 AI 軟件工程助手,Genie 能夠自動識別和解決錯誤,構建新功能,並在與用戶協作時進行代碼重構。通過精細調校的 GPT-4o 模型,Genie 在上週二宣佈的新 SWE-bench Verified 基準上取得了 43.8%的 SOTA 分數。Genie 在 SWE-bench Full 上也保持了 30.08%的 SOTA 分數,超越了其之前的 19.27%的 SOTA 分數,成為該基準歷史上最大的改進。
    • Distyl: 作為財富 500 強公司的人工智能解決方案合作夥伴,最近在領先的文本到 SQL 基準 BIRD-SQL 中獲得了第一名。Distyl 的微調 GPT-4o 在排行榜上的執行準確率達到了 71.83%,並在查詢重構、意圖分類、思維鏈和自我糾正等任務中表現出色,尤其在 SQL 生成方面表現尤為突出。
  4. 數據隱私和安全性: 微調後的模型完全由用戶控制,用戶對其業務數據的輸入和輸出擁有完整的擁有權,確保數據不會被共享或用於訓練其他模型。同時,OpenAI 實施了多層安全措施,確保微調後的模型不會被濫用,並持續監控模型的使用情況,以確保遵循使用政策。

原文:https://openai.com/index/gpt-4o-fine-tuning/

文檔:https://platform.openai.com/docs/guides/fine-tuning