Google開源 MedGemma AI 模型,醫療圖像與文本分析神器
IT之家 5 月 21 日消息,科技媒體 marktechpost 昨日(5 月 20 日)發佈博文,報導稱在 2025 年 I/O 開發者大會上,Google針對多模態醫療文本和圖像理解,推出了 MedGemma 開源模型。
MedGemma 基於 Gemma 3 架構,提供 4B 參數的多模態模型(分類)和 27B 參數的純文本模型兩種配置,4B 模型擅長分類和解讀醫療圖像,可生成診斷報告或解答圖像相關問題;27B 模型則擅長臨床文本,支持患者分診和決策輔助。
MedGemma 4B 擁有 40 億參數,採用 SigLIP 圖像編碼器,預訓練數據涵蓋胸部 X 光、皮膚病學、眼科及組織病理學圖像;MedGemma 27B 則有 270 億參數,專注於醫療文本理解與臨床推理,適合需要深入文本分析的任務。
模型既能本地運行用於實驗,也可通過 Google Cloud 的 Vertex AI 部署為 H湯臣PS 端點,實現大規模應用。Google 還提供 Colab 筆記本等資源,助力模型微調和集成。
Google鼓勵開發者針對具體場景進行驗證和微調,並提供相關指導和工具,支持適配過程。開發者可採用提示工程、上下文學習及 LoRA 等參數高效微調方法優化模型效果。

IT之家附上參考地址