谷歌開源MedGemma AI模型,醫療圖像與文本分析神器

IT之家
05-21

IT之家 5 月 21 日消息,科技媒體 marktechpost 昨日(5 月 20 日)發佈博文,報道稱在 2025 年 I/O 開發者大會上,谷歌針對多模態醫療文本和圖像理解,推出了 MedGemma 開源模型。

MedGemma 基於 Gemma 3 架構,提供 4B 參數的多模態模型(分類)和 27B 參數的純文本模型兩種配置,4B 模型擅長分類和解讀醫療圖像,可生成診斷報告或解答圖像相關問題;27B 模型則擅長臨牀文本,支持患者分診和決策輔助。

MedGemma 4B 擁有 40 億參數,採用 SigLIP 圖像編碼器,預訓練數據涵蓋胸部 X 光、皮膚病學、眼科及組織病理學圖像;MedGemma 27B 則有 270 億參數,專注於醫療文本理解與臨牀推理,適合需要深入文本分析的任務。

模型既能本地運行用於實驗,也可通過 Google Cloud 的 Vertex AI 部署爲 HTTPS 端點,實現大規模應用。Google 還提供 Colab 筆記本等資源,助力模型微調和集成。

谷歌鼓勵開發者針對具體場景進行驗證和微調,並提供相關指導和工具,支持適配過程。開發者可採用提示工程、上下文學習及 LoRA 等參數高效微調方法優化模型效果。

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10