IT之家 5 月 21 日消息,科技媒体 marktechpost 昨日(5 月 20 日)发布博文,报道称在 2025 年 I/O 开发者大会上,谷歌针对多模态医疗文本和图像理解,推出了 MedGemma 开源模型。
MedGemma 基于 Gemma 3 架构,提供 4B 参数的多模态模型(分类)和 27B 参数的纯文本模型两种配置,4B 模型擅长分类和解读医疗图像,可生成诊断报告或解答图像相关问题;27B 模型则擅长临床文本,支持患者分诊和决策辅助。
MedGemma 4B 拥有 40 亿参数,采用 SigLIP 图像编码器,预训练数据涵盖胸部 X 光、皮肤病学、眼科及组织病理学图像;MedGemma 27B 则有 270 亿参数,专注于医疗文本理解与临床推理,适合需要深入文本分析的任务。
模型既能本地运行用于实验,也可通过 Google Cloud 的 Vertex AI 部署为 HTTPS 端点,实现大规模应用。Google 还提供 Colab 笔记本等资源,助力模型微调和集成。
谷歌鼓励开发者针对具体场景进行验证和微调,并提供相关指导和工具,支持适配过程。开发者可采用提示工程、上下文学习及 LoRA 等参数高效微调方法优化模型效果。
Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.