啱啱,AI醫療新突破,來自谷歌!
這一次,他們直接瞄準了真實臨牀環境的痛點。
長期以來,醫療模型就像是一個「偏科生」,它擅長「讀病歷」,卻對CT、MRI、病理切片這些醫學影像「力不從心」。
這是因為,它們被迫用文本邏輯去理解圖像,導致效率低、錯誤多、成本高。
為此,谷歌祭出了最新模型MedGemma 1.5,找到了破局答案。
相較於此前的MedGemma 1.5,MedGemma 1.5在多模態應用上實現重大突破,融合了:
高維醫學影像:計算機斷層掃描(CT)、磁共振成像(MRI)和組織病理學。
縱向醫學影像:胸部X光時間序列回顧。
解剖定位:胸部X光片中解剖特徵的定位。
醫學文檔理解:從醫學實驗室報告中提取結構化數據。
谷歌表示,MedGemma 1.5是首個公開發布的開源多模態大語言模型,既能夠解讀高維醫學數據,同時還擁有解讀通用二維圖像和文本的能力。
更關鍵的是,MedGemma 1.5只有40億參數量,這意味着,普通的消費級顯卡甚至高性能工作站,就能流暢運行。
不僅如此,谷歌還發布了MedASR,一個專門為醫療語音微調的語音識別模型,可以將醫生與患者的對話轉化為文本,並無縫接入到MedGemma。
直白講,MedGemma 1.5解決「怎麼看圖」,MedASR解決「怎麼聽音」。
這並不是簡單的模型迭代,而是谷歌對「如何讓AI真正走進診室」給出的一套體系化答案。
一個讀得透病歷、看得懂影像、聽得清語音的AI醫生,即將走進每一家醫院。
AI醫療,進入多模態時代
在過去的一年裏,我們見證了GPT-5等模型在醫學考試中的驚豔表現,但在真實的臨牀場景中,它們的表現往往不盡如人意。
一個重要的原因在於信息維度的斷層。
包括初代MedGemma在內的很多醫療模型本質是「文字專家」,對於圖像的理解能力不強,帶來了診斷信息的丟失。
MedGemma 1.5則在醫學影像應用場景中實現了全方位、多維度的性能躍升,顯著超越其前代模型。
針對高維醫學影像,MedGemma 1.5做到了:
CT疾病分類準確率從58%提升至61%。
MRI疾病分類準確率從51%提升65%,尤其在腦部、關節等複雜解剖結構識別上進步顯著。
全切片病理描述質量ROUGE-L分數從近乎無效的0.02提高到0.49,達到專用模型PolyPath的水平(0.498),可生成臨牀可用的組織學描述。
圖:MedGemma 1.5在醫療影像上的性能提升
針對縱向時序影像分析,MedGemma 1.5做到了:
在MS-CXR-T 時序評估基準上,宏觀準確率從 61% 提升至 66%。
有效捕捉病竈動態變化,例如判斷肺炎浸潤是否吸收,支持隨訪決策。
針對通用2D醫學圖像解讀,MedGemma 1.5做到了:
在內部綜合單圖基準(涵蓋X光、皮膚、眼底、病理切片)上,整體分類準確率從59% 提升至 62%。
表明模型在保持廣泛2D能力的同時,未因新增高維任務而犧牲基礎性能。
針對結構化醫學文檔,MedGemma 1.5做到了:
從非結構化PDF或文本中提取檢驗項目、數值、單位的宏平均F1分數從60%提升至78%(+18%)。
自動構建結構化數據庫,打通影像-文本-檢驗多源信息融合分析的最後一環。
圖:MedGemma 1.5在文本任務上的性能提升
與此同時,傳統的語音識別(ASR)模型在面對生僻醫療術語時,也表現得像一個完全沒受過醫學教育的外行,極高的詞錯率讓AI錄入變成了醫生的負擔。
而新發布的自動語音識別模型MedASR針對醫療進行了微調,錯誤率大大減少
研究人員將MedASR的性能與通用ASR模型Whisper large-v3進行了對比。
發現MedASR在胸部X光口述錯誤率上降低了58%,在不同專科之間的口述中錯誤減少82%。
萬億谷歌,押注AI醫療
谷歌在醫療健康領域的佈局十分深入,其技術觸角已延伸至行業各個角落。
投資上,谷歌通過旗下風險投資及其私募股權部門投資了許多生命科學公司。
其中,AI製藥成為谷歌偏愛的重點領域,在Google Ventures在2021年51筆醫療健康領域投資中,對於藥物研發的投資就達到28筆,超過半數。
合作層面,憑藉業內領先的人工智能、雲計算等服務,谷歌近年來與拜耳、輝瑞、施維雅、梅奧診所等藥企和醫院達成協議,探索從藥物研發到臨牀診療的智能解決方案。
在內部,谷歌除了Google Health外,還有包括Verily、Calico在內專注於不同領域的業務單元,形成多元化的強大矩陣。
尤其是,作為全球頂尖的人工智能研究機構,GoogleDeepMind推出多個具有重要意義的科學模型,包括AlphaFold(蛋白質結構)、AlphaGenome(DNA調控)、C2S-Scale(單細胞)等。
DeepMind的CEO,Demis Hassabis,就因為在AI蛋白質結構預測上的貢獻獲得了2024年諾貝爾化學獎。
近年來,在大語言模型的潮流下,谷歌也開發了多款用於醫療保健的垂類大模型。
這些模型不僅能夠幫助醫生更精準地診斷疾病,還能為患者提供個性化的健康建議。
谷歌團隊首先研發了Flan-PaLM,這一模型挑戰了美國醫學執照考試(USMLE),取得了67.6%的成績,比此前最好的模型提高了17%。
之後,谷歌發布了Med-PaLM,該成果登上了Nature,經過專業臨牀醫生評判,Med-PaLM對實際問題的回答準確率與真人相差無幾。
2023年,全球首個全科醫療大模型Med-PaLM M發布,其在14項測試任務(問題回答、報告生成和摘要、視覺問題回答、醫學圖像分類和基因組變體調用)中均接近或超過現有SOTA。
去年,谷歌首席健康官Karen DeSalvo博士宣佈了六項進展,包括AI製藥模型TxGemma、獲得FDA批准的手錶脈搏停止檢測功能、多智能體系統「AI聯合科學家」、兒科個性化癌症治療模型等。
從醫學影像到藥物研發,從健康助手到可穿戴設備,谷歌正在重新定義未來醫療。