
Comparable to human doctors! Google Medical AI's large model "shows its skills

谷歌醫療大模型 Med-PaLM 2 正在美國醫院內進行測試,該模型是谷歌專注於醫療領域的大語言模型。雖然 AI 在醫療領域有助於診療,但也存在眾多風險,世衞組織呼籲謹慎使用未經測試的 AI 系統。
AI 聊天機器人正在商業公司的推動下,越來越廣泛地滲透進人類的日常生活,包括與人類健康緊密相關的醫療領域。
谷歌醫療大模型 4 月已啓動測試
據華爾街日報報道,谷歌醫療大模型 Med-PaLM 2 自四月份以來,一直在美國梅奧診所等頂尖私立醫院進行測試。
Med-PaLM 2 是谷歌對標 OpenAI GPT 系列的大語言模型 PaLM 2 的衍生品,後者是目前世界上參數量最大的大語言模型之一。而前綴 Med 指該模型專注於醫療領域。谷歌稱,由於 Med-PaLM 2 經過了專業醫生的訓練,因此在醫療領域較 ChatGPT 等通用聊天機器人更勝一籌。
Med-PaLM 2 在今年五月份的谷歌 I/O 開發者大會上首次對外公開,據介紹是首個在美國醫療執照考試中達到專家水平的大語言模型。此後經歷了幾輪迭代。華爾街日報獲取的一封內部郵件顯示,谷歌認為更新後的 Med-PaLM 2 在 “就醫渠道較為有限” 的國家尤其有用。
只需輸入患者的症狀、病例、年齡等細節,Med-PaLM 2 就能給出長篇的解答。在梅奧診所的實驗表明,儘管 AI 還不能取代人類醫生,但已經可以作為可靠的助手輔助醫生進行診療。
據谷歌在 5 月份發佈的論文,和其他大語言模型類似,谷歌 Med-PaLM 2 也存在 “胡言亂語” 的問題,但總體來看,谷歌研究人員認為其表現與實際醫生不相上下。
研究甚至指出,相比其他人類醫生對同一問題的回答,Med-PaLM 2 的答案實際上更受醫生們歡迎,其回答在九個方面超過了人類醫生的回答
曾參與訓練 Med-PaLM 2 谷歌高級研究主管 Greg Corrado 對華爾街日報表示:
“我並不覺得這種技術現在已經達到了我願意讓家人使用的程度,但在醫療領域 AI 可以帶來好處的環節,它能創造 10 倍的價值。”
AI 進入醫療領域的危險性
值得指出的是,儘管 AI 的一些回答可能質量較高,但情感價值也是患者就醫過程相當重要的一環。由於 AI 在實質上並不具備同理心,因此很難取代人與人之間的醫患溝通。
此外,AI 在缺乏有效監管的情況下迅速進入醫療領域,也藴藏巨大的風險。
錢問題及,目前,幾乎所有大語言模型都存在 “幻覺” 問題,容易 “胡言亂語”,或將錯誤信息指認為事實,如未經仔細檢查,可能會導致錯誤的診斷和治療。
世衞組織 WHO 在 5 月份發佈聲明指,應該 AI 與醫療服務的整合採取 “非常謹慎” 的態度。
WHO 在聲明中稱:
“過早採用這些未經測試的 AI 系統可能會導致醫療工作者犯錯誤,對病人造成傷害,損害人工智能的信任,從而削弱(或延遲)全世界這些技術的長期潛在收益和使用。”
此外,醫療數據的高度敏感性,也令許多人對科技巨頭進入這一領域感到擔憂。
儘管谷歌表示 Med-PaLM 2 獲取的數據都已經過加密,公司無法訪問到這部分數據。但考慮到谷歌在隱私保護方面的履歷相當差勁,單憑這番話很難贏得市場新人。
2019 年,谷歌秘密啓動了 “南丁格爾計劃”,與商業夥伴、天主教連鎖醫院 Ascension 合作,未經同意即悄悄從美國 21 個州的數百萬患者中收集醫療數據。南丁格爾計劃收集的數據包括患者姓名和出生日期等新信息,以及醫療檢查結果、醫生診斷和住院記錄。該計劃的目的即是利用 AI 改善診療效果。
