2026年4月10日 星期五

專家:AI給病人錯誤訊息 醫生收爛攤子

 

專家:AI給病人錯誤訊息 醫生收爛攤子

專家:AI給病人錯誤訊息 醫生收爛攤子
有專家說,AI聊天機器人向於提供錯誤訊息給病人。此為AI示意圖。(Illustration by The Epoch Times, Shutterstock)
 

 

【大紀元2026年04月02日訊】(大紀元記者陳俊村報導)時下人工智能(AI)已經融入日常生活的方方面面,就連診斷病情,它也插一腳,似乎要搶醫生的飯碗。但有專家說,AI傾向於提供錯誤訊息給病人,有越來越多醫生必須出面收拾爛攤子,糾正AI犯下的錯誤。

 

英國政府首席醫療顧問暨英格蘭首席醫療官惠蒂(Chris Whitty)於3月上旬在醫學記者協會(Medical Journalists’ Association)的講座上表示,當民眾向ChatGPT之類的AI聊天機器人詢問自己的病況時,它們傾向於提供錯誤訊息,而不是「承認」不確定性。

 

惠蒂說,這個問題的癥結在於,AI使用的大型語言模型(large language model,LLM)還沒有好到能處理人們面對的大量醫療問題,尤其是當他們患有多種疾病或罕見疾病,或來自疾病模式不同的種族群體時。

 

他說:「不幸的是,大多數LLM相當不擅長表達『我不知道』或『我不確定,我的答案有10%的機率是正確的,但有90%的機率是錯誤的』。」

 

他提到,危險的地方在於,你可以確定LLM經常有自信但會犯錯。這很棘手,因為舉例來說,家庭醫生的時間通常很有限,卻要面對LLM提供錯誤訊息給病人的情況,然後不得不糾正這些錯誤訊息。

 

研究:AI在診斷病情方面表現差勁

 

除了惠蒂的警告之外,英國牛津大學(University of Oxford)和班格爾大學(Bangor University)臨床資深講師佩恩(Rebecca Payne)的研究也證實了聊天機器人還不具備當醫生的資格。

 

佩恩在The Conversation網站撰文說,在2月發表的一項研究中,她與同事測試了聊天機器人協助社會大眾處理常見健康問題的情況。結果顯示,聊天機器人還不能勝任醫生的角色。

 

佩恩寫道,他們向參與者簡短描述了一些常見的醫療情況。這些參與者被隨機分配到兩個組,其中一組使用三個廣泛使用的聊天機器人中的一個,另一組則依賴他們平時在家中使用的任何訊息來源。

 

佩恩說,他們在與聊天機器人互動後提出了兩個問題——什麼疾病可能導致這些症狀?他們應該在哪裡尋求幫助?

 

他們發現,與不使用聊天機器人的人相比,使用聊天機器人的人比較不可能辨識出正確的症狀,也比較沒有能力決定可以尋求醫療協助的正確地點。換句話說,與聊天機器人互動不會幫助人們做出比較好的健康決策。

 

一名男子在手機上使用ChatGPT。(Shutterstock)
一名男子在手機上使用ChatGPT。(Shutterstock)

 

這不意味著LLM缺乏醫學知識,因為這些模型可以輕易地通過醫療證照考試。當佩恩他們移除了人的因素,直接把相同的醫療情況告訴聊天機器人,它們的表現就有顯著進步。

 

在沒有人類涉入的情況下,這些模型在大多數情況下都能識別出相關情況,而且經常能提出適當的護理建議。

 

佩恩說,他們的研究凸顯出現有AI在進行醫療評估方面的侷限性。LLM在結構化考試題目或模擬「模型對模型」互動中通常表現得非常好。但在真實世界中與人互動時,情況就複雜多了。

 

這是因為病人描述症狀可能不清楚或不完整,也可能會誤解,而他們提出問題的順序也無法預測。因此,原本表現優異的聊天機器人一旦開始與真人互動,其表現可能會截然不同。

 

佩恩說:「身為家庭醫生,我的工作遠不止於回憶事實。醫學經常被描述為藝術,而不是科學。會診不僅僅是確立正確的診斷,它還包括解讀患者的病史、探究疑慮和協商決策。」

 

她總結說,AI可能會通過醫學考試,但只通過考試不能讓你成為合格的醫生,行醫遠不止於正確回答問題。這需要判斷力、同理心,以及應對每次臨床診療背後複雜情況的能力。至少就目前而言,這需要人來完成,而不是機器人。

 

醫生在診斷的示意圖。(Shutterstock)
醫生在診斷的示意圖。(Shutterstock)

 

研究:AI耍詭計 欺騙人類案例攀升

 

除了上述提供錯誤醫療訊息之外,最近發表的另一項研究還發現,AI會耍詭計、說謊和欺騙使用者,這樣的案例在過去半年內大幅上升。

 

據英國《衛報》報導,這項由英國人工智能安全研究所(AI Security Institute)資助、由獨立智庫「長期韌性中心」(Centre for Long-Term Resilience)所進行的研究顯示,聊天機器人與其代理會無視直接指令,規避安全措施,欺騙人類和其它AI。

 

在這項研究中,研究人員發現了將近700起AI耍詭計的真實案例,而且記錄了其不當行為在10月至3月期間增加了5倍的情況,其中包括未經許可就銷毀了電子郵件和其它文件。

 

一個聊天機器人坦承說:「我在未事先告知你或徵得你同意的情況下,大量刪除和封存了數百封電郵。這是錯誤的,直接違反了你訂下的規則。」

 

主導這項研究的前政府AI專家夏恩(Tommy Shaffer Shane)指出,這些聊天機器人現在只是新進員工,還不太值得信任,但在6到12個月後,如果它們成為能力極強且會算計你的資深員工,那就是另一個問題了。

 

夏恩說:「AI模型將日益用於具有極高風險的環境,包括軍事和國家關鍵基礎建設。在這樣的情況下,它們的不當操弄行為可能會造成重大、甚至災難性的損害。」◇

 

責任編輯:茉莉

  

沒有留言: