新研究揭示使用 AI 聊天機器人提供可靠健康建議的挑戰
目錄
你可能想知道
- 依賴 AI 聊天機器人提供健康建議的陷阱是什麼?
- 當前的 AI 評估方法有哪些不足之處?
主要主題
近年來,隨著醫療系統面臨因候診時間過長和成本上升而增加的壓力,大量人群開始依賴 AI 聊天機器人提供初步健康建議。一項由牛津大學主導的研究指出,大約每六位美國成年人中就有一人至少每月一次使用 ChatGPT 等 AI 平台尋求健康相關信息。
然而,這一趨勢存在潛在風險,主要由於用戶與聊天機器人之間的溝通落差。用戶經常難以輸入準確健康建議所需的正確信息,這是一項涉及 1300 多名英國參與者的研究所指出的。研究要求參與者評估由醫生創建的醫療場景,並決定使用聊天機器人以及傳統方法(如網絡搜索或個人判斷)來解決。
研究發現,儘管使用如 GPT-4o、Cohere 的 Command R+ 和 Meta 的 Llama 3 等模型驅動的聊天機器人,參與者經常未能正確識別健康狀況並低估其嚴重性。部分原因是,正如牛津互聯網研究所的 Adam Mahdi 解釋,反饋經常混合了有益和不適當的建議,增加了模糊性。這一關鍵見解顯著影響了對 AI 處理複雜健康查詢能力的理解。
儘管 AI 的進步,研究仍強調了持續的技術挑戰:現有的評估方法未能準確捕捉人類用戶與 AI 聊天機器人之間互動的複雜性。美國醫學會警告不要使用此類 AI 技術做出臨床決策,反映出醫療行業的更廣泛懷疑。
隨著主要科技公司推動 AI 在健康應用中的進步(例如,蘋果的 AI 工具提供生活指導和亞馬遜的醫療數據分析方法),對 AI 準備好應對高風險應用的共識仍然分歧。
關鍵見解表
方面 | 描述 |
---|---|
參與者挑戰 | 由於輸入質素差和反饋複雜性,參與者在準確使用聊天機器人方面遇到困難。 |
建議的模糊性 | AI 聊天機器人的回應經常提供混合了有用和反效果的建議,導致用戶困惑。 |
之後...
研究結果強調了改進 AI 系統以支持可靠健康結果的關鍵需求。未來的發展應該著重於提升 AI 的詮釋能力及提供健康相關指導的可靠性。隨著技術的發展,重點應該放在提高 AI 處理複雜、現實世界對話場景的能力,從而提升其在醫療應用中的實用性。AI 必須在臨床環境中嚴格測試後再廣泛部署,以如同傳統藥物試驗的嚴謹性和徹底性。