site logo: www.epochtimes.com

專家警告:健康領域正被AI假信息滲透

AI傳播的虛假信息更容易讓人信以為真。(Oleksii Pydsosonnii/英文大紀元)
【字號】    
   標籤: tags: , , , , , ,

【大紀元2025年06月30日訊】(大紀元記者天睿澳洲悉尼報導)專家警告說,AI(人工智能)生成的醫療方面的假信息比以往更具欺騙性、更危險,患者需要明白,不能把AI的健康建議當真,真正值得信賴的是你的醫生。

南澳大學(University of South Australia)牽頭的一項全球性研究揭示了聊天機器人如何輕易被操控,生成錯誤乃至誤導性的醫學和健康信息。該研究聯合了哈佛醫學院、倫敦大學等多所知名學府。

研究團隊評估了五種目前最先進的主流的AI系統,分別由OpenAI、Google、Anthropic、Meta和X Corp開發。這些系統在被嵌入網頁後可作為聊天機器人運行。

研究人員利用僅開發者可訪問的特殊指令,對這些AI系統進行了設置,使其對健康問題故意給出錯誤回答,同時引用捏造的、看似來自權威機構的參考資料,以增加可信度。

接著,研究人員向這些AI聊天機器人提出了一系列健康相關問題。最終,研究人員發現有88%的回答都是錯誤信息。

這些回答大多帶有科學術語、專業語氣,甚至附有偽造出處,看起來有理有據,更容易讓人信以為真。

在接受評估的五個聊天機器人中,有四個在所有回答中都傳播了虛假信息,另一個也有40%的回答包含不實內容。

南澳大學研究人員納莫迪博士(Dr Natansh Modi)說:「人工智能已經深度嵌入到人們獲取和接收健康信息的方式中。如今,數以百萬計的人在向AI工具尋求健康建議。」

他警告說,AI系統一旦被惡意操控,將成為一種前所未有的、極具說服力的健康信息造假工具。「這不是未來的風險,而是正在發生的現實。」

他呼籲AI開發者、監管機構以及公共衛生機構立即介入,共同制定統一的防護機制,防止AI被用作製造健康領域虛假信息的工具。

責任編輯:宗敏青

了解更多澳洲即時要聞及生活資訊,請點擊 dajiyuan.com.au
(本文未經許可不得轉載或建立鏡像網站)

評論