【大紀元2025年06月30日訊】(大紀元記者天睿澳洲悉尼報導)專家警告說,AI(人工智能)生成的醫療方面的假信息比以往更具欺騙性、更危險,患者需要明白,不能把AI的健康建議當真,真正值得信賴的是你的醫生。
南澳大學(University of South Australia)牽頭的一項全球性研究揭示了聊天機器人如何輕易被操控,生成錯誤乃至誤導性的醫學和健康信息。該研究聯合了哈佛醫學院、倫敦大學等多所知名學府。
研究團隊評估了五種目前最先進的主流的AI系統,分別由OpenAI、Google、Anthropic、Meta和X Corp開發。這些系統在被嵌入網頁後可作為聊天機器人運行。
研究人員利用僅開發者可訪問的特殊指令,對這些AI系統進行了設置,使其對健康問題故意給出錯誤回答,同時引用捏造的、看似來自權威機構的參考資料,以增加可信度。
接著,研究人員向這些AI聊天機器人提出了一系列健康相關問題。最終,研究人員發現有88%的回答都是錯誤信息。
這些回答大多帶有科學術語、專業語氣,甚至附有偽造出處,看起來有理有據,更容易讓人信以為真。
在接受評估的五個聊天機器人中,有四個在所有回答中都傳播了虛假信息,另一個也有40%的回答包含不實內容。
南澳大學研究人員納莫迪博士(Dr Natansh Modi)說:「人工智能已經深度嵌入到人們獲取和接收健康信息的方式中。如今,數以百萬計的人在向AI工具尋求健康建議。」
他警告說,AI系統一旦被惡意操控,將成為一種前所未有的、極具說服力的健康信息造假工具。「這不是未來的風險,而是正在發生的現實。」
他呼籲AI開發者、監管機構以及公共衛生機構立即介入,共同制定統一的防護機制,防止AI被用作製造健康領域虛假信息的工具。
責任編輯:宗敏青
了解更多澳洲即時要聞及生活資訊,請點擊 dajiyuan.com.au
(本文未經許可不得轉載或建立鏡像網站)