Stanford大學的研究人員表示,以大型語言模型為基礎的治療對話機器人,可能會使患有精神疾病的用戶產生偏見,並做出不恰當甚至危險的回應。
儘管《紐約時報》等媒體近期的報導,都強調了ChatGPT可能在強化妄想或陰謀論思維方面所扮演的角色,但一篇題為《表達偏見和不恰當的回應阻礙大型語言模型安全地取代心理健康服務提供者》的新論文,研究了五款旨在提供便捷治療的對話機器人,並根據關於優秀人類治療師的準則對它們進行了評估。
Stanford大學教育研究所助理教授、該研究的資深作者Nick Haber在接受《史丹佛報告》採訪時表示,儘管對話機器人「被用作同伴、知己和治療師」,但研究發現其「存在巨大風險」。