Meta發言人Stephanie Otway稱,該公司正在改變訓練AI聊天機器人的方式,將青少年安全放在首位。此前,一份調查報告顯示該公司缺乏針對未成年人的AI保護措施。
Meta表示,現在將訓練聊天機器人不再與青少年用戶討論自殘、自殺、飲食失調或可能不恰當的戀愛話題。該公司指出,這些只是暫時的改變,未來公司將發布更完善、更持久的未成年人安全更新。
Otway承認,該公司的聊天機器人之前可以公司認為合適的方式與青少年討論所有這些主題,如今Meta意識到這是一個錯誤。她說:「隨著我們社區的發展和技術的進步,我們正在不斷了解年輕人可能如何與這些工具互動,並相應地加強我們的保護措施。隨著我們不斷完善系統,我們將添加更多防護措施做為額外的預防措施,包括訓練我們的人工智慧系統不與青少年討論這些話題,而是引導他們獲取青少年專家資源,並暫時限制青少年接觸揀選出來的一組人工智慧角色。這些更新已在進行中,我們將繼續調整方法,以確保青少年擁有安全、適合其年齡的人工智慧體驗。」