研究發現,告訴人工智慧聊天機器人要簡潔回答,可能會讓它產生比平常更多的幻覺。

這是根據巴黎人工智慧測試公司Giskard的一項最新研究所得出的結論,該公司正在為人工智慧模型開發一個整體基準。Giskard的研究人員在一篇詳細介紹其研究成果的部落格文章中表示,要求對提問(尤其是關於模糊話題的問題)給出簡短回答,可能會對人工智慧模型的真實性產生負面影響。

研究人員寫道:「我們的數據顯示,系統指令的簡單改變會極大地影響模型產生幻覺的傾向。這一發現對於部署具有重要意義,因為許多應用程式優先考慮簡潔的輸出,以減少數據量使用、改善延遲並最大限度地降低成本。」

幻覺是人工智慧中一個棘手的問題,即使是最強大的模型有時也會犯一些錯誤,這是其機率性本質的一個特徵。事實上,像OpenAI的o3這樣的新推理模型,比以前的模型更容易產生幻覺,讓它們的產出很難令人信任。

Leave a Reply

This site uses Akismet to reduce spam. Learn how your comment data is processed.