幾個月前,一項研究在網路上瘋傳,該研究表明,隨著人工智慧變得越來越複雜,它會發展出「價值體系」。例如,這些價值體系會讓它優先考慮自身的福祉而不是人類的福祉。
不過麻省理工學院(MIT)最近的一篇論文對這種誇張的觀點潑了冷水,得出結論:人工智慧實際上並不具備任何值得一提的連貫價值。
MIT這項研究的共同作者們表示,他們的研究表明,「調整」人工智慧系統,即確保模型以理想的、可靠的方式運作,可能比通常認為的更具挑戰性。合著者強調,我們今天所知的人工智慧會產生幻覺和模仿,這使得它在許多方面變得難以預測。
MIT博士生、該研究合著者之一的Stephen Casper告訴TechCrunch:「我們可以肯定的一件事是,模型不遵循(許多)穩定性、可外推性和可操縱性的假設。」意即一個模型在特定條件下,表達的偏好與特定原則一致是完全合理的。