聯邦國家標準與技術研究所(NIST),日前重新發布一個測試平台,旨在衡量惡意攻擊的程度,尤其是專門「毒害」AI模型訓練數據的攻擊,如何降低AI系統的表現。

這個聯邦商務部下的機關,負責為美國政府、企業和廣大公眾開發和測試技術。它這款模組化、開放源網路工具名為Dioptra(以經典的天文和測量儀器命名),於 2022年首次發布,旨在幫助訓練AI模型的公司,以及使用這些模型的人員,進行評估、分析和追蹤AI風險。NIST表示,Dioptra可用於對模型進行基準測試和研究,並提供一個通用平台,讓模型在「紅隊」環境中暴露於模擬威脅。

NIST在一份新聞稿中寫道:「測試對抗性攻擊對機器學習模型的影響,是Dioptra的目標之一。開放源軟體,例如一些可供免費下載的軟體,可以幫助包括政府機關和中小型企業在內的社區,評估人工智慧開發人員,對其系統性能的說法。」

Leave a Reply

This site uses Akismet to reduce spam. Learn how your comment data is processed.