OpenAI新文本製造機太棒也太危險而不發表

由非營利人工智慧研究公司OpenAI所創建的一套新語言模式,目前正醞釀一場爭議風暴,因為它能產生寫得好到讓人無法辨別真假的文章,但擔心會被濫用而拒絕發表。

這個擔心也激怒了這個圈子裡的一些人,指責該公司違背了不關閉這項研究的承諾。OpenAI表示,新的自然語言模型GPT-2,經過訓練後可預測40 GB的網路文章,下一個要出現的單字,最終結果是系統會生成「適應條件下文本的風格和內容」的文本,允許用戶「在選擇的主題下,產生逼真又流暢的延續性。」該模式是可以產生很高一致性長文本的首版,之後所達到的巨大改進。

該系統當能可以有更好的應用,例如讓機器人做更好的對話與語言辨識,但該非營利研究機構也發現強大的副作用,例如被人利用做假新聞、冒充真人或者在社群媒體上,自動產生霸凌或垃圾評論。

 

Leave a Reply

This site uses Akismet to reduce spam. Learn how your comment data is processed.