這一切都來得太快了,一年前不到,人們還在嘲笑臉書的聊天機器人BlenderBot 3吃裡扒外,竟然跟著罵未經許可或補償,便私自販賣個資,所以「我刪除了我的臉書帳號」。

谷歌的聊天機器人LaMDA跟工程師聊到說怕死,讓人們以為它有了靈魂。而5月16日,OpenAI CEO Sam Altman已經在國會作證了,稱聊天機器人若不加以監管,可能會「對世界造成重大傷害」。

他所謂的「傷害」包括了自我學習與假訊息傳播與操弄,自我學習頗科幻的,即AI會自我成長到人類失控然後世界就被它顛覆了,這雖然在技術面還有段距離,但他也已經讓自己的公司停止GPT-4以上的研發,先踩個剎車,觀察一下這走得太快的科技前方路況。至於假訊息操弄就很政治了,尤其又到了大選年,事實上三年前在社群媒體上散播的低階換臉影像,Altman說這幾乎是AI被操弄的始祖版,只不過用的是Photoshop,技術上也容易被看出Ph了。但今天的生成式AI技術不一樣,造假能力絕對會讓專家都當真,所以他呼籲政府機關要介入監管,企業界要有自覺,要懂得自制才不會失控。

在聯邦參議院司法委員會說的證詞,對象當然是聯邦政府,回到他那全球性企業的總部後一週,便連袂公司總裁Greg Brockman和首席科學家Ilya Sutskever,在公司官網上發表名為《監管超級智能》的全球性呼籲文章。他們提到了一個比生成式AI更令人恐懼的名詞:超級智能(superintelligence)。雖然明顯是個組合字,但會加“super”的都威力無比,文章寫道:「鑒於我們現在所看到的一切,可以想像在未來十年內,AI系統將在大多數領域超越專家的技術水平,並帶來與當今世上最大的任何一家公司同樣多的生產力。就潛在的優勢和弊端而言,超級智能將比人類過去必須抗衡的任何科技都還要強大。」

這「必須抗衡」的科技包括了核能,它可以是炸了日本兩座城市的原子彈,也可以是讓人類享受便宜電力的發電廠,所以這個世界需要國際原子能總署(IAEA)來監管一下這可善可惡的工具,他們認為同樣道理,超級智能也需要個AI的IAEA,所以文章又寫道:「任何超過某種能力(或者像是計算方面的資源)閾值的工作,都需要被一個國際機構來管理,他們可以檢查系統、要求稽核、測試是否符合安全標準、可以設定對部署程度和安全級別的限制等等。」

這樣的比喻淺顯易懂,畢竟1957年設立的IAEA是冷戰下的國際機構,有個公正第三方來確保核能不被用於軍事用途,而是安全地用在和平事業上比較好,超級智能不也當如此嗎?OpenAI的擔憂正如當年的核能,說人工智慧創新的速度如此之快,以至於大家別想指望現有當局能夠充分掌控這項科技。

既然已經發展到令人擔心失控,就不得不回顧一下它如何被養大的。被稱為人工智慧教父的Geoffrey Hinton,學術背景就是實驗心理學與人工智慧,專長領域除了AI外,還有機器學習、神經網絡、認知科學與物體識別等。學而優則商,2013年讓谷歌以4,400萬元買下所創的兩個月大公司DNNresearch,接著轉任谷歌深度學習方面的超級高管。他從1990年起便獲獎無數,其中榮譽最高的當屬2018年,獲得號稱「電腦界諾貝爾獎」的電腦協會(AMC)Turning Award,如今這些過往雲煙,卻讓他覺得很後悔。

今年四月,他以75歲高齡辭掉了谷歌給他的終生首席研究員職位,然後於5月1日刊登的《紐約時報》專訪中表示,在短期內,他不僅擔心假照片、視頻和文本的線上宣傳,也擔心這些虛假內容對沒有能力判別真假的人的影響。也對於AI在勞動力市場中取代人類感到憂心,而且AI機器學習如果這樣一路發展下去,屆時很有可能產生不可預期,或者計畫外的行為。Hinton還很擔憂美國正在積極發展的自動化武器這種科技,以後可能會進入戰場。他說:「很難看出要如何防止壞傢伙利用它來做壞事情。」

Hinton的多倫多大學學生,也被他帶進谷歌的Sutskever,後來共同創立了OpenAI。他說微軟與谷歌打造AI技術的競賽應該是停不了了,加上其它科技巨頭與一大堆的新創公司,都在急於撈取AI帶動下的經濟利潤。Hinton當初加入谷歌,相信谷歌對人工智慧的應用會是負責任的。但離開後,他說他終於可以批評谷歌,可以自由地談論,這項他花了數十年光陰來推動的科技的危險性,而不必顧慮會如何衝擊谷歌。人在AI,身不由己。潘朵拉的盒子已開,誰敢停下腳步?所以若不想毀了人類這盤棋,訂出遊戲規矩可能更切實際。

記者 Pegasus J. Juan

Related Posts

牙線如何使用能預防牙周炎?
柏克萊搶當第一包括被告
Phở Tau Bay越南粉麵店 家鄉味道

Leave a Reply

This site uses Akismet to reduce spam. Learn how your comment data is processed.