2024年灣區新聞集團(BANG)和矽谷聯合創投機構(JVSV)共同進行的一項民調,除了科技業影響力雖很大,卻普遍不被信任等發現外,還有一項更深遠的見解,就是AI的力量。

這隻新金雞母給受訪者難以磨滅的印象,即影響力大到讓真假難辨。

受訪者對矽谷的下一個重大發展方向,人工智慧,普遍感到擔憂和質疑。來自Pittsburg的核磁共振檢查預約員Ladasha Wheeler說:「我對此感到很不自在,我們現在就像在扮演上帝。有時候,我覺得我們應該稍微收斂一點比較好。」

這份當年八月針對已登記選民的民調,因十一月大選逼近,故有近九成的人擔心人工智慧會產生真假難辨的資訊。受訪者之一的35歲舊金山行銷經理Tylor Cooper認為,AI造成了假訊息的一堆風險,他說道:「當我嘗試用谷歌圖片搜尋時,很多結果都是假的。通過提供不準確的訊息,人們將不再相信準確的資訊。這讓人感覺我們失去了曾經擁有的東西,這點我感到很難過。」

假訊息的最大載台通常都歸咎於谷歌與臉書,另一受訪者是曾在谷歌和臉書工作的Olwen Puralena,後來在一家位於山景城的線上教育公司擔任使用者體驗研究員。已婚、育有一子、住在Sunnyvale的34歲的她,說很欣賞矽谷解決問題的精神,認為科技用戶需要對自己在塑造大型科技公司產品和服務中所扮演的角色負責。

Puralena說:「臉書之所以會變成現在這樣,是因為當人們與它互動時…他們更容易點擊那些會引發不信任、憤怒、震驚或恐懼的內容,這是一種選擇。我們有時會把責任歸咎於技術…但這其實是基於我們的文化影響。科技公司負有責任,他們試圖打造一款用戶粘性很強的產品,所以做為用戶,你必須決定:『我該如何參與?我是否會讓情況變得更糟?』」

史丹佛大學管理科學與工程系兼任教授Steve Blank表示,如果灣區居民對AI的擔憂和對社群媒體的不滿,轉移更多關注到灣區的醫療保健、太空探索和國家安全領域的創新,他們或許會對科技業持有更積極的看法。

JVSV的CEO Russell Hancock認為,當年的劍橋分析濫用臉書用戶個資事件,在用戶心中深深烙下了不可抹去的陰影,加上後來的AI造假越來越難以分辨,造成灣區受訪者,甚至這個時代的人都對科技設下了牢不可破的戒心。

科技業都在往AI跑,人們都被AI帶著跑,莫說泡不泡沫,任何東西多了都令人反感。在舊金山I-80公路上行駛的人們,幾乎都會看到五顏六色的AI浪潮產品廣告看板,但去年九月有一張反思廣告出現,一則宣傳一本書的廣告,它非但沒有讚揚人工智慧,反而將其視為對人類的「滅絕級威脅」。

廣告看板上印著書名《如果有人建造它,每個人都會死:為什麼超級人工智慧會殺死我們所有人?》並註明了該書的出版日期為9月16日。這是柏克萊的機器智能研究所(MIRI)的電腦科學家Eliezer Yudkowsky和Nate Soares,撰寫的一篇充滿宣言和末日論調的文章。他們提出了一個引起爭議的觀點:人工智慧產業目前的發展道路,最終將導致人類陷入危險。

這本書的引言中提出了一個論點:「如果地球上任何地方的任何公司或團體,使用任何稍稍類似現有技術的東西,基於任何稍稍類似目前對人工智慧的理解的東西,構建出一個超級人工智慧,那麼地球上任何地方的所有人,都將滅亡。」

專家的反思正根源於他就是專家,2000年,Yudkowsky創立了MIRI的前身奇點人工智慧研究所(SIRI),幫助傳播超級人工智慧即將出現的理念,在過去幾十年裡,他也對人工智慧技術的發展扮演著關鍵的推動角色。例如,2010年他將人工智慧領域的重要研究員Demis Hassabis介紹給金融家Peter Thiel,促成Thiel向Hassabis創立的新創公司DeepMind投資225萬元,而DeepMind團隊如今正是谷歌人工智慧開發的核心力量。

但現在呢?他卻成為「人工智慧末日論」運動中最具影響力的人物,他的新書也加入一系列旨在喚醒大眾對人工智慧威脅看法的嘗試。在這本書名如此強烈的書中,兩位作者特別提到這場競賽「在我們看來就像一場競相壓低價格的競賽」,整個行業正「朝著災難的方向疾馳」。

他們認為,超級人工智慧會追求一個物質和能量都用於自身而非人類福祉的世界。擁有足夠強大能力的人工智慧可能會引發致命瘟疫,以阻止競爭對手的人工智慧模型被開發出來。書的預言性當然比較強,可是削價競爭般的AI模型割喉戰,難保AI不會為了自己的生存而決定犧牲人類。至少書是這麼寫的,民調也有這樣的兆頭。

記者 Pegasus J. Juan

Related Posts

2026 台灣農產節灣區精彩登場
加州二十五年首次正式擺脫乾旱
聖荷西年度最強創意市集 5 月回歸

Leave a Reply

This site uses Akismet to reduce spam. Learn how your comment data is processed.