已加入收藏
已取消收藏
文章收藏功能
menu
帳號頭像 帳號選單下拉箭頭
/
熱搜內容
現正閱讀
Sam Altman:AI恐招致滅絕!這份22字公開信,AI教父Geoffrey Hinton也簽名
畫重點
段落筆記
新增筆記
Sam Altman:AI恐招致滅絕!這份22字公開信,AI教父Geoffrey Hinton也簽名
0
/500
不公開分類 公開分類
儲存
至頂箭頭

國際 | 全球話題

Sam Altman:AI恐招致滅絕!這份22字公開信,AI教父Geoffrey Hinton也簽名

Sam Altman:AI恐招致滅絕!這份22字公開信,AI教父Geoffrey Hinton也簽名
5月30日,一封只有22個字的聯名信引起軒然大波。這封公開信,呼籲我們應該重視AI帶來滅絕性的風險。 (來源:Dreamstime)
撰文者:新智元
獨立觀點 2023/06/01
摘要

1.5月30日,一封只有22個字的公開信引起軒然大波。簽名者中,包含Geoffrey Hinton和Yoshua Bengio兩位人工智慧「教父」,還有矽谷巨頭的重要人物。

2.這封公開信,呼籲我們應該重視AI帶來滅絕性的風險,並把對這件事的優先序,提高到全球級別,就像我們應對傳染病、核戰這種全球性危機一樣。

3.AI足以滅絕人類的風險包括:武器化、資訊誤傳、AI成人類代理人並利用人類、人類將退化、AI技術被壟斷、發展不可控、AI欺騙人類、各國競逐權力。

3月,千名大老簽署暫停「超級AI」研發的公開信,讓整個業界為之震驚。就在5月30日,一封只有22個字的公開信再次引起軒然大波。

幾句話,把AI類比為傳染病和核戰、分分鐘能滅絕人類的那種東西。

簽名者中,有Geoffrey Hinton和Yoshua Bengio兩位人工智慧「教父」,還有矽谷巨頭的重要人物,像是Sam Altman(OpenAI執行長)、Demis Hassabis(DeepMind創辦人)在人工智慧領域工作的研究人員。

廣告-請繼續往下閱讀

截至目前,已經有370多名從事人工智慧工作的重要人物都簽署了這份公開信。然而,這封信並不是得到所有人的支持。

「圖靈3巨頭」中的一位Yann LeCun直言:我不同意。(編按:2019年電腦界的最高榮譽獎項圖靈獎,頒發給3位在深度學習領域做出重大貢獻的巨頭:Yoshua Bengio、Yann LeCun和Geoffrey Hinton。)

圖靈獎得主之一Yann LeCun不認為目前的AI發展會對人類造成生存危機。
圖靈獎得主之一Yann LeCun不認為目前的AI發展會對人類造成生存危機。 (來源:翻攝自Twitter:https://twitter.com/ylecun/status/1663714372399812608?s=20)

「人工智慧放大了人類的智慧,這在本質上是一件好事,與核武和致命的病原體不同。我們甚至沒有一個可靠的藍圖來創造接近人類水準的人工智慧。一旦我們做到了,我們會想出讓它安全的方法。」

這封公開信究竟說了什麼?

「致命」公開信

22字,言簡意賅:

AI科學家及著名人士給社會的一封AI示警信。
AI科學家及著名人士的AI示警信。 (來源:翻攝自Center for AI Safety網站:Statement on AI Risk)

「降低AI帶來滅絕的風險,應該被提到全球級別的優先程度。就像我們應對傳染病、核戰這種社會危機一樣。」

廣告-請繼續往下閱讀

而簽署這封公開信的AI界人士,一眼根本望不到盡頭。

此封公開信有許多AI界名人簽署。
此封公開信有許多AI界名人簽署。 (來源:翻攝自Center for AI Safety網站:Statement on AI Risk)

赫然映入眼簾的就是Geoffrey Hinton、Yoshua Bengio、Google DeepMind的CEO Demis Hassabi、OpenAI的CEO Sam Altman、Anthropic的CEO Dario Amodei。

這的名單裡,Hinton的含金量不用多說,他是前Google副總裁、深度學習泰斗、神經網路之父,以及圖靈獎獲得者。

Yoshua Bengio同樣也是圖靈獎獲得者,和Hinton、LeCun被合稱為圖靈獎3巨頭。

除了在科技巨頭公司任職的大老,還不乏知名AI學者,像是加利福尼亞大學的Dawn Song、北京清華大學的張亞勤。

而在這些耳熟能詳的名字下面,就是數不勝數的AI界人士了。甚至,每個人都可以參與簽署這封公開信。只要填寫姓名、信箱、職位等資訊,就可以參與簽署。

不過,可以選擇的身份只有AI科學家和著名人士2個。

反對:滅絕人類純扯淡

Meta AI首席科學家LeCun還是一如既往的「唱反調」。他一向的觀點都是:現在的AI發展剛到哪啊,就天天把威脅和安全掛在嘴邊。

他表示,列出的威脅,根本不是現在AI發展程度能達到的,因為壓根不存在。在我們設計出狗等級的人工智慧之前(更不用說人類級別),討論如何使其安全還為時過早。

Meta AI首席科學家LeCun一向的觀點是:現在的AI發展還不到威脅人類。
Meta AI首席科學家LeCun一向的觀點是:現在AI發展還不足以威脅人類。 (來源:翻攝自Twitter:https://twitter.com/ylecun/status/1663616081582252032?s=20)

史丹佛大學客座教授、DeepLearning.AI創辦人吳恩達的立場和LeCun相同,但理由卻有點不同。

他認為,不是AI會導致各種問題,而是我們將會遇到的各種問題,只能靠AI來解決。例如:下一次傳染病爆發、氣候變遷導致的人口減少、小行星撞地球等。他表示,人類想繼續生存、繁榮下去,得加速AI的發展,而不是減速。

DeepLearning.AI創辦人吳恩達認為,人類將遇到的各種問題,只能靠AI來解決。
DeepLearning.AI創辦人吳恩達認為,人類將遇到的各種問題,只能靠AI來解決。 (來源:翻攝自Twitter:https://twitter.com/AndrewYNg/status/1663584330751561735?s=20)

AI風險面面觀

那麼,這些AI重要人士們宣稱的,AI足以滅絕人類的風險包括什麼呢?他們總結了以下8個面向。

1.武器化

部分人可能會將AI用在具有破壞性的地方,會導致人類的生存風險,並加劇政治動蕩。

例如,現在深度強化學習(Deep Reinforcement Learning)的技術已經可以應用於空戰,機器學習(Machine Learning)能用於製造化學武器(已有論文表明,GPT-4可以在實驗室中自主進行實驗、合成化學品)。

此外,近年來研究人員一直在開發用於自動進行網路攻擊的AI系統,還有軍方領導人想要讓AI控制核彈發射井。

因此,未來AI強國會具有戰略優勢,各國之間的軍備競賽會轉向AI領域。就算大部分國家都確保各自構建的系統是安全的,且不會威脅他國安全,仍然可能有國家蓄意用AI做壞事,造成傷害。

這給人的感覺就像核武,有一個國家不聽話、不老實,把嚴重的事情都當兒戲。

2.資訊誤傳

資訊誤傳這件事情大家早就時有所聞。前一陣子美國律師用ChatGPT打官司,結果舉的案例有6個都是杜撰的例子。

而有影響力的集體,像是國家、政黨、組織抖,都會有能力用AI來影響(通常是潛移默化的)、改變普通人的政治信仰及意識形態等。

同時,AI本身也有能力生成具煽動性或有說服力的觀點,激起用戶強烈的情緒。而這些可能的後果,完全不可預料,不得不防。

3.代理人的「把戲」

AI系統根據具體的目標進行訓練,而這些目標,只是間接代理了人類重視的東西。就好像AI經過訓練,就可以推送用戶他們愛看的影片或文章一樣。但並不代表,這種方式就是好的,人類反而可能會被AI利用。推薦系統可能會導致人們的想法越來越極端,也更容易預測每個用戶的偏好。

而隨著未來AI的性能越來越強、影響越來越大,我們拿來訓練AI系統的目標,也必須更加仔細的確認。

4.人類「退化」

如果看過「機器人總動員」這部電影,我們就能想像在未來時代,機器越來越強,人類會是這副什麼樣子:大腹便便、身體素質低下、毛病一堆。

就是因為,什麼都交給AI了,人類自然就要「退化」了。尤其是在大量崗位被AI的自動化取代的未來光景下,這種場面更成為可能中的可能。

不過,按LeCun的觀點,大概又得駁斥一番。說我們離「機器人總動員」想像的場景還很遠。

5.技術壟斷

與技術本身無關,這一點強調的,是可能會出現的「技術壟斷」。也許有一天,最強大的AI由越來越少的利益相關者掌控,使用權也被他們牢牢的捏在手心。

而真到那一步的話,剩下的普通人,就只能處在一個任人擺布的狀態,因為根本反抗不了,想想劉慈欣的科幻小說「贍養人類」吧。一個終產者靠著AI統治著全球的所有人,多可怕。

6.不可控的發展

這點主要想說明,AI系統發展到某一步,可能結果會超出設計者的想像,且無法再進行控制。實際上這也是主流擔心AI進程最糾結的地方。

總會有人擔心,AI發展到最後,會像魔鬼終結者裡的「天網」一樣,或者鋼鐵人裡的「奧創」,不受掌控,試圖毀滅人類。

或者換句話說,有些風險只有在發展的進程中才能發現,而真到發現時,就已經晚了。甚至還可能會出現新的目標。

7.欺騙

這點有一些抽象,簡單來說,就是AI系統可能會「欺騙」人類。這種「欺騙」並不是故意的,只是因為AI為了實現代理人目標的手段而已。

透過「欺騙」獲得人類的認可,比透過正常管道獲得人類的認可更快速,而效率才是AI首要考慮的要素。

8.追求權力的行為

這點和技術壟斷之間有相關性。正因為會出現技術壟斷的情況,各國就會追求壟斷技術的權力。而這種「追求」,很可能會帶來難以預料的後果。

*本文轉載自公眾號「新智元」(ID:AI_era),原文:Sam Altman預警:AI滅絕人類!375+大佬簽署22字聯名信,LeCun唱反調

責任編輯:倪旻勤
核稿編輯:陳瑋鴻

【更多精彩內容】
AI物種大爆發,焦慮爆棚?AI實戰36技,幫你職場戰力增10倍
AI越快,心要越定》AI革命像轉位轉型!該做深這件事,別被工具迷花眼
AI入門10技》沒空想旅行計畫?心裡有苦想傾訴?從Line就能輕鬆上手
AI職場16技》秒回郵件、摘要會議紀錄、模擬面試⋯它當萬能助手,生產力加倍!
AI斜槓10技》寫文案、做SEO優化、開發遊戲,新工具一次學,助你跨出界限
「IT部門一定要衝第一線」台灣大拚AI,如何用30人帶動全公司?
不惜裁員解散法務、SEO寫手,這家線上家教為何要這樣推AI?
少走AI冤枉路!機器人行員、智能客服踩坑,台新金學會善用「翻譯官」
AI風潮來了,下一步?
每個工作者都要會用AI
ChatGPT狂潮下的美中新大戰!
它讓記者自問「以後會消失嗎?」看6個AI潛入職場、校園的改變現場
「會用AI的人,將取代不會的人」

商周大調查
大調查主圖
AI快速發展!您認為接下來哪種能力對職場成功最關鍵?
1. 具備深厚的專業知識
2. 善於運用AI工具
3. 擁有創新思維和解決問題的能力
4. 具備快速學習和適應能力
5. 擁有強大的人脈資源
商周調查局相關文章 相關文章
工程師、餐廳、冬粉行…最易被取代職業、最難用AI行業,怎麼用AI創高峰
Sam Altman 安全 科技 人工智慧 AI
獨立觀點
獨立觀點
編輯精選
展開箭頭

這是一個開放給所有商周讀者發聲的管道,如果你有意見想法不吐不快,歡迎大聲說出來!(來稿請寄至red_chen@bwnet.com.tw)

廣告-請繼續往下閱讀
FOLLOW US
加入商周LINE好友 秒懂新商業
加入好友

商周集團為提供最佳的閱讀服務,採用網站分析技術,以持續優化用戶體驗。
若繼續瀏覽本網站即表示您同意隱私權聲明
若您未點選「我同意」而繼續使用本網站,則視為您已同意本站之隱私權政策。