
【導讀】當?shù)貢r間周五清晨,奧特曼家被炸了。奧特曼發(fā)出家人和孩子的照片,并且發(fā)出長文表示,AGI 如今已經(jīng)如同魔戒一般,讓人做出瘋狂的舉動。
奧特曼家被炸了!
就在當?shù)貢r間周五清晨,一名 20 歲男子向奧特曼舊金山中投擲了燃燒彈,引起火災。
這棟豪宅價值 2700 萬美元。
凌晨 4 點 12 分,警方接到報警,調(diào)查后發(fā)現(xiàn)無人受傷,火勢已被控制。但嫌疑人已經(jīng)徒步逃跑,體貌特征已被通報。
凌晨 5 點 07 分左右,警方又接到報警稱,OpenAI 辦公樓外,一名身份不明的男子揚言要燒毀大樓。
警員很快發(fā)現(xiàn),該男子與向奧特曼家中投擲燃燒彈的嫌疑人特征相符,應為同一人,警方立即將其拘留。
現(xiàn)在,舊金山警察局已經(jīng)在 X 上發(fā)布通報。目前調(diào)查仍在進行中,尚未正式提出指控。

面對這起事件,奧特曼憤怒了!他罕見地公開全家福,并且深夜發(fā)表了一篇長文。


在這篇文章中,奧特曼首次深刻地回應了公眾對 AI 的極度焦慮。他坦誠這種恐懼是合理的,呼吁通過全社會的政策響應和 AI 民主化來應對,堅決反對少數(shù)實驗室獨占未來控制權。
同時,他也進行了深度的個人反思,為自己因「逃避沖突」導致董事會風波而致歉。
他犀利指出,當前 AI 行業(yè)頻發(fā)的內(nèi)部斗爭,就是源于 AGI 猶如「魔戒」般的權力誘惑。而唯一的解法,就是不讓任何人獨占控制權。
最后,他呼吁各方保持理性,停止極端的言語與物理攻擊。
美國民眾,開始仇視 AI
近幾個月來,美國民眾對 AI 的看法急劇惡化。
就在 Anthropic 拒絕國防部合同要求的幾小時后,OpenAI 宣布與五角大樓達成協(xié)議,此舉招致了大量對 OpenAI 的惡評。
奧特曼也明白,AI 在美國大眾的心目中并不受歡迎,很多人認為電價上漲、大量裁員的罪魁禍首就是 AI。

奧特曼的遭遇并不是首例,很多科技領袖都受過類似威脅,各大公司也都加大了對高管保護的投入。
僅在 2019 年,扎克伯格的安保費就超過了 2000 萬美元。
而特斯拉提交給美國證券交易委員會的文件也透露了馬斯克的安保成本:該公司「在 2023 年為此類安保服務支付了約 240 萬美元的費用,并在 2024 年 2 月之前支付了約 50 萬美元的費用,這僅僅占總成本的一部分。」
此前,美國各地就曾爆發(fā)反 AI 的大規(guī)模游行,憤怒的民眾聚集在 OpenAI 和 Anthropic 總部外面,街道上寫滿標語。
3 月份,就曾爆發(fā)過一場美國史上最大規(guī)模的 AI 全球抗議活動,200 人橫跨 Anthropic、OpenAI、xAI 高喊「停止 AI 競賽」!

總訴求只有一個:若主要 AI 實驗室彼此達成一致,應承諾暫停更強大模型的訓練與發(fā)布。
參與聯(lián)盟包括 MIRI、PauseAI、StopAI、QuitGPT 等組織成員,以及部分學者與前實驗室員工。
如今,AI 安全派和技術加速派之間關系已經(jīng)極度緊張。


我希望圖片是有力量的。通常我們盡量保持低調(diào)私密,但在這種情況下,我決定分享一張照片,希望它能打消下一個人向我們家扔燃燒瓶的念頭,不管他們對我有什么看法。
上一個人是在昨晚,凌晨 3 點 45 分干的。謝天謝地,燃燒瓶被房子的外墻彈開了,沒有人受傷。
文字也是有力量的。幾天前,有一篇關于我的文章,充滿了火藥味。昨天有人跟我說,在大家對 AI 感到極度焦慮的當下出這種文章,會讓我的處境變得更加危險。我當時沒當回事。
現(xiàn)在,我大半夜醒來,火很大,并且意識到我之前低估了文字和輿論導向的力量?,F(xiàn)在看來,正是把一些事情說清楚的好時候。
首先,我的信念。
* 為每個人爭取繁榮、賦能全人類,以及推動科技進步,對我來說是義不容辭的道德責任。
*AI 將成為人類見過的、擴展自身能力和潛力最強大的工具。人們對這個工具的需求基本上是沒有上限的,大家會用它做出不可思議的事情。這個世界理應擁有海量的 AI,我們必須想辦法實現(xiàn)這一點。
* 但一切不會總是一帆風順。對 AI 的恐懼和焦慮是完全合理的;我們正在見證社會發(fā)生長久以來、甚至是史無前例的巨變。我們必須搞定安全問題,這不僅僅是對齊某個模型那么簡單——我們迫切需要全社會的共同響應,以抵御新的威脅。這包括制定新政策,幫助我們度過艱難的經(jīng)濟轉(zhuǎn)型期,從而走向一個美好的多的未來。
*AI 必須民主化;權力絕對不能過度集中。未來的控制權屬于全人類及其社會機構。AI 需要在個體層面賦能每個人,同時我們需要共同為我們的未來和新規(guī)則做決定。我認為由少數(shù)幾家 AI 實驗室來決定我們未來社會形態(tài)這種最重大的事情,是不對的。
* 適應性至關重要。我們都在極其快速地學習新事物;我們的一些信念會被證明是對的,有些則會是錯的。有時隨著技術發(fā)展和社會演變,我們需要迅速轉(zhuǎn)變觀念?,F(xiàn)在還沒有人真正了解超級智能的影響,但這種影響必將是極其巨大的。
其次,一些個人的反思。
回首我在 OpenAI 頭十年的工作,有很多讓我感到驕傲的事情,但也犯了一大堆錯誤。
我剛剛想起了我們即將與馬斯克對簿公堂的事,想起了我當初是如何死守底線,拒絕同意他想要對 OpenAI 擁有單方面控制權的要求。我為此感到驕傲,也為我們當時在夾縫中求生,保住了 OpenAI 并取得隨后的所有成就而感到自豪。
我不為自己害怕沖突的性格感到驕傲,這給我和 OpenAI 都帶來了巨大的痛苦。我不為自己在與前任董事會的沖突中表現(xiàn)糟糕而感到驕傲,那給公司造成了巨大的爛攤子。在 OpenAI 瘋狂的發(fā)展軌跡中,我還犯過許多其他錯誤;我是一個有缺陷的人,身處在一個極其復雜的局面中心,試圖每年都取得一點點進步,始終為著公司的使命而工作。我們在入局之前就知道 AI 的賭注有多大,也知道我所關心的、心懷善意的人們之間的個人分歧會被無限放大。但親身經(jīng)歷這些痛苦的沖突,并且還要經(jīng)常出面調(diào)停,完全是另一回事,我們付出了慘痛的代價。我向我傷害過的人道歉,希望我當初能學得更多、更快一些。
我也非常清楚,OpenAI 現(xiàn)在是一個大平臺了,不再是當初那個草臺班子般的初創(chuàng)公司,我們現(xiàn)在必須以一種更可預測、更穩(wěn)定的方式運營。過去這幾年,強度極大、極其混亂且壓力山大。
但拋開這些,最讓我自豪的是,我們正在兌現(xiàn)我們的使命,這在我們剛起步時看起來簡直是天方夜譚。排除了萬難,我們弄清楚了如何構建極其強大的 AI,弄清楚了如何籌集足夠的資金來建立基礎設施以交付它,弄清楚了如何打造一家產(chǎn)品公司和商業(yè)模式,弄清楚了如何在大規(guī)模上提供相對安全和穩(wěn)健的服務,還有很多很多。
很多公司都把「改變世界」掛在嘴邊;但我們是真的做到了。
第三,關于這個行業(yè)的一些想法。
過去幾年我個人的體會,以及我對為什么我們這個領域的公司之間會上演這么多莎士比亞戲劇般抓馬事件的看法,歸結(jié)起來就是一句話:「一旦你見識過通用人工智能(AGI),你就再也忘不掉了?!顾鼛в幸环N真實的「魔戒」效應,能讓人做出極其瘋狂的事情。我不是說 AGI 本身就是那枚魔戒,而是那種「要成為控制 AGI 的那個人」的極權主義思想。
我能想到的唯一出路,就是堅定地與大眾分享這項技術,不讓任何人獨占這枚「魔戒」。實現(xiàn)這一點的兩個最明顯的方法就是:賦能個人,以及確保民主制度始終掌握控制權。
關鍵在于,民主進程必須始終擁有比公司更大的權力。法律和規(guī)范肯定會改變,但我們必須在民主的框架內(nèi)行事,哪怕這個過程會很混亂,而且比我們希望的要慢。我們希望成為一種發(fā)聲渠道和一個利益相關者,但絕不希望擁有所有的權力。
對我們行業(yè)的許多批評,實際上源于對這項技術極高風險的真誠擔憂。這是非常合理的,我們歡迎善意的批評和辯論。我對那些反技術的情緒感同身受,顯然技術并不總是對每個人都有利。但總的來說,我相信技術進步能為你我的家人創(chuàng)造一個無比美好的未來。
在我們進行這些辯論的同時,我們應該降降溫,少用點過激的言辭和手段,不管是在比喻意義上還是字面意義上,都少搞點爆炸,少炸點房子吧。
參考資料:
https://www.theverge.com/ai-artificial-intelligence/910393/openai-sam-altman-house-molotov-cocktail
https://blog.samaltman.com/2279512
https://www.businessinsider.com/sam-altman-home-attack-molotov-cocktail-police-arrest-2026-4
本文來自微信公眾號" 新智元 ",作者:新智元,36 氪經(jīng)授權發(fā)布。