Hero Image
- Mark

OpenAI 瞟竊者風暴:馬斯克索償 1,340 億美元的背叛與戰爭

OpenAI 瞟竊者風暴:馬斯克索償 1,340 億美元的背叛與戰爭


第一章:一切是怎麼開始的——OpenAI 的崇高承諾與使命

2015 年的宣言:非營利、開放、安全——馬斯克與 Altman 的初心

時間回到 2015 年 12 月,一個平凡的冬日,矽谷卻見證了一個野心的誕生。OpenAI 在舊金山宣佈成立,創辦人名單星光熠熠:Elon Musk、Sam Altman、Peter Thiel 以及一群才華洋溢的 AI 研究者。他們的宣言擲地有聲——OpenAI 將是一家非營利組織,使命是「確保人工通用智慧(AGI)造福全人類」。

這不是一句公關口號。創辦團隊明確承諾:OpenAI 將公開研究成果、開放程式碼,讓任何人都有機會站在同一個起點。他們恐懼的不是 AI 不夠強大,而是恐懼當 AI 足夠強大時,權力過度集中在一小群人手中。那種恐懼,來自於對歷史上無數科技濫用的深刻理解。

當年的聲明文件白紙黑字地寫著:OpenAI 的核心價值是「優先為人類整體利益服務,而非為投資者服務」。這意味著,任何試圖將 OpenAI 商業化的壓力,都不該動搖這個根本前提。創辦人之一 Musk 更是明確表示,他捐贈了近 10 億美元,是為了讓這個實驗能夠真正獨立於商業利益之外。

那個時候,全世界都願意相信。


馬斯克與 Altman 的早期合作與張力——一場夢想的兩個版本

Musk 與 Altman 的關係,從一開始就不只是「資助者與創業者」這麼簡單。兩人在許多方面有著驚人的共同點:都是願意押下超級賭注的夢想家,都對 AI 的毀滅性潛力抱有深刻焦慮,也都相信自己有責任阻止最壞的結果發生。

然而,正是在這種表面上的共鳴之下,已經埋下了日後撕裂的伏筆。Musk 的焦慮是根本性的——他真的相信不對齊的 AI 可能消滅人類,他願意為此付出任何代價,包括延緩自己公司的 AI 發展。Altman 的焦慮,則摻雜了更多東區式的務實主義:他也擔心 AI 風險,但他同時看到了一個歷史性的機會,一個可以在人類史上留下深刻印記的機會。

2018 年,Musk 離開 OpenAI 董事會。官方說法是「避免利益衝突」——因為 Tesla 的 AI 發展與 OpenAI 開始出現重疊。但真相從來比官方說法複雜。種種跡象顯示,Musk 對 OpenAI 越來越偏向商業化的方向表達了不滿,而這種不滿並沒有得到應有的重視。

兩個夢想家走向同一個起點,卻因為對於「如何到達終點」的根本分歧,注定在某一刻分道揚鑣。


OpenAI 與 Google 的本質差異宣言——非營利 AI 的理想與現實

在 2015 年的宣言中,有一個暗示從未被明確說出,但每個人都心知肚明:OpenAI 的存在,就是為了與 Google 對抗。

Google 在 2014 年收購了 DeepMind,那時就已經是 AI 領域資金與人才最雄厚的帝國。DeepMind 的技術能力毋庸置疑,但其歸屬一個營利企業的事實,讓整個 AI 安全社群感到不安。如果有一天,Google 率先開發出 AGI,誰能保證這項技術會被用於全人類的利益,而非少數股東的利潤?

OpenAI 正是這個焦慮的產物。它存在的根本目的,是作為一道制衡的力量——確保 AGI 的開發權力不會被單一企業壟斷。它要證明的是:AI 的未來不必然屬於資本主義邏輯下的巨頭。

諷刺的是,十年的時間過去,OpenAI 不僅沒有打破這種壟斷,反而在很多關鍵層面上,成為了它當年誓言要對抗的那種東西。


第二章:背叛的軌跡——OpenAI 如何一步步背離使命

GPT-2 的「過於危險」行銷爭議——開放承諾的第一次裂縫

2019 年 2 月,OpenAI 發布了 GPT-2,這是他們第一個引起大規模公眾關注的語言模型。OpenAI 選擇不公開完整模型,理由是「太過危險」——可能會被用來生成假新聞、進行大規模虛假資訊操作。

這個決定在 AI 社群引爆了激烈的爭論。

支持者聲稱這是負責任的表現,證明 OpenAI 對安全有著真實的關注。反對者則尖銳地指出:這不過是一場精心設計的公關操作。GPT-2 的「危險性」被刻意誇大,真正的目的,是要讓 OpenAI 在輿論場中佔據「安全領導者」的位置,同時掩蓋他們在技術上其實落後於競爭對手的事實。

更深層的批評在於:如果 OpenAI 真的相信 GPT-2 如此危險,為什麼仍然選擇公開一份「殘缺版」模型,讓研究人員得以進行類似的生成實驗?所謂的「危險」論述,從來就是選擇性的——它服務於 OpenAI 的敘事需求,而非真正的安全考量。

這是 OpenAI 第一次向世人展示一種它日後將越來越擅長的能力:將商業利益包裝成安全關懷。每一次的「負責任」聲明,同時也是一次市場定位的策略。


GPT-3 與 Microsoft 的獨家授權——OpenAI 封閉化的關鍵轉折點

2020 年 6 月,GPT-3 發布。這是 OpenAI 歷史上最重要的轉折點之一。

GPT-3 的技術能力震驚業界,但其授權模式卻讓所有曾經相信 OpenAI 使命的人感到心寒:Microsoft 獲得了 GPT-3 的獨家雲端運算使用權。任何人想要調用 GPT-3,必須透過 Microsoft 的 Azure 平台。這不僅是商業合作,這是某種意義上的主權移交。

曾經宣稱要「開放」研究成果的 OpenAI,此刻將最先進的模型變成了一家營利企業的專屬資產。任何研究者、任何小型公司,只要想在產品中使用 GPT-3,就必須向 Microsoft 付費並依賴其基礎設施。

這個決定的後果是結構性的。當你的技術路徑必須通過一個獨家商業夥伴才能觸及,你所謂的「非營利」承諾就已經空洞化了。OpenAI 不再是一個為人類整體利益服務的機構;它成為了一個價值 130 億美元投資的載體,而這個投資來自 Microsoft,持股比例約 27%。

曾經誓言要打破 Google 壟斷的人,正在建立另一種形式的壟斷。


o3 來襲——當「安全」成為最大贏家的護城河

2024 年末,OpenAI 發布 o3 模型。這是 GPT-4 以來最大的一次技術跳躍,在多項基準測試中達到了接近人類專家水準的表現。

然而,伴隨 o3 而來的,不只是技術驚嘆,還有越來越尖銳的批評聲浪。

批評者指出:o3 的訓練數據、模型架構、硬體資源——所有這些關鍵資訊全部不透明。OpenAI 在「安全」的名義下,構建了一道比任何專利牆都更難突破的資訊屏障。當批評者詢問模型的安全性測試細節,答案永遠是「我們很重視安全,但我們不能透露具體方法」。

這是一個完美的循環論證:我不能公開我的方法,因為我要保護安全;而我宣稱我很安全,因為我不公開我的方法。

「安全」在這裡不再是一個實質性的技術承諾,而成為了一個話語策略——用來阻擋競爭、回避問責、鞏固市場優勢。當整個 AI 產業都在談論「安全」之際,真正在做安全研究的人卻發現,他們無法驗證任何一家主要實驗室聲稱的安全聲明。


Altman 被解僱又立刻回歸——OpenAI 治理危機的真相

2023 年 11 月 17 日,AI 產業經歷了史上最戲劇性的 72 小時。

OpenAI 董事會突然宣佈解僱執行長 Sam Altman,理由是「他在與董事會的溝通中不夠坦誠」。這個決定是由首席科學家 Ilya Sutskever 帶頭推動的,他一直是 OpenAI 安全的靈魂人物。消息發布後,整個 AI 社群陷入了震驚。

然而,更戲劇性的轉折還在後面。不到 72 小時,員工發起了集體連署,要求董事會讓 Altman 回歸,否則集體辭職。同時,投資人 Microsoft 的執行長 Satya Nadella 被曝出與 Altman 保持了秘密聯繫,表示支持他的復職。

最終,Altman 不僅回歸,還接管了一個徹底改組的董事會。質疑他的聲音——包括 Ilya Sutskever——相繼離開了 OpenAI。

這場宮廷政變的失敗,揭示了一個冰冷的真相:無論多少「安全文化」的糖衣包裝,OpenAI 的實際控制權從來不在那些真正相信非營利使命的人手中。當商業利益與安全原則發生衝突時,商業利益永遠會找到自己的出路。

治理結構是假的。在關鍵時刻,權力服從的是資金,而不是使命。


第三章:馬斯克的訴訟——狀告 OpenAI 內容與法律攻防

2024-2026 年訴訟的核心指控:瞟竊、違約、欺騙

2024 年,Elon Musk 向 OpenAI 提起訴訟,索賠金額最高達到 1,340 億美元。這是矽谷有史以來最大規模的科技訴訟之一,不僅因為金額,更因為它所觸及的議題——科技創新的道德邊界、創辦人與投資人之間的誠信責任、以及對整個 AI 產業方向的根本性質疑。

訴訟的核心指控有三:

第一,瞟竊(Plagiarism)。 Musk 指控 OpenAI 將其非營利研究成果——包括核心技術和商業機會——轉讓給了 Microsoft,等同於將他及其他早期資助者對公益事業的貢獻竊取為營利資產。

第二,違約(Breach of Contract)。 Musk 聲稱存在一份所謂的「Founding Agreement」,明訂 OpenAI 將維持非營利結構,其技術將為人類整體利益服務,而非服務於任何單一企業。這份協議的具體內容是否存在,成為了訴訟的核心爭議。

第三,欺騙(Fraud)。 Musk 指控 OpenAI 的創辦人——特別是 Altman——故意誤導他和其他早期資助者,讓他們相信組織會堅守其公益使命,而實際上從一開始就計劃轉向營利模式。這是一個欺騙性的要約,構成侵權欺詐。

這三項指控,構成了一個完整的道德論述:如果你的起點是錯的,你的過程是騙的,你的終點就必然是歪的。

馬斯克與 Altman:從共同創辦人到法庭對手


OpenAI 的回應與法律策略——馬斯克告 OpenAI 的反駁

面對這紙訴訟,OpenAI 的法律團隊採取了多重策略。

首先,他們否認存在所謂的「Founding Agreement」,聲稱從未有過一份明確的、約束性的合同來定義 OpenAI 的非營利義務。創辦時的模糊聲明,沒有構成法律上可執行的義務。

其次,OpenAI 強調其治理結構經過了多次調整,每一次調整都是為了更好地實現其使命,而非背離它。2025 年 10 月 28 日改制為「公共利益公司」(PBC),正是這種「進化」的最新證明——在法律框架下,PBC 允許公司在追求利潤的同時,兼顧利害關係人的利益。

第三,OpenAI 的律師試圖將焦點轉移到 Musk 本人的動機上:這場訴訟更多是一個商業競爭者的策略性動作,而非真實的法律關切。Musk 的 xAI 正在與 OpenAI 正面競爭,一場巨額訴訟可以有效地擾亂對手的節奏。

這些策略在法律上有其合理性,但在道德敘事上,它們暴露了一個根本性的矛盾:當你開始用法律工具來定義「我們的承諾究竟是什麼」,你已經在某種意義上承認,那些承諾已經空洞化了。


法官裁決分析——從禁制令被駁回,到欺詐告訴遭撤銷

這場訴訟經歷了多次裁決,每一次都讓局勢更加清晰。

2025 年 3 月,法院作出了第一個重要裁決:法官 Yvonne Gonzalez Rogers 駁回了 Musk 要求發布禁制令(injunction)的請求——法院不願意以緊急救濟的方式,阻止 OpenAI 繼續其目前的營運模式。這個裁決在很大程度上基於程序性的理由:很難證明需要如此急迫的司法干預來保護原告的權利。

然而,同一裁決保留了欺詐告訴(fraud claim)繼續審理的可能性。這是一個重要的信號:法院承認,Musk 的律師提出了足夠實質性的主張,值得進一步的審理。

但局勢在 2026 年 4 月 24 日發生了戲劇性的逆轉。法官的最新裁決——就在本文撰寫的數天之前——撤銷了幾乎所有的欺詐告訴(dismissed Musk fraud claims)。法院認為,Musk 未能提出足夠的法律依據,來支持這些欺詐指控。

這是一個對 Musk 陣營的重大打擊。原本看似有望進入陪審團裁決的欺詐告訴,在最後一刻被撤銷。案件並未因此終結——它仍然可以繼續進入陪審團審判程序,裁決那些尚未被撤銷的請求——但欺詐這一最具殺傷力的指控,已經在法律層面上被大幅削弱。

陪審團遴選已於 2026 年 4 月 27 日展開。這個日期本身就具有歷史意義——十年的糾葛,終於走到了需要一個外部裁決者來判斷是非對錯的時刻。然而,2026 年 4 月 24 日的最新裁決,已經在某種程度上預示了這場戰爭的天平傾向。

裁決的最終結果,無論如何,都將成為 AI 產業治理史上的一個里程碑。

馬斯克 v. OpenAI 訴訟時間線(2024-2026)


第四章:誰是真正的瞟竊者?——對 OpenAI 與 AI 產業的結構性批判

對整個 AI 產業「開放」承諾的系統性背叛

這場訴訟所揭示的,不只是 OpenAI 與 Musk 之間的個人糾紛。當我們把鏡頭拉遠,看到的是整個 AI 產業對「開放」承諾的系統性背叛。

從 GPT-2 的「選擇性開放」到 GPT-3 的獨家授權,從 o 系列的封閉模型到對安全測試數據的全面保密——每一個步驟都在重複同一個模式:先用「安全」和「責任」來合理化封閉,然後用市場現實來消解當年的承諾。

更諷刺的是,這些實驗室在破壞自身開放承諾的同時,卻在指責開源社群「不負責任」。當 Meta 發布 LLaMA 模型時,OpenAI 的批評者迅速指出:如果封閉模型才代表安全,那為什麼允許一個社交媒體巨頭開放其 AI 能力?這種雙重標準,揭示了一個更深的真相——「安全」在這裡從來不是真正的優先項,它只是用來維護市場優勢的工具。


從「AI Safety」到「AI Competitiveness」——話術的演變與失控

過去五年裡,認真追蹤 AI 實驗室公關話術的人,會注意到一個清晰的演化軌跡。

「AI Safety」話術如何演變成「AI Competitiveness」的行銷工具

一開始,每個人都在談論「AI Safety」——超人類 AI 的風險、對齊問題、價值觀加載。這個話語讓這些實驗室看起來像是有人文關懷的嚴肅機構。

然後,隨著競爭加劇,「Safety」的內涵開始悄悄轉變。從「我們要確保 AI 對人類安全」,逐漸滑向「我們要確保 AI 技術領先於競爭對手」。當中國的 AI 實驗室開始追趕時,「Safety」話語又與「國家競爭力」話語合流:現在不只不能落後於商業對手,還不能落後於地緣政治對手。

這個滑動不是偶然的。它服務於一個至關重要的功能:它讓任何對實驗室決策的批評都變得難以出口。質疑 OpenAI 的封閉政策?你就是在削弱美國的 AI 競爭力。批評 Anthropic 的商業化轉向?你就是不重視 AI 風險。

當「安全」成為了「競爭力」的另一個名字,它就失去了一切批判性的力量。


為什麼這不只是 Altman 的個人問題——整個 AI 加速派的系統性失敗

這場訴訟有一個危險的陷阱:把它簡化成為 Altman 個人的道德失敗。這個陷阱必須被拒絕。

Altman 是這場戲的主角,但他是這個系統的產物,而非例外。每一個選擇將安全承諾讓位於商業壓力的 AI 實驗室、每一個公開宣稱重視人類利益卻低調轉向營利模式的創辦人,都是這個加速邏輯的參與者。

AI 加速派(AI Accelerationists)——那些相信 AI 發展速度是最重要優先項的人——構成了這個生態系統的意識形態基礎。他們的論述有一個內在結構:無論當下發生什麼爭議,長遠的「好處」都會超過短期的「代價」。這個邏輯允許任何短期行為都被合理化,因為它總是可以聲稱自己在服務更大的善。

然而,這種論述迴避了一個根本問題:誰來定義那個更大的善?誰有權力決定犧牲哪些原則來換取發展速度?當沒有人有權力對這些決定提出異議時,錯誤就不是例外,而是系統性的必然。

Musk 訴訟的真正價值,不在於他個人的損失能否得到補償,而在於它強迫我們追問:當一個組織以「人類的未來」之名成立,卻在十年內轉變為一個估值數百億美元的營利機構,這中間到底發生了什麼?


第五章:結語——瞟竊者的代價與 OpenAI 失去的未來

2026 年 4 月 27 日,陪審團遴選開始。十年前的夢想與現實之間的距離,在法庭上被正式丈量。

Musk 的訴訟索賠 1,340 億美元,但這個數字從來不是重點。重點在於話語權的歸屬:誰有資格定義 OpenAI 的承諾?誰有權力裁斷一個以「開放」為名成立的組織,在十年後成為矽谷最封閉、最有利可圖的機構之一?

在法律層面上,2026 年 4 月 24 日的最新裁決,對 Musk 陣營是一記重擊。法官撤銷了大多數欺詐告訴,等於是從法律上削弱了這場訴訟最具殺傷力的核心指控。但這並不意味著這場戰爭有了勝者——它只是意味著,這場戰爭正在轉移到另一個更難以量化的戰場。

OpenAI 改制為公共利益公司(PBC)的那一刻,已經在某種意義上承認了它自身敘事的破產。一個真正相信非營利使命的組織,不需要一個新的法律框架來容納商業行為;只有在使命被根本性顛覆之後,才需要一個新的「公益」定義來合理化既成的事實。

這是一場沒有贏家的戰爭。

Musk 贏了官司,他的一些法律論點可能在漫長的審判後得到某種形式的救濟;但他的 AI 夢想——一個真正為人類整體利益服務的 AI 未來——已經不可能透過這場訴訟找回。OpenAI 贏了法律戰的局部戰役,但失去的是道義上的正當性——這種損失在長期來看比任何裁決都更致命。

而整個 AI 產業,在這場戰爭中,失去的是公眾對它的信任——每一次被揭露的「開放」承諾淪為空話,都讓那些真正需要被信任的 AI 安全工作者,變得越來越難以發聲。

真正的瞟竊,不是發生在金錢的轉移上,而是發生在意義的竊取上。當一個組織宣稱自己存在的理由是「人類整體利益」,卻在實踐中將這種話語變成市場推廣的工具——這才是最高形式的背叛。

歷史會記住 2026 年的春天,不只是因為陪審團的遴選,而是因為這場遴選所代表的一切:一個關於信任與背叛的故事,一個關於夢想與現實的衝突,一個還沒有結束的問句——當技術的力量與商業的邏輯聯手,誰來守護那些被承諾了、卻從未被交付的未來?

答案,也許要留給法庭之外的我們,在每一天的選擇中親自去給出。

Other Related Posts:

AI 科學新時代:從「工具」到「合作者」的演變

AI 科學

最近 AI 在科學研究領域的發展令人驚嘆。2024 年諾貝爾化學獎和物理學獎都頒給了 AI 領域的先驅,這是對 AI 影響力的最佳認可。而 2025 年,AI 更進一步從單純的搜尋工具,演變成能夠主動參與科學發現的「合作者」。

AI Agent 的崛起

傳統的 AI 像是被動的助理,你問什麼它答什麼。但現在的 AI Agent 更積極主動,它會將複雜的問題拆解成多個步驟,甚至會自己上網搜尋資料來完成任務。這種轉變在藥物研發領域特別明顯——研究人員正在開發結合 AI Agent 和其他工具的系統,來發現新藥物。

在材料科學領域,AI 也在改變遊戲規則。工程師們利用類似系統發現了可...

24th Feb 2026