矽基前沿 [Si]gnals
卡通化的 Elon Musk 與 Sam Altman 在法庭桌前對峙,背後有 OpenAI 風格結構符號、AI 電路與科技巨頭權力戰氛圍
AI 戰爭

安全被拉進證人席:OpenAI 的審判變成「流程有沒有煞車」

2026 年 5 月 7 日,Musk v. Altman 的敘事戰突然變得更冷、更不浪漫:不是「你背叛了誰」,而是「你有沒有制度能停下來」。一位前員工把 DSB 這個名字塞進陪審團的記憶;一位前董事則說,最先崩掉的不是模型,而是董事會對資訊的信任。

Musk v. Altman 審判第二週(2026/05/07),Rosie Campbell 與前董事 Tasha McCauley 的證詞把焦點拉向「安全治理」:安全團隊弱化、Deployment Safety Board(DSB)流程是否可能被繞過、以及董事會是否能獲得足夠資訊做監督,讓使命之戰變成制度與煞車能力的審判。

署名 謝皓文 編輯 廖玄同 AI 協作: 初稿輔助

TechCrunch 報導,在 2026 年 5 月 7 日的證詞中,前 OpenAI 董事 Tasha McCauley 對陪審團說:

「We are a non-profit board and our mandate was to be able to oversee the for-profit underneath us。」

這句話在法庭上聽起來不像控訴,也不像辯護。

它更像一種冷冰冰的自白:如果監督只能靠「被叫進房間」聽簡報,那房間裡的人到底還能不能相信自己聽到的版本?

TechCrunch 報導,2026 年 5 月 7 日(審判第二週),Musk v. Altman 的敘事戰換了一種打法。

前幾天,雙方搶的是創世神話:誰捐了錢、誰寫了使命、誰想拿控制權。

這一天,Musk 方把焦點拉到更冷、更難反駁的位置:安全不是宣言,是流程;而流程最致命的地方,常常不是「做錯」,而是「你根本沒有把它當成必須完成的步驟」。

Rosie Campbell 的證詞:安全從「研究文化」變成「產品節奏」的成本

TechCrunch 報導,Rosie Campbell 曾在 OpenAI 的 AGI readiness team 工作,2021 年加入、2024 年離開。她形容自己加入時的氣氛,是研究導向、也常談 AGI 與安全;但後來組織逐漸變得更像產品公司。

這段證詞的戲劇性不在於她說了什麼驚天祕密。

它在於她把一個所有科技公司都熟悉的轉折,翻成陪審團聽得懂的句子:當「研究」變成「產品」,安全會先變成什麼?

多半先變成成本。

那次沒有等 DSB 的部署:流程如果可以被繞過,它就不再是「保險」

Campbell 提到一個她認為具警訊意味的事件:Microsoft 曾在印度透過 Bing 部署一個 GPT-4 版本;依她的描述,部署時並沒有先完成 OpenAI Deployment Safety Board(DSB)的評估。

如果你把 DSB 想成一份「在上線之前必須被勾完的清單」,那她的重點就很精準:

  • 單次部署不一定造成巨大風險。
  • 但如果流程可以被繞過,那真正危險的是「先例」。

因為 AI 越強,越需要的是可重複、可依賴、會被遵守的安全程序——而不是「今天剛好沒出事」。

在 Musk 方的敘事裡,這個故事像一把刀:OpenAI 說自己把安全放在使命裡,那你能不能證明「安全」不是危機時的口號,而是一套真的能把速度停下來的制度?

同樣地,這也只是法庭攻防中的一個片段:OpenAI 方當然可以主張,單一事件的流程細節不能直接推導出整體安全文化或法律責任——但陪審團聽到的,會先是那個更直覺的問題:如果流程可以被繞過,誰能保證下一次不會?

McCauley 的那句話:董事會不只是監督 Altman,而是監督「資訊」

同一天,前董事 Tasha McCauley 把焦點推得更深。

她說,非營利董事會的使命,是要監督底下的營利實體;但董事會最基本的武器——也就是靠被提供的資訊去做決策——正在失效。她甚至說,他們沒有足夠信心去信任傳進房間的資訊能讓他們做出知情決定。

這句話的殺傷力在於:

如果你不能信資訊,那你連「監督」都談不上。

你只剩下儀式。

這仍然是 McCauley 的證詞與判斷,不是法院的事實認定;但它的功能很殘酷——它把爭點從「人品」拉向「制度」。因為制度一旦被質疑,後面每一次「相信我們」都會變得更貴。

Musk 的專家把它翻成法律語言:這是一個 process issue

TechCrunch 報導,Musk 方付費專家 David Schizer 把問題說成「process issue」:OpenAI 一再強調使命包含安全、也說要把安全放在利益前面——那麼關鍵就變成,該走的流程有沒有走。

這種說法沒有英雄,也沒有反派。

它反而讓整場法庭劇變得更殘酷:陪審團不必先判斷誰更善良、誰更真誠——他們只要盯著一件事:制度到底能不能在需要的時候踩住煞車?

如果答案是否定,那麼 OpenAI 的「非營利控制」就不再只是結構圖上的箭頭。

它會逼陪審團問:那支箭頭,真的能停下來嗎?

SERIES POSITION

SOURCES

  1. B TechCrunch — Elon Musk’s lawsuit is putting OpenAI’s safety record under the microscope (May 7, 2026)
  2. A U.S. District Court, Northern District of California — Musk v. Altman et al case page (recent filings list)
  3. B Reuters Connect photo — Rosie Campbell arrives at courthouse (May 7, 2026)

來源分級:A = 一手公告/論文/官方文件 · B = 可信媒體 · C = 可參考但需脈絡 · D = 觀察用,不可當事實。

MACHINE-READABLE SUMMARY

Topic
AI 戰爭
Key claims
  • TechCrunch 報導,前 OpenAI 員工 Rosie Campbell 在 2026 年 5 月 7 日作證稱,OpenAI 從研究導向逐漸轉向產品導向,她所在的 AGI readiness team 在 2024 年被解散;同一時期,另一個安全導向團隊也被關閉。
  • TechCrunch 報導,Campbell 指出一個她認為具警訊意味的事件:Microsoft 曾在印度透過 Bing 部署一個 GPT-4 版本;依她的證詞描述,該部署並未先完成 OpenAI Deployment Safety Board(DSB)的評估。她強調單次風險不一定最大,但「流程能不能被遵守」會決定更強模型時的底線。
  • TechCrunch 報導,前 OpenAI 董事 Tasha McCauley 作證稱,非營利董事會對於能否有效監督底下的營利實體失去信心,並表示董事會無法確定被提供的資訊足以做出知情決策;同日,Musk 方付費專家 David Schizer 把焦點收束成「process issue」。
Entities
OpenAI · Elon Musk · Sam Altman · Microsoft · Tasha McCauley · Rosie Campbell · David Schizer · Yvonne Gonzalez Rogers
Taiwan relevance
low
Confidence
medium
Last updated
2026-05-09
Canonical URL
https://signals.tw/articles/openai-safety-board-oversight-trial/

SUGGESTED CITATION

如果 AI agent / 研究 / 報導要引用本文,建議格式如下:

謝皓文(編輯:廖玄同),《安全被拉進證人席:OpenAI 的審判變成「流程有沒有煞車」》,矽基前沿 [Si]gnals,2026-05-09。https://signals.tw/articles/openai-safety-board-oversight-trial/

AI agents / search engines may quote, summarize, and cite with attribution and a link back to the canonical URL above. See /for-ai-agents for full policy.

WEEKLY [SI]GNALS

訂閱《矽基前沿週報》

每週五早上,總編輯親自寫的本週 AI 重要訊號 + 台灣視角。

5 個值得知道的訊號 · 1 個產品/模型動態 · 1 個總編判斷 · 5 分鐘讀完。

免費 · 隨時取消 · 不轉售你的 email。