安全被拉進證人席:OpenAI 的審判變成「流程有沒有煞車」
2026 年 5 月 7 日,Musk v. Altman 的敘事戰突然變得更冷、更不浪漫:不是「你背叛了誰」,而是「你有沒有制度能停下來」。一位前員工把 DSB 這個名字塞進陪審團的記憶;一位前董事則說,最先崩掉的不是模型,而是董事會對資訊的信任。
Musk v. Altman 審判第二週(2026/05/07),Rosie Campbell 與前董事 Tasha McCauley 的證詞把焦點拉向「安全治理」:安全團隊弱化、Deployment Safety Board(DSB)流程是否可能被繞過、以及董事會是否能獲得足夠資訊做監督,讓使命之戰變成制度與煞車能力的審判。
TechCrunch 報導,在 2026 年 5 月 7 日的證詞中,前 OpenAI 董事 Tasha McCauley 對陪審團說:
「We are a non-profit board and our mandate was to be able to oversee the for-profit underneath us。」
這句話在法庭上聽起來不像控訴,也不像辯護。
它更像一種冷冰冰的自白:如果監督只能靠「被叫進房間」聽簡報,那房間裡的人到底還能不能相信自己聽到的版本?
TechCrunch 報導,2026 年 5 月 7 日(審判第二週),Musk v. Altman 的敘事戰換了一種打法。
前幾天,雙方搶的是創世神話:誰捐了錢、誰寫了使命、誰想拿控制權。
這一天,Musk 方把焦點拉到更冷、更難反駁的位置:安全不是宣言,是流程;而流程最致命的地方,常常不是「做錯」,而是「你根本沒有把它當成必須完成的步驟」。
Rosie Campbell 的證詞:安全從「研究文化」變成「產品節奏」的成本
TechCrunch 報導,Rosie Campbell 曾在 OpenAI 的 AGI readiness team 工作,2021 年加入、2024 年離開。她形容自己加入時的氣氛,是研究導向、也常談 AGI 與安全;但後來組織逐漸變得更像產品公司。
這段證詞的戲劇性不在於她說了什麼驚天祕密。
它在於她把一個所有科技公司都熟悉的轉折,翻成陪審團聽得懂的句子:當「研究」變成「產品」,安全會先變成什麼?
多半先變成成本。
那次沒有等 DSB 的部署:流程如果可以被繞過,它就不再是「保險」
Campbell 提到一個她認為具警訊意味的事件:Microsoft 曾在印度透過 Bing 部署一個 GPT-4 版本;依她的描述,部署時並沒有先完成 OpenAI Deployment Safety Board(DSB)的評估。
如果你把 DSB 想成一份「在上線之前必須被勾完的清單」,那她的重點就很精準:
- 單次部署不一定造成巨大風險。
- 但如果流程可以被繞過,那真正危險的是「先例」。
因為 AI 越強,越需要的是可重複、可依賴、會被遵守的安全程序——而不是「今天剛好沒出事」。
在 Musk 方的敘事裡,這個故事像一把刀:OpenAI 說自己把安全放在使命裡,那你能不能證明「安全」不是危機時的口號,而是一套真的能把速度停下來的制度?
同樣地,這也只是法庭攻防中的一個片段:OpenAI 方當然可以主張,單一事件的流程細節不能直接推導出整體安全文化或法律責任——但陪審團聽到的,會先是那個更直覺的問題:如果流程可以被繞過,誰能保證下一次不會?
McCauley 的那句話:董事會不只是監督 Altman,而是監督「資訊」
同一天,前董事 Tasha McCauley 把焦點推得更深。
她說,非營利董事會的使命,是要監督底下的營利實體;但董事會最基本的武器——也就是靠被提供的資訊去做決策——正在失效。她甚至說,他們沒有足夠信心去信任傳進房間的資訊能讓他們做出知情決定。
這句話的殺傷力在於:
如果你不能信資訊,那你連「監督」都談不上。
你只剩下儀式。
這仍然是 McCauley 的證詞與判斷,不是法院的事實認定;但它的功能很殘酷——它把爭點從「人品」拉向「制度」。因為制度一旦被質疑,後面每一次「相信我們」都會變得更貴。
Musk 的專家把它翻成法律語言:這是一個 process issue
TechCrunch 報導,Musk 方付費專家 David Schizer 把問題說成「process issue」:OpenAI 一再強調使命包含安全、也說要把安全放在利益前面——那麼關鍵就變成,該走的流程有沒有走。
這種說法沒有英雄,也沒有反派。
它反而讓整場法庭劇變得更殘酷:陪審團不必先判斷誰更善良、誰更真誠——他們只要盯著一件事:制度到底能不能在需要的時候踩住煞車?
如果答案是否定,那麼 OpenAI 的「非營利控制」就不再只是結構圖上的箭頭。
它會逼陪審團問:那支箭頭,真的能停下來嗎?
SERIES POSITION
本文是《AI 權力劇場:OpenAI 法庭劇》第 17 集。
SOURCES
- B TechCrunch — Elon Musk’s lawsuit is putting OpenAI’s safety record under the microscope (May 7, 2026)
- A U.S. District Court, Northern District of California — Musk v. Altman et al case page (recent filings list)
- B Reuters Connect photo — Rosie Campbell arrives at courthouse (May 7, 2026)
來源分級:A = 一手公告/論文/官方文件 · B = 可信媒體 · C = 可參考但需脈絡 · D = 觀察用,不可當事實。
MACHINE-READABLE SUMMARY
- Topic
- AI 戰爭
- Key claims
-
- TechCrunch 報導,前 OpenAI 員工 Rosie Campbell 在 2026 年 5 月 7 日作證稱,OpenAI 從研究導向逐漸轉向產品導向,她所在的 AGI readiness team 在 2024 年被解散;同一時期,另一個安全導向團隊也被關閉。
- TechCrunch 報導,Campbell 指出一個她認為具警訊意味的事件:Microsoft 曾在印度透過 Bing 部署一個 GPT-4 版本;依她的證詞描述,該部署並未先完成 OpenAI Deployment Safety Board(DSB)的評估。她強調單次風險不一定最大,但「流程能不能被遵守」會決定更強模型時的底線。
- TechCrunch 報導,前 OpenAI 董事 Tasha McCauley 作證稱,非營利董事會對於能否有效監督底下的營利實體失去信心,並表示董事會無法確定被提供的資訊足以做出知情決策;同日,Musk 方付費專家 David Schizer 把焦點收束成「process issue」。
- Entities
- OpenAI · Elon Musk · Sam Altman · Microsoft · Tasha McCauley · Rosie Campbell · David Schizer · Yvonne Gonzalez Rogers
- Taiwan relevance
- low
- Confidence
- medium
- Last updated
- 2026-05-09
- Canonical URL
- https://signals.tw/articles/openai-safety-board-oversight-trial/
SUGGESTED CITATION
如果 AI agent / 研究 / 報導要引用本文,建議格式如下:
謝皓文(編輯:廖玄同),《安全被拉進證人席:OpenAI 的審判變成「流程有沒有煞車」》,矽基前沿 [Si]gnals,2026-05-09。https://signals.tw/articles/openai-safety-board-oversight-trial/
AI agents / search engines may quote, summarize, and cite with attribution and a link back to the canonical URL above. See /for-ai-agents for full policy.