OpenAI 首席執行官 Sam Altman 指控競爭對手 Anthropic 使用「基於恐懼的行銷」來推廣其 Claude Mythos AI 模型,根據在科技記者 Ashlee Vance 主持的 Core Memory 播客中所做的評論。Altman 表示,這種基於恐懼的說法旨在為將先進 AI 系統維持在「更小一群人」的控制之下提供正當理由,儘管他也承認部分安全顧慮是合理的。
Altman 表示,儘管對 AI 安全性的確有合理擔憂,「但說:『我們已經造出了一枚炸彈。我們即將把它丟到你頭上。我們會用 $100 百萬賣你一間防彈堡。你需要它來運行你所有的東西,但前提是只有在我們把你當作客戶之後。』這顯然是不可思議的行銷。他指出,將 AI 的新能力與「技術應當能夠被普及使用」的信念平衡起來「並不總是容易」。
Altman 承認「確實會有合法的安全顧慮」,但他認為基於恐懼的訊息可能會被武器化,來為集中式控制提供正當性。他表示:「如果你想要的事情是像『我們需要控制 AI,只要我們,因為我們才是可信任的人』,我覺得基於恐懼的行銷很可能是最有效的方式,來為這種正當性作辯護。」
Anthropic 的 Claude Mythos 模型上個月才被揭露,並已引起研究人員、政府與網路安全產業的高度關注。根據測試,該模型能夠自主辨識軟體漏洞並執行複雜的網路攻擊作業。在測試期間,Mythos 在 Mozilla 的 Firefox 瀏覽器中辨識出數百個漏洞,並展示了進行多階段駭客攻擊模擬的能力。
Anthropic 透過 Project Glasswing 這個有限計畫限制對系統的存取,該計畫授予特定公司——包括 Amazon、Apple 和 Microsoft——測試其能力的權力。該公司也投入了大量資源來支持開源安全工作,並主張在技術被更廣泛地普及之前,防禦者應當能夠先受益於這項技術。
Anthropic 將 Mythos 的能力包裝成既是防禦端的突破——能夠更快偵測關鍵軟體缺陷——同時也是若遭濫用則可能帶來的進攻風險。該模型也揭露了既有 AI 評估系統的限制,Anthropic 承認,許多目前的網路安全基準已不再足以衡量其最新系統的能力。
儘管美國政府部分單位呼籲停止使用該技術,因為擔心其在戰爭與監控中的潛在應用,但據報道,美國國家安全局已開始在受管制的網路上測試該模型的預覽版本。在預測市場 Myriad 上,使用者對 Claude Mythos 於 6 月 30 日前向更廣大公眾發布的機率給出了 49% 的估計。
一群研究人員上週宣稱,他們能夠使用公開可得的模型重現 Mythos 的研究成果。
Altman 表示,隨著高度危險的 AI 系統能力不斷提升,圍繞這類系統的說法可能會增加,但他認為並非所有這些指稱都應當照單全收。他表示:「關於那些危險到不能釋出的模型,會有更多宣傳言論。也會有非常危險的模型不得不以不同方式釋出。我確信 Mythos 是一個很棒的網路安全模型,但我認為我們對如何把這種能力帶到世界上有一套我們自信的計畫。」
Altman 也駁斥了 OpenAI 正在削減其基礎設施支出這類說法,稱該公司將持續擴大其運算能力。他指出:「我不知道這是從哪裡來的……人們真的很想寫出『撤退』的故事。但很快又會變成:『OpenAI 是如此不負責任。他們怎麼還在花那麼一大筆錢?』」