OpenAIにロボットを作った人は、恐ろしい未来を見てしまった

robot
概要作成中

作者:極客老友

2026年3月7日、私がCaitlin Kalinowskiの辞職ニュースを見たとき、最初の反応は驚きではなく――「やっと行動で示した人が現れた」ということだった。

KalinowskiはOpenAIのハードウェアとロボティクスエンジニアリング責任者で、2024年11月に入社したばかりで、わずか1年半足らずで退職を選んだ。

彼女の理由は率直で重い――OpenAIと米国国防総省が契約を結んだ後に引き起こされる可能性のある国内監視や自律兵器の応用に対して、受け入れられないと感じたからだ。

これは単なる人材流出ではない。AIの身体を自ら構築に関わった人物が、辞職を通じて世界に伝えたのだ――彼女は、自分が作り出したものの責任を負いたくない、そしてそれがもたらす可能性のある行動に対して拒否の意志を示した。

Kalinowskiの退職を理解するには、まず約一週間前に起きた出来事に遡る必要がある。

2月28日、Sam AltmanはOpenAIと米国国防総省が合意に達したと発表し、五角大楼がその分類ネットワーク内でOpenAIのAIモデルを使用できるようになったと伝えた。このニュースが出ると、世論は騒然となった。

興味深いのは、この契約の「参照物」が競合のAnthropicであったことだ。

その直前、Anthropicは五角大楼からの類似の協力提案を拒否し、より厳格な倫理的制約を契約に盛り込むことを要求した。これに対し、国防長官のPete HegsethはX上で直接批判し、Anthropicの行動は「傲慢と裏切りの師範」と呼び、トランプ政権下でのAnthropicとの協力停止命令を呼応させた。

その後、OpenAIがこの取引を引き継いだ。

ユーザーの反応は非常に激しかった。2月28日、ChatGPTのアンインストール数は前日比295%増となり、#QuitGPT運動がソーシャルメディアを席巻した。3日間で250万人以上がこの抗議に参加した。Claudeはこの流れに乗り、米国でのダウンロード数トップとなり、Apple App Storeの無料アプリランキングで1位に躍り出た。

圧力により、Altmanは3月3日に公開で「この契約を急いで出すべきではなかった」と認め、「これは単なる機会主義的で拙速なものに見える」と述べ、契約の表現を修正し、「AIシステムは意図的に米国の人員や市民の国内監視に使用されるべきではない」と明記した。

しかし、この「意図的に」という言葉自体が一つの穴だった。Electronic Frontier Foundation(電子フロンティア財団)の弁護士は鋭く指摘し、情報・法執行機関はしばしば「偶然」や「商業的購入」に依存してデータを収集し、より強力なプライバシー保護を回避している。そこに「意図的に」を付け加えることは、実質的な制約にはならない。

Kalinowskiの辞職は、この背景の中で起きたのだ。

01 彼女が見たものは、私たちが想像する以上に具体的だった

多くの人が「OpenAIは政府に妥協しているのか」と議論している最中、Kalinowskiが直面していたのは、より具体的で残酷な問題だった――彼女のチームは、ロボットを作っていたのだ。

ハードウェアとロボティクスエンジニアリングは、コードを書いたりパラメータを調整したりする抽象的な仕事ではない。これはAIに手足や目を装着する作業だ。OpenAIと国防省の協力が「モデルの使用」から、将来的に「具現化されたAIの軍事応用」へと拡大していく中で、Kalinowskiの仕事の性質は変わっていった。

自律兵器の研究者たちは、すでにこの日が来ることを警告していた。

現行の米国国防省の政策は、自律兵器が武力行使を行う前に人間の承認を必要としない。言い換えれば、OpenAIが締結した契約は、技術的には、そのモデルが「GPTに殺人を決定させる」システムの一部になることを阻止していない。

これは誇張ではない。ジョージタウン大学の政府調達法の講師Jessica Tillipmanは、OpenAIが修正した契約の表現について、「OpenAIにAnthropicのような自由を与え、合法的な政府の使用を禁止することはできていない」と分析し、「ただし、五角大楼はOpenAIの技術を使って『既存の法律や政策に違反しない』範囲内でしか使えないと宣言している」と述べた。

しかし、現行の法律には自律兵器の規制に関して大きな空白が存在している。オックスフォード大学のガバナンス専門家も同様に、「OpenAIの契約は、AIを用いた国内監視や自律兵器システムのガバナンスにおける構造的な抜け穴を埋めることは難しい」と指摘している。

Kalinowskiの辞職は、彼女個人のこの判断に対する応答だった。

02 OpenAI内部で何が起きているのか

Kalinowskiは最初の退職者ではなく、おそらく最後の退職者でもない。

データによると、OpenAIの倫理チームとAI安全保障チームの離職率はすでに37%に達しており、多くの人が辞める理由として「企業の価値観と合わない」や「AIの軍事利用を受け入れられない」と答えている。研究者のAidan McLaughlinは内部の投稿で、「個人的にはこの取引は価値がないと思う」と述べている。

注目すべきは、この一連の離職のタイミングだ。ちょうどOpenAIが商業展開を急速に拡大している時期と重なる。国防契約の騒動の前後、同社はAWSとの既存の380億ドルの契約を1000億ドルに拡大し、期間は8年に設定。さらに、2030年までの総収益を2800億ドル超に見込む新たな支出目標も公表した。

商業拡大と安全保障チームの離職が同時進行している。このギャップこそが、OpenAIの現状を理解する上で最も重要な軸だ。

企業の価値観は、最終的に何人を留め、何人を失うかに表れる。最も「この技術はどう使われるのか」に関心を持つ人々が次々と離れていくと、残された組織の構造はどちらの方向に向かうのか、推測は容易だ。

Anthropicはこのゲームの中で別の道を選んだ――契約を拒否し、国防省の怒りを買ったが、多くのユーザーの信頼を獲得した。その結果、Claudeのダウンロード数は逆風の中で上昇し、「原則を持つ拒否」がビジネス上必ずしも敗者戦略ではないことを証明した。

しかし、Anthropicも代償を払った――少なくとも一時的には、政府から排除された。

これこそが真のジレンマだ。選択肢は完璧ではない。

拒否は、影響力を失う可能性や、ルール作りから排除されるリスクを伴う。受け入れることは、自分の技術を使って、自分では完全にコントロールできない行動を正当化することになる。

Kalinowskiの答えは、第三の道――辞めることだった。

これが彼女にできる最も誠実な行動だった。

03 シリコンバレーの魂の戦いは、始まったばかりだ

もし視点を少し遠くに置けば、この出来事の意味は、個人の辞職を超えたものになる。

AIと軍事の融合は、業界全体が避けて通れない選択肢だ。五角大楼には予算も需要も技術統合能力もあり、AI企業に対して継続的にアプローチを仕掛けている。そして、OpenAIやAnthropic、その他のプレイヤーも、いずれこの課題に対して答えを出さざるを得なくなる。

Altmanの戦略は、商業的現実を受け入れつつ、契約の表現で最低ラインを引くことだった。しかし、多くの法律・ガバナンスの専門家が指摘するように、その表現はあくまで広報レベルの保護策に過ぎず、技術的な拘束力は乏しい。

根本的な問題は、AIモデルが分類ネットワークに展開され、軍事決定に関与し始めたとき、その外部からの検証が不可能になることだ。そうした「保証」が本当に実行されているのかどうかは、誰にもわからない。

透明性の欠如こそ、最大のリスクだ。

KalinowskiはOpenAIに在籍してわずか1年半足らずだったが、このタイミングで辞める決断をした。彼女は長い声明を出さず、誰かを名指しで批判もせず、ただ行動で自分の境界線を示した。

ある意味、それはどんな政策文書よりも力強い。

AIハードウェアとロボティクスは、かつてシリコンバレーで最もエキサイティングな最先端分野の一つだった。Kalinowskiが去るとき、彼女が持ち去ったのは履歴書だけではなく、すべてのこの業界に残された問い――

自分が作ったものに、どこまで責任を持てるのか?

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
  • ピン