
| 読了時間:約11分
OpenAIアルトマンCEOの「間違い」とは何か。
国防総省との契約をめぐり、契約修正と解約運動の核心に迫る。
あなたが使っているChatGPTの裏側で、米国国防総省との大型契約が交わされていた。
世界中で「ChatGPTを解約せよ」の声が上がり、CEOのアルトマン自ら「間違いを犯した」と認める異例の展開に至っている。
この記事でわかること
アルトマンが認めた「間違い」の正体――2月27日夜に何が起きたのか
アルトマンが認めた「間違い」とは、契約の中身ではない。発表のタイミングだ。
Anthropic排除から数時間後の電撃発表
2月27日、AIの軍事利用をめぐる嵐が吹き荒れた。
📅 2月26日〜3月2日の時系列
- 2月26日:Anthropicが国防総省に対し「大規模監視」と「完全自律型兵器」への使用を禁止する条項を契約に明記するよう要求し、最終的に拒否
- 2月27日朝:トランプ大統領がSNSでAnthropicを「過激な左翼のウーク企業」と批判。全連邦機関にAnthropic製品の使用中止を命じる
- 2月27日午後:ヘグセス国防長官がAnthropicを「サプライチェーンリスク」に指定すると発表
- 2月27日夜:アルトマンがXに「戦争省との合意に達した」と投稿。OpenAIのAIモデルを国防総省の機密ネットワークに導入する契約を発表
- 2月28日:米国がイランに対する攻撃に踏み切る
- 3月2日:アルトマンが「間違いを犯した」と釈明。契約修正に着手
Anthropicが排除された同じ日に、OpenAIが国防総省と契約を結んだ。
しかもイラン攻撃のわずか1日前だった。
Bloombergの報道によると、アルトマンは後にこのタイミングについて「機会に乗じたずさんな行動」だったと認めている。
「2月27日に契約について公表することを急ぐべきではなかった」と述べ、「良い教訓」になったとの考えも示した。
「火事場泥棒」か「事態の沈静化」か
Business Insider Japanの報道によれば、アルトマンは社内メモで「間違いを犯した」と認め、会社として契約締結を「急ぐ」べきではなかったと述べた。
その上で「ご都合主義的で杜撰に見えたのだと思う」と振り返っている。
アルトマン側の言い分はこうだ。
Anthropicと国防総省の対立が激化すれば、AI業界全体が政府の強制的な介入を受けるおそれがある。
OpenAIが先に契約を結べば、事態が沈静化するのではないかと判断した――。
注目すべき事実
GIGAZINEの報道によると、アルトマンはXで「Anthropicをサプライチェーンリスクに指定することはAI業界と国家、そして当然ながらAnthropic自身にとって極めて有害です」と述べ、国防総省に指定の撤回を求めた。
「金のために競合の排除に乗じた」という見方が広まったが、アルトマン自身は競合であるAnthropicの救済を動機のひとつに挙げていた。
Impress Watchの報道によると、このサプライチェーンリスク指定は本来、中国企業など外国資本を対象とする仕組みだ。
米国企業であるAnthropicに適用するのは前例がない。
Anthropicは「法廷で争う」と宣言している。
では、アルトマンが「修正する」と約束した契約の中身は、具体的にどう変わるのだろうか。
契約修正の中身――「監視に使わない」は法的に担保されるのか
OpenAIが国防総省と協議中の修正は3つの柱からなる。
だが、法的な実効性には専門家から疑問の声が上がっている。
追加される3つの条項
ロイターの報道によると、アルトマンは3月2日、国防総省と契約内容の修正に向けて協議中だと明らかにした。
| 修正項目 | 内容 |
|---|---|
| 情報機関の除外 | NSAなど国防総省傘下の情報機関がOpenAIのサービスを使えないことを確認 |
| 国内監視の禁止 | 憲法修正第4条やFISA法に基づき、米国民への大規模監視を明示的に禁止 |
| 自律型兵器の制限 | 人間の判断なしにAIが攻撃を決定・実行する兵器への単独使用を禁止 |
Business Insider Japanの報道では、アルトマンのXへの投稿が引用されている。
「本AIシステムがアメリカ市民および国民に対する国内監視目的で意図的に使用されることはない」という文言だ。
契約書より強力な「物理的ロック」
契約の文言だけではない。OpenAIは技術的な制限も設けている。
GIGAZINEの報道によると、OpenAIはクラウド環境のみでモデルを提供する方針を採用した。
つまりドローンや航空機にAIモデルを直接搭載することは禁止される。
物理的な兵器システムへの統合を、技術の設計段階で防ぐ仕組みだ。
OpenAIの多層防護策
Fortuneの報道によれば、OpenAIの国家安全保障パートナーシップ責任者カトリーナ・マリガン氏は「契約文言だけでなく、技術的な安全スタック、展開アーキテクチャの制限、AI専門家の直接関与という多層的な防護策が含まれている」と説明した。
法的専門家が指摘する「抜け穴」
ところが、この安全対策にも弱点がある。
⚠️ 法的専門家の警告
同じくFortuneの報道によれば、法とAI研究所の上級フェローチャールズ・ブロック氏は「国防総省は自らの政策をいつでも変更できる」と指摘した。
契約で参照している国防総省の政策文書は、法律と異なりいつでも書き換えられるため、自律型兵器に関する制限は将来的に崩れるおそれがあるという。
一方で、ブロック氏は「大規模監視に関する既存法の遵守は契約上の拘束力がある」とも評価している。
ただし、OpenAIが公開したのは契約の一部にすぎない。
全体を見ない限り完全な評価はできないと釘を刺した。
もうひとつ厄介な問題がある。「大規模監視」の定義だ。
携帯電話の位置情報やフィットネスアプリのデータなど、商業的に入手できる情報を大量に分析する行為は、現行法上グレーゾーンとされている。
マリガン氏は「商業的に入手可能なデータの購入自体は防げない」と認めている。
OpenAIは安全対策で「Anthropicより優れている」と主張する。だが、そもそもAnthropicはなぜ契約を拒否したのか。両社の立場は、表面上の類似とは裏腹に根本的に異なっている。
OpenAI vs Anthropic――「同じレッドライン」の決定的な違い
両社とも「大規模監視」と「自律型兵器」を禁止すると掲げている。同じレッドラインに見える。
だが、その守り方が根本からちがう。
自社社員が自社の契約を「お飾り」と批判
Fortuneの報道によると、OpenAIでAIアライメント研究に携わる社員レオ・ガオ氏が、自社の国防総省との契約をXで公に批判した。
国防総省の「すべての合法的な目的」に技術を使わせる条項を受け入れた上で追加した安全対策を、ガオ氏はお飾り(window dressing)と呼んだ。
AIが人間の意図どおりに動くよう調整する「アライメント」の研究者が、自社の安全対策を「見せかけ」と断じた。
この異例の内部批判は、両社のアプローチのちがいを浮き彫りにしている。
| OpenAI | Anthropic | |
|---|---|---|
| 契約の基本条件 | 「すべての合法的な目的」を受け入れた上で制限を追加 | 禁止条項を契約に明記しなければ合意しない |
| 安全対策の主軸 | 技術的制限(クラウド限定、分類器、人的監視) | 契約文言による明示的禁止 |
| 政府との関係 | 政府の条件をまず受け入れ、内部で制限する | 自社の条件を先に確定させてから参加する |
The Guardianの報道によると、Anthropicは「いかなる脅迫や罰則を受けても、大規模な国内監視や完全自律型兵器に関する立場は変えない」と声明を出した。
企業の壁を越えた「500人の反乱」
この対立は、社員レベルでも波紋を広げた。
The Guardianの報道によれば、OpenAIとGoogleの現職従業員を中心に数百人が「We Will Not Be Divided(私たちは分断されない)」と題した公開書簡に署名した。
競合企業の社員が企業の壁を越え、Anthropicの姿勢を支持するという異例の連帯だ。
2018年にGoogle社員がAIの軍事利用に抗議し、国防総省向けのProject Mavenから撤退させた事例がある。
今回はそれを超えて、複数のAI企業の社員が共同で声を上げた。
AI技術の軍事利用をめぐる倫理的議論が、個別企業の問題から業界横断の運動へと拡大したことを示している。
Anthropicは本当に「正義の味方」なのか
ここで見逃せない事実がある。
⚡ 意外な事実
Business Insider Japanの報道によると、Anthropicは2024年11月にパランティア、AWSと提携し、米国の情報機関や国防機関にClaudeモデルへのアクセスを提供する協定を結んでいる。
軍事利用を完全に拒否した → それ以外の軍事・情報機関向けの利用はすでに行われていた。
Anthropicが今回守ったのは、「大規模監視」と「完全自律型兵器」という2つの具体的なレッドラインだ。
GIGAZINEの報道によれば、OpenAI自身も2024年1月に利用ポリシーから「軍事・戦争目的への使用禁止」の文言を削除していた。
両社とも、段階的に軍事利用に関与する方向へ舵を切ってきた。
つまり「OpenAI=悪、Anthropic=善」という二項対立は、事実を正確に反映していない。
問題の本質は特定の企業の善悪ではなく、AI技術の軍事利用にどこまで歯止めをかけられるのか、誰がその判断を担うのかという制度設計の問題だろう。
こうした構造的な対立が、一般ユーザーを巻き込んだ前例のない運動に発展した。ケイティ・ペリーのClaude乗り換え投稿に象徴される「ChatGPT解約運動」は、AI業界の勢力図をどこまで塗り替えるのだろうか。
「ChatGPT解約運動」の衝撃――ClaudeがApp Store 1位に浮上
ポップシンガーのケイティ・ペリーが、Claude課金のスクショをXに投稿した。AIの軍事利用というニッチな政策問題が、ポップカルチャーにまで波及している。
解約の「証拠」がSNSに溢れた
Business Insider Japanの報道によると、ClaudeがApp Storeの無料アプリダウンロード数で1位を獲得した。
ChatGPTを抜き去ったのだ。
解約したユーザーはスクリーンショットをSNSに次々と投稿した。
ケイティ・ペリーは「完了」とXに投稿し、月額20ドルのClaude Proプランの画面を赤いハートで囲んだ。
別のユーザーはAnthropicからの領収書とOpenAIからの解約確認が並ぶ受信箱のスクショを公開している。
GIGAZINEの報道によれば、RedditのChatGPT専用コミュニティでもアカウント削除の報告が数十件にのぼった。
「#CancelChatGPT」「#QuitGPT」がSNSの合言葉になり、市民団体QuitGPTはOpenAIのサンフランシスコとロンドンのオフィス前で抗議デモを展開した。
9億人ユーザーへの実際の影響は
ただし、数字を冷静に見る必要がある。
📊 ChatGPTの規模感
GIGAZINEの報道によると、ChatGPTの週間アクティブユーザーは9億人超、有料会員は5000万人超だ。
日本の人口の約7倍にあたる規模である。
ClaudeのApp Store 1位は象徴的な出来事だが、ChatGPTの圧倒的なユーザー基盤を即座に揺るがすものではないだろう。
⚠️ ここからは推測です
仮に有料会員の1%にあたる50万人が解約したとしても、月額20ドル換算で月間約1000万ドル(約15億円)の減収にとどまる。
OpenAIは同時期に1100億ドル(約17兆円)の資金調達を完了したばかりだ。
短期的な収益への打撃は限定的ではないか。
むしろ深刻なのはブランドイメージの毀損だろう。
「AI安全」を掲げて設立された企業が、競合の排除に乗じて軍と契約を結んだという印象は、長期的にユーザーの信頼を蝕むおそれがある。
アルトマンが契約修正に動いたのも、収益よりもブランドを守る判断だったのではないか。
(ここまで推測)
この騒動が残した問い
一連の出来事は、AI業界に前例のない先例を残した。
一般ユーザーの解約運動がAI企業と政府の契約内容を修正させたのだ。
ただし、契約修正が完了し、Anthropicのサプライチェーンリスク指定が撤回されれば、解約運動は沈静化するだろう。
本質的な問題は残る。
AI技術をどこまで軍事利用してよいのか。その判断は、テック企業のCEOに委ねるべきなのか、それとも選挙で選ばれた政府が決めるべきなのか。
アルトマン自身がXでこう述べている。
「AIの企業が政府より大きな力を持つ世界は恐ろしい。同時に、政府が大規模な国内監視を容認する世界も恐ろしい」。
この言葉が示すとおり、答えはまだ誰も持っていない。
まとめ
- アルトマンが認めた「間違い」は契約内容ではなく、Anthropic排除の同日に発表したタイミング。「ご都合主義的で杜撰に見えた」と本人が振り返っている
- 契約修正の3本柱は「NSA等の情報機関除外」「国内監視の明示的禁止」「自律型兵器への単独使用禁止」。ただし法的専門家は実効性に疑問を示している
- OpenAIとAnthropicの違いは、「政府の条件をまず受け入れて内部で制限する」か「自社の条件を先に確定させる」かというアプローチのちがい
- ChatGPT解約運動でClaudeがApp Store 1位になったが、ChatGPTの有料会員5000万人という規模からすると短期的な影響は限定的。長期的なブランド毀損がより深刻
- 「善悪の二項対立」ではなく、AI技術の軍事利用をどう制御するかという制度設計が真の論点
よくある質問(FAQ)
Q1. アルトマンが認めた「間違い」とは具体的に何ですか?
Anthropicが国防総省から排除された同日に契約発表を急いだタイミングです。本人は「ご都合主義的で杜撰に見えた」と振り返っています。
Q2. OpenAIと国防総省の契約はどう修正されますか?
NSA等の情報機関による使用の除外、国内大規模監視の明示的禁止、自律型兵器への単独使用禁止の3つの条項が追加されます。
Q3. ChatGPTの解約方法は?
ブラウザ版にログインし、設定からサブスクリプション管理画面を開き「サブスクリプションをキャンセル」を選択します。
Q4. ChatGPTの個人データが軍事利用されることはありますか?
国防総省との契約は機密ネットワーク向けで、個人ユーザーのChatGPTデータが軍事利用される仕組みではありません。
Q5. ClaudeがApp Store 1位になったのは本当ですか?
2月28日時点で米App Storeの無料アプリ全体でChatGPTを抜いてダウンロード数1位を獲得しました。
Q6. AnthropicもPalantir経由で軍に技術提供していたのでは?
2024年11月にパランティア・AWS経由で米国の情報機関や国防機関にClaudeモデルへのアクセスを提供する協定を結んでいます。
Q7. OpenAIの契約修正はいつ完了しますか?
3月2日時点で「協議中」と発表されており、具体的な完了時期は未発表です。
Q8. Anthropicのサプライチェーンリスク指定は撤回されますか?
Anthropicは法廷で争うと宣言しています。アルトマンも指定撤回を求めていますが、結果は未定です。
リアルタイムニュースNAVI 編集部
最新ニュースをわかりやすく、いち早くお届けします。
📚 参考文献
- Business Insider Japan「OpenAIのアルトマンCEO『私は間違いを犯した』と釈明。『ChatGPT解約運動』激化を受け、国防総省との契約内容を修正へ」(2026年3月3日)
- ロイター「オープンAI、米国防総省との契約内容修正中=アルトマンCEO」(2026年3月3日)
- Bloomberg「米OpenAIのCEO、国防総省との契約は急ぎ過ぎた-追加条項を協議中」(2026年3月3日)
- Business Insider Japan「『ChatGPT解約運動』拡大で、Claudeがダウンロード数1位に」(2026年3月2日)
- GIGAZINE「OpenAIが国防総省とのAI利用契約について合意」(2026年3月2日)
- Fortune「OpenAI CEO Sam Altman defends decision to strike Pentagon deal」(2026年3月2日)
- The Guardian「OpenAI said it had struck a deal with the Pentagon」(2026年2月28日)
- Impress Watch「OpenAI、米国防総省と機密AI利用について合意」(2026年2月28日)
- GIGAZINE「OpenAIがアメリカ軍と契約を結んだ後『ChatGPTをキャンセルせよ』という動き」(2026年3月2日)
- GIGAZINE「OpenAIがChatGPTの週間アクティブユーザー数は9億人超と発表」(2026年3月2日)
- GIGAZINE「OpenAIがChatGPTのポリシーから『軍事・戦争目的への使用禁止』を削除」(2024年1月15日)