2026年の春、ダリオ・アモデイは突然シリコンバレーの迷惑者となった。黄仁勲氏は危うくアモデイを直接名指しし、AIによって大規模に雇用が失われると予測し続けるCEOたちを「神のコンプレックス」に苦しんでいると激しく批判した。CEOになると、自分はすべてを知っていると思いがちだ。アルトマン氏は、アモデイ氏がマーケティングに「恐怖」を利用していると述べ、楊立君氏は技術革命が雇用にどのような影響を与えるか理解していないとだけ述べた。

メディアさえも「世界の終わりについて警告し続けるAIのボスはなぜやめないのか?」と疑問を持つようになりました。
アモウディが人々を怒らせるのは、もちろん、彼の道徳心が高すぎて精神的知性が低すぎるからだけではありません。
微妙なのは、彼が実際に長い間AIのリスクを信じており、実際にこの信念をAnthropicの最も鋭い商用兵器に変えたことです。
OpenAI退社後に設立されたこの会社は、もはや「AIセキュリティ」を掲げた単なる研究チームではありません。 Claude Code はエンタープライズ AI 市場で最も強力な製品の 1 つとなり、年間収益は数十億ドルに達します。さらに誇張されているのは、Business Insider によると、民間流通市場における Anthropic の評価額が 1 兆米ドルを超えているということです。
ある人が道徳的高みに立って全員に速度を緩めるよう注意し、同時にフィールドの中央で賭けをし、賭け金がどんどん大きくなる場合、その人が標的にならないようにすることは困難です。
01
T AGPH27公共の敵
アモウディはAI業界で最も不快な人。
最後に発砲したのは黄仁勲氏です。
ポッドキャストの中で、黄仁訓氏は、AIが大規模な失業を引き起こし、さらには人類滅亡の危機をもたらすと頻繁に予測するテクノロジー企業のCEOたちを「神のコンプレックス」に苦しんでいると呼んだ。
彼の一般的な考えは、一度 CEO の地位に座ると、人々は自分がすべてを知っていると思い始めるのは簡単だということです。しかし、AIに関する公の議論は、誇張された終末論に導かれるのではなく、事実に立ち返るべきである。

これらの言葉は名前こそ挙げられなかったが、アモウディのことを思い出さずにはいられない。
そして、黄仁勲氏がアモデイのAIリスク説に挑発されたのはこれが初めてではない。
Amoudiは常にチップ輸出規制の厳格化を支持しており、規制の強化を求める長い記事も書いている。今年のダボス会議では、先端AIチップの中国への輸出を「核兵器の販売」に例えた。
もちろん、Jen-Hsun Huang氏はこの声明を受け入れないだろう。
別のポッドキャストで、この例えについて尋ねられたファン氏は「ばかげている」と直接答えた。 AIチップを核兵器に喩えるのは貧弱で非論理的な例えだと彼は考えている。

Huang Jen-Hun 氏の反撃がチップ政策に関する Nvidia と Anthropic 間の直接の利益相反から来るものであるとすれば、OpenAI の攻撃はむしろ古いライバル同士の正面衝突に似ています。
ポッドキャストの会話の中で、アルトマン氏は、Anthropic がマーケティングに「恐怖」を利用していると語った。
彼はかなり厳しい比喩を使用しました。それは、誰かが「私たちは爆弾を作ったので、すぐにあなたの頭に落とします。そうすれば、防空壕を1億ドルで販売できます」と言っているようなものです。

この文は明らかに、Anthropic によってリリースされたばかりの Claude Mythos Preview を指しています。 Anthropic 自身の声明によると、このネットワーク セキュリティ モデルは強力すぎるため、当面は一般公開されません。代わりに、「Wings of Glass」と呼ばれるプロジェクトに組み込まれ、パートナー組織の防御的なセキュリティ作業を行うことになる。
OpenAIからの「攻撃」はこれだけではありません。 4月13日、The Vergeは、OpenAIの最高収益責任者であるデニス・ドレッサー氏が従業員に送った4ページの内部メモを明らかにした。このメモのテーマはエンタープライズ AI 市場でどのように勝つかですが、あるセクションは Anthropic についての議論に充てられており、Anthropic はほぼ点々で相手を解体しようとしています。

Anthropicの物語は「恐怖、制限、そして少数のエリートがAIを制御すべきであるという概念」に基づいて構築されていると書いています。
彼女はまた、Anthropic はコードシナリオに依存しすぎており、コンピューティング能力の余力が不十分であると述べ、年間収益報告書に疑問を呈し、Anthropic には Amazon および Google との収益分配が総額ベースで含まれており、その結果、年間収益 300 億米ドルが約 80 億米ドル過大評価されていると述べた。
Amodei と Ultraman は宿敵であり、OpenAI と Anthropic は直接の競合相手です。 Huang Renxun のチップ事業も、Amodei の政策提案によって直接的な影響を受けています。彼らの反撃は軌道に乗っているようだ。
しかし、まだ終わっていません。
Yann LeCunもXでAmoudiを公に批判しました。今回の論争は、AIが雇用に及ぼす影響から生じています。
2025年、アモデイ氏はアクシオスとのインタビューで、AIによって今後1~5年で初級レベルのホワイトカラーの仕事の半分が失われ、失業率が10~20%に上昇する可能性があると述べた。同氏はまた、AI企業や規制当局は今後の影響を甘んじたり軽視したりし続けることはできないと述べた。
雇用に関するアモデイ氏の判断に応じて、ヤン・リクン氏はXで「ダリオ氏は間違っている」「技術革命が労働市場にどのような影響を与えるかについて彼は何も知らない」と述べた。同氏は、そのような疑問は楊立坤氏自身を含むAI関係者ではなく、経済学者が耳を傾けるべきだとさえ述べた。

世論でも疑問を持ち始めました。
有名メディアのコメントの例を挙げると、タイムズ紙は、世界の終わりを警告したAI巨人がなぜ自ら立ち止まらなかったのかを疑問視した。 TechCrunchは、Anthropicが表面上はインターネットセキュリティを保護するためにMythosの公開を制限しているが、この選択的な公開は大企業顧客を囲い込み、中小企業が蒸留によって機能を複製するのを防ぎ、それによって自社のビジネス利益を保護するのにも役立つ可能性があると指摘した。

明らかに、アモウディは人類学を率いており、ある種の道徳的高みを占めています。しかし、高台に立つほど、狙われることは多くなります。
問題は、アモウディがあまりにも原則的で、あまりにも「安全」に固執し、他人を怒らせることを躊躇しないため、今度は彼が攻撃されているだけなのでしょうか?
アモデイが「道徳の先導者」になろうと努力すればするほど、彼の道徳的矛盾はより明らかになる。彼はフィールドの真ん中に立って、このゲームが有害である可能性があることを皆に思い出させながら賭けをしている。
これはとても厄介です。
02
「『セキュリティキング』はこうして生まれた
」 メモには、 OpenAI の最高歳入責任者であるデニスは、「エリート」という言葉を述べました。
これは確かに、Amoudi で最も注目を集めるラベルの 1 つです。
米国陸軍省の要求に直面して、アントロピックはその境界を緩和することを拒否しました。クロードの使用は、大規模な監視に使用することは許可されておらず、意思決定に人間が参加しない完全自律型兵器での使用も許可されていないと主張し、当時アモウディ氏は「良いことはできなかった」と述べた。その瞬間、国民は長く失われていた解放感で歓声を上げた。シリコンバレーのエリートたちはついに再び立ち上がり、より大きな権力に対して「ノー」と言った。
この「セキュリティ王」がどこから来たのかを理解するには、やはり彼の起源を振り返る必要がある。
アモウディは、1983年にサンフランシスコで生まれました。彼の父親はトスカーナ出身のイタリア人の革細工師で、長年健康上の問題を抱えていましたが、シカゴ生まれのユダヤ系アメリカ人である母親は、図書館のプロジェクトマネージャーとして働いていました。彼は子供の頃からサンフランシスコで最も有名な公立高校に通い、2000 年に米国物理オリンピックのチームに選ばれました。大学入学後は、米国トップの理工系学校の 1 つであるカリフォルニア工科大学に通い、その後物理学の学士号を取得するためにスタンフォード大学に転校し、最後にプリンストン大学に進学して生物物理学の博士号を取得しました。
彼は物理学、神経科学、AI 研究を多次元で組み合わせた技術者であり、それが彼の複雑な視点も決定しています。2014年、ン氏はシリコンバレーにある百度の人工知能研究所にアモデイ氏を採用し、音声認識システムの研究に参加させた。その後、彼は Deep Speech 2 論文の著者の 1 人になりました。このシステムは、英語と中国語をカバーするエンドツーエンドの音声認識に焦点を当てています。また、大規模なデータ、計算能力、トレーニングを使用して、従来の音声認識プロセスをやり直すことも試みています。アモデイがスケールについての初期の直感を発達させ始めたのはこの時期でした。彼は後のインタビューで、モデルが大きくなり、データが増え、トレーニング時間が長くなると、結果はさらに良くなることがわかったと回想しました。彼にとって、後の GPT とクロードの世代の大規模モデルに貫かれるスケーリングの信念は、すでに Baidu の音声認識の基礎を築いていました。
ダニエラ・アモデイも重要な役割を果たしています。彼女も OpenAI を去り、兄妹は Anthropic を共同設立しました。
兄妹でデュアルコア構造を形成しています。 Amoudi は技術ラインと安全性のナラティブの代表者に近いのに対し、Daniela は会社の運営、組織構築、事業推進の責任を負っています。今日の Anthropic の独特の気質は、一方ではセキュリティ研究機関のように見え、他方では急速な資金調達と急速な拡大を実現する AI 企業のように見えますが、主にこの組み合わせから来ています。

この家族の絆は、Anthropic に特別な安定感ももたらし、同社を、強い自己アイデンティティを持ち、別の方法で AI を実現したいと考える、古い組織から分裂した小さなグループのようなものにしています。
2020年末、OpenAIは非常に丁寧な組織最新情報を発表し、当時のリサーチ担当副社長アモデイ氏が退任することを発表した。この記事では、過去 5 年間の彼の貢献に感謝し、GPT-2、GPT-3 への参加について言及し、イリヤ・サツケヴァーらと共同で研究の方向性を定めたと述べています。
最も微妙な点は、OpenAIも、Amoudiと数人の同僚が「製品開発よりも研究に重点を置く可能性がある」新しいプロジェクトを開始する予定であると書いたことです。他のページのほとんどは、セキュリティ分野における OpenAI の決意を示すために使用されます。

数年後、Anthropic と OpenAI の間の対立が公になったとき、人々はその年の友好的な「別れ」を振り返りました。 AI 機能の成長とセキュリティ境界をどのように優先するかについて、双方にすでに意見の相違があることは、難しくありません。
数か月後、Anthropic が設立されました。それ以来、セキュリティはアモデイの個人的な立場から会社の根幹へとゆっくりと変化してきました。
「責任あるスケーリングポリシー」であるRSPを備えています。 ASL レベルを使用して、さまざまな機能段階でモデルのリスク要件を設定します。これは、バイオセーフティ レベルの AI バージョンに似ています。それは一連の「憲法上の」原則を通じてモデルの行動を導きます。また、解釈可能性の研究への投資を継続し、モデルのブラックボックスをオープンにしようとしています。
アモデイ氏は確かに「安全保障」を利用しているが、それは長期的な安全保障を本当に信じている場合に限られる。 OpenAI の退職から、Anthropic の設立、RSP、AI の「憲法」、説明可能性、モデルのリスク分類、防衛契約の境界に至るまで、彼の行動は長期にわたって非常に一貫しています。
ここもAmoudiの複雑なところです。
彼はエリートとしての強い自信を持っています - 私はより大きなリスクを見てきたので、よりゆっくり、より厳格に、より恐れることを皆に思い出させる資格があります。しかし、その自信が彼を見下すように見えるのです。
そして、アモウディが事業会社を経営し始めると、「道徳」とビジネスが出会うと、その微妙なバランスを維持するのがさらに難しくなります。
03
「安全」がメインラインになるときcompany
「安全性」は Anthropic のビジネスであり、その審査メカニズムでもあります。
Anthropic の特別な点は、最初から OpenAI を離れた人々のグループによって設立された新しい組織であることです。脱退の理由には、技術的な路線、セキュリティの概念、「AIの将来を誰が定義すべきか」についての意見の相違などが含まれていた。
つまり、文化はAnthropicにおいて特に重要であり、むしろオペレーティングシステムに似ています。

Amoudiは、研究者気質を持つ組織デザイナーです。彼はかつてインタビューで、自分の時間の約 3 分の 1、場合によっては 40% が、Anthropic の文化が良好であることを確認することに費やされていると語ったことがあります。
人類学は表面的には常に警戒、自制、境界線について語りますが、内面的には生ぬるい文化ではありません。それどころか、Anthropic には個人用の公開ノートに似た Slack チャネルがあり、従業員が自分のアイデアや仕事の進捗状況を書き、さらには Amoudi と直接議論することもあります。
Anthropic の参入閾値であれ、内部文化の継続的な形成と衝突であれ、才能に対するある種の選別メカニズムが形成されていると考えられます。
ここ 1 年、メタ社は AI チームを強化するために、どこでも小切手帳を振って人材を募集してきました。 AI 業界の人材の価格は誇張されたレベルに引き上げられており、トップの研究者やエンジニアは自由市場ではほとんどスーパースターになっています。この種の引き抜きに直面すると、一部の企業は本能的に「価格に従う」か、少なくとも従業員の給与を増やして人材を優先したいと明言します。

アモウディはこれをしませんでした。同氏は、外部企業が誰かに高額なオファーを出したからといって、アンスロピックが直ちに報酬原則を破るわけではないと公に説明している。同氏は、ザッカーバーグ氏がダーツのようにランダムに誰かの名前を当てたとしても、その人が隣にいる同じ才能のある同僚の10倍の報酬を得る必要があるという意味ではないと述べた。
さらに興味深いのは、アンスロピック社の一部の従業員は、メタ社の引き抜きに直面したとき、ザッカーバーグ氏と話すことさえ躊躇したとアモデイ氏が述べたことだ。確かにこの文章には誇示の要素があります。しかし、本当に伝えたいのは、Anthropic の従業員の間に「コンセンサス」が存在し、強いということです。
Amodei は、Anthropic が単に高速化したいだけの AI 企業ではないことを従業員に納得させなければなりません。同時に、彼はこの会社を本当に速く経営できるよう導かなければなりません。そうしないと、安全に関する説明がどれほど美しくても、それは試合の傍観者による単なる道徳的な解説になってしまいます。
「安全」はビジネスとして大きな成果をあげています。
Anthropic は、当然のことながら、当初から信頼性と制御性に対してより高い要求を持つ顧客を魅了してきました。 Claude が最初に発売されたとき、信頼性、予測可能性、起動可能性が強調されました。その初期のパートナーは、Notion、Quora、DuckDuckGo、Juni Learning などの知識生産、検索、教育、ワークフロー ツールでした。
Anthropic は「最安モデル」を販売していません。企業、政府、コード、金融、医療、教育、公共部門 – これらの顧客は、安定性、コンプライアンス、セキュリティ境界、長期責任をより重視しています。クロードが低価格路線ではないことは価格からもわかります。 Claude Opus 4.7 の価格は、入力トークン 100 万件あたり 5 米ドル、出力トークン 100 万件あたり 25 米ドルです。 Claude Sonnet 4.6 は、入力が 3 ドル、出力が 15 ドルです。比較すると、xAI の Grok 4.20 はインプットが 2 ドル、アウトプットが 6 ドルで、明らかにより過激です。 OpenAIのGPT-5.5はインプットが5ドル、アウトプットが30ドルで、Claude Opusと同じ高価格帯にある。

ロイターはまた、Anthropicには30万を超える商業および企業顧客がおり、収益の約80%を占めていると以前報じた。企業顧客は使用量に応じて料金を支払うため、より安定した維持とより大きな拡張の余地が得られます。コード、オフィス フロー、クラウド プラットフォーム、政府システムを入力すると、通常のサブスクリプション製品とは比較にならないほどの収入が得られます。
対照的に、OpenAI は ChatGPT によって C サイドで最も大きな話題を呼び、実際に前例のない規模で大衆ユーザーを教育しました。ただし、C サイド ユーザーが多いからといって、収益構造が最良であるとは限りません。
OpenAI の最新の声明では、企業収益が総収益の 40% を超えており、2026 年末までに消費者側に追いつきたいと考えています。つまり、OpenAI もエンタープライズ市場への参入に懸命に取り組んでいるということです。

Anthropic と米国陸軍省 DoW との協力はその典型的な例です。長い間、Anthropic は DoW が「機密分野」で協力した唯一の AI 企業でした。クロードは、諜報分析、モデリングとシミュレーション、戦闘計画、サイバー作戦などのタスクに使用されます。
この考え方に従って、Anthropic と DoW の間の熾烈な「闘争」を振り返ると、たとえ DoW との協力を失ったとしても、「大量監視」と「自律型兵器」という最終ラインを強調することによって、セキュリティをビジネスとして扱うアモデイの能力が示され、Anthropic の公共の知名度と「信頼性」は最高レベルに引き上げられました。より高いレベルに達し、資本市場で前例のない支持を得ています。
Anthropic の年間収益は、2025 年末の 90 億米ドルから 2026 年 4 月には 300 億米ドルに急増しました。今年2月に3,800億米ドルの評価額で300億米ドルの資金調達を完了し、その後Googleは最大400億米ドルを投資する予定だった。流通市場での評価額が1兆1000億米ドルに達したとの報告もある。
セキュリティというと制約のように聞こえますが、Anthropic では最終的にはより高度なビジネス言語になります。
しかし、この管理手法には確かに危険な側面があります。
企業が「安全」を組織の信念に変えると、自然に道徳的優越感を獲得し、競合他社を無責任な人々として描き、ビジネスの選択を価値の選択にパッケージ化することが容易になります。
これが、Anthropicが成功すればするほどAmoudiが不快になる理由です。
04
「安全」の二面TAGPH 10
アモウディを単に次のように考えるのは少し甘いだろう。理想も根性もあるが心の知能指数が低い「理工系人間」、そのため常に真実を語り他人を怒らせる。
ウォール・ストリート・ジャーナルにはかつてアモデイとウルトラマンの10年にわたる確執を振り返る記事が掲載されていた。
OpenAI での Amodei の話は、「セキュリティ概念の違い」では説明できません。

2018年、マスク氏が撤退した後、アモデイ氏はブロックマン(共同創設者の一人)とサツコウ氏が権力を掌握しないという条件で留任することに同意した - 彼は最初に技術的なことではなく、権力配分について話したルート。
その後、キーモデルプロジェクトでは、彼と妹のダニエラが協力して、参加を希望するブロックマンをブロックしました。理由の一つは、ある中核研究者が「一緒に仕事をしたくない」ということだった。研究者は後に自分自身を上級幹部らの「代理兵器」として利用されていると述べたが、これはアモデイが同盟を結ぶために人々を利用する方法を知っていることを示している。
GPT-2/3が普及するにつれて、彼はクレジットの帰属と暴露についてますます敏感になりました。彼はブロックマンがポッドキャストで「脚光を盗んだ」ことに不満を持ち、アルトマンとブロックマンが自分抜きでオバマと会う予定であることを知って腹を立てました。
翌年、彼は研究担当副社長への昇進を願い出た。アルトマン氏もこれに同意し、取締役会の電子メールに「アモディ氏は承認しないプロジェクトを軽視しないことを約束する」と停戦条項のような内容を盛り込んだ。
これらの詳細は、セキュリティがAmoudiの信条であり、鋭い組織の武器であることを示しています。彼は条件について話し、プロジェクトのために戦い、発言する権利のために戦い、誰が中核に留まることができるかを定義するために「リスク」という言葉を使用します。
ついにOpenAIを離れ、Anthropicを設立しました。それは理想的な出発というよりも、内部の権力闘争が失敗した後の戦場の移動だった。
彼がAnthropicの指揮を執ったとき、状況はさらに複雑になりました。 Anthropic はもはや研究室の理想的な実験場ではなく、急速に成長する商業戦艦です。現時点では、安全性は純粋な原則から、確実な製品のセールスポイントに変わりました。
Anthropic が AI のリスクを大々的に強調すればするほど、AI 自体の存在の必要性が強調されます。他社の業務が速すぎると非難すればするほど、企業、政府、規制当局にとって最も信頼できるパートナーとしての地位を固めることができるようになる。
その物語には当然道徳的な比較が含まれています。クロードを選択することは、単にモデルを選択するだけでなく、より責任があり、制御可能なルートを選択することも意味します。
競合他社にとって、これは非常に迷惑です。あなたはただ商品を売っているだけで、都合よく他人を無責任なギャンブラーのように見せかけています。セキュリティは差別化のための堀となり、マーケティング ツールとなっています。企業顧客は「安心」のためにはより多くのお金を払う傾向があり、政府部門は機密性の高いプロジェクトを「最も安全な」企業に引き渡す可能性が高くなります。
この過程では、安全保障も政治的な交渉材料となっている。
Axios は、2026 年の第 1 四半期に、Anthropic の連邦ロビー活動支出が 160 万米ドルに達し、OpenAI の 100 万米ドルを上回り、独自の記録を樹立したと報告しました。同社は以前、AIの透明性と安全ガードレールに焦点を当てた超党派の擁護団体に2,000万米ドルを投資すると発表しており、政策チームを拡大してワシントンに長期事務所を設立する計画だ。
率直に言って、アモデイはすでにAI時代のゲームのルールを争っています。
アモデイの複雑さは、これら 2 つのことが同時に真実である可能性があるという事実にあります。彼は AI セキュリティを信じており、実際に AI セキュリティを Anthropic の最も鋭利な商用兵器に変えました。安全保障は彼の宗教であり、権力の手段でもある。
理念と利益は単に対立するものではなく、お互いを養い、強め合うものです。この真実と虚偽の交錯こそが、彼を「証券王」として賞賛されると同時に、一部の人からは辣腕のトレーダーとみなされている理由でもある。
人間的 リスクをうまく説明できればできるほど、リスクを定義する機会が増えます。リスクを定義する機会が増えれば増えるほど、AI 時代のルールの中心に自分を置くことができます。
これはアモウディの「安全魔法」であり、「公共の敵」は魔法をプレイする際に必要な副作用です。
たぶん彼はそれを楽しんでいます。