「AIが賢くなれば、自動的にAIサービスも良くなる」と思っていたとしたら、それは半分しか正しくない。どれだけ優秀なモデルを作っても、それを動かすコンピュータのパワーが足りなければ、ユーザーの手元には届かない。
2026年4月6日、Anthropicは衝撃的な発表をした。Google と Broadcom の3社で、次世代AIチップ「TPU」を複数ギガワット規模で確保するという超大型契約だ。2027年以降に順次稼働予定のこのインフラは、Claude の能力をさらに引き上げるためだけでなく、Anthropicが急拡大する顧客需要に応えるためでもある。
エンジニアとして、あるいはビジネスパーソンとして「これが自分たちの仕事にどう影響するのか」を知りたい人のために、この契約の背景から業界への影響まで、できるだけ平易に整理してみた。
- そもそも「コンピュート」ってなぜそんなに大事なのか
- 今回の契約、具体的に何が決まったのか
- Anthropicの現在地:数字で見える急成長
- Anthropicのコンピュート戦略:マルチクラウドの賢さ
- 競合比較:各AIラボのインフラ戦略
- エンジニアとビジネスパーソンが受け取るべきメッセージ
- 注意点と課題:バラ色だけではない現実
- まとめ:AIインフラ争いは「誰がより賢くコンピュートを使うか」の戦い
そもそも「コンピュート」ってなぜそんなに大事なのか
AIモデルは「電気を食う計算機」の塊
ChatGPTやClaudeに質問を投げると、瞬時に回答が返ってくる。あれは、巨大なデータセンターの中で何万枚ものチップが猛烈に計算を走らせた結果だ。単純に言うと、AIが賢くなればなるほど、より多くの計算が必要になる。
その計算を担う主役がAI専用チップ(アクセラレータ)と呼ばれるもので、現在は主に3種類ある。
- NVIDIA GPU:汎用性が高く、AIの世界では事実上の標準チップ
- Google TPU(Tensor Processing Unit):Google が10年かけて開発したAI専用チップ。推論(モデルを動かして答えを出す処理)の効率が高い
- AWS Trainium:Amazon が開発したAI訓練向けの自社チップ
2026年の段階では、推論処理(ユーザーからのリクエストに答えるフェーズ)が全コンピュートコストの約3分の2を占めるようになると予測されており、「安く、速く、大量に推論できるか」がAI企業の競争力を左右するようになってきた。
ギガワットという単位が意味すること
発表に「複数ギガワット(multiple gigawatts)」という表現が登場する。ピンとこないかもしれないが、1ギガワット=75万戸分の家庭電力に相当する。それを「複数」確保するというのだから、ちょっとした市の消費電力を丸ごとAIのために使うイメージだ。
今回の契約ではAnthropicが2027年から、Broadcom経由でおよそ3.5ギガワット分の次世代TPUベースのコンピュート容量にアクセスできるようになる見込みで、これはAnthropicが約束した複数ギガワット規模のコミットメントの一部だ。
今回の契約、具体的に何が決まったのか
3社それぞれの役割
今回の発表を読み解くには、3社の関係性を理解する必要がある。
BroadcomはGoogleのTPUチップを設計・製造するパートナーであり、今回の契約ではBroadcomがAnthropicに対して最新のTPU Ironwoodラックを供給する形になっている。Broadcom CEOのHock Tanはすでに2025年末の決算発表で、Anthropicから100億ドルの注文を受け、さらにその後の四半期で110億ドルの追加注文があったことを明らかにしていた。
役割をまとめると:
| 企業 | 役割 |
|---|---|
| TPUチップの設計元・クラウドサービス提供 | |
| Broadcom | TPUチップの製造・Anthropicへのラック供給 |
| Anthropic | コンピュートの買い手・Claudeの開発・運用 |
今回の契約で確保されるコンピュートは主に米国内に設置される予定で、2025年11月にAnthropicが発表した500億ドルの米国インフラ投資へのコミットメントを大幅に拡大する内容になっている。
Ironwood(第7世代TPU)とは何者か
今回のキーワードに「Ironwood」が登場する。これはGoogleが開発したTPUの第7世代にあたる最新チップだ。
TPU v7(Ironwood)は従来世代比でおよそ20〜30%のパフォーマンス向上を実現し、GPU比較でシステムレベルのトークンあたりコストを約50%改善している。Googleはまた、同等のFP8スループットをGPUと比較して60〜65%の電力削減で実現できると主張している。
Anthropicの現在地:数字で見える急成長
売上が1年で30倍になった会社
今回の発表文には、Anthropicの業績に関する驚くべき数字が記されていた。2026年の時点でAnthropicの年率換算売上(ラン・レート)は300億ドルを超えており、2025年末の約90億ドルから急拡大している。2月のシリーズG資金調達発表時点では年間100万ドル以上を支出する法人顧客が500社を超えていたが、今や1,000社以上に倍増し、わずか2ヶ月で倍になった計算だ。
Anthropicは創業以来3年連続で年率10倍成長を達成しており、このペースでのスケールはエンタープライズソフトウェア史上前例がないとされている。
なぜこんなに急拡大できたのか
成長の背景にはいくつかのトレンドがある。
まず、企業によるAI活用が「実験フェーズ」から「本番稼働フェーズ」に移行した。Fortune Top 10企業の8社がすでにClaudeを利用しており、年間10万ドル以上を支出する大口顧客数は過去1年で7倍に増加している。
次に、Claude Codeというコーディングエージェントの爆発的な成長がある。Claude Codeは2025年5月に公開リリースされたばかりで、2026年2月時点の年率換算売上はすでに25億ドルを超え、2026年に入ってからだけで倍増している。
Anthropicのコンピュート戦略:マルチクラウドの賢さ
「一社依存しない」という経営判断
多くのIT企業が一社のクラウドに依存するのに対し、Anthropicは意図的に複数のチップ・クラウドを使い分ける戦略を取っている。
AnthropicはAWS Trainium、Google TPU、NVIDIA GPUという3つのプラットフォームでClaudeを訓練・運用しており、ワークロードに最適なチップを選べる体制を整えている。この多様性がパフォーマンスの向上と、重要な業務をClaudeに依存する顧客への安定供給につながっている。
Project Rainierとの関係は?
「AmazonがAnthropicのメインパートナーなのに、なぜGoogleとこんな大きな契約を?」と疑問に思う人もいるだろう。実際、Amazonは引き続きAnthropicの主要クラウドプロバイダー兼トレーニングパートナーであり、Trainium 2チップを使った超大型コンピュートクラスター「Project Rainier」も継続している。
つまり「AWSをやめてGoogleに乗り換える」のではなく、「AWSの上にGoogleとBroadcomとのインフラを追加して規模を拡大する」という構図だ。Claudeは現在、AWS Bedrock、Google Cloud Vertex AI、Microsoft Azureという世界3大クラウド全てで利用できる唯一のフロンティアAIモデルという立ち位置でもある。
競合比較:各AIラボのインフラ戦略
規模感を比べてみる
各社のコンピュート戦略を比べると、それぞれのアプローチの違いが見えてくる。
| 企業 | 主な戦略 | 規模感 | チップの多様性 |
|---|---|---|---|
| Anthropic | マルチチップ・マルチクラウド | 複数GW(2027年〜) | TPU・Trainium・GPU |
| OpenAI | Stargate(SoftBank/Oracle主導) | 最大10GW計画 | 主にNVIDIA GPU |
| Google DeepMind | 自社TPUを優先活用 | 自社インフラ | TPU主体 |
| Meta | 自社GPUクラスター | 大規模GPU投資 | NVIDIA GPUを中心に検討中 |
OpenAIが推進する「Stargate」プロジェクトはSoftBank、Oracle、Microsoftが参加し、500億ドルを費やして米国内にAIインフラを建設する計画で、最終的に33ギガワット相当の能力を目指している。数字だけ見るとOpenAIの方が大規模に見えるが、Anthropicはコスト効率で優位性を主張している。
Anthropicのアーキテクチャは、全てNVIDIA H100で同等のインフラを構築した場合と比べ、月間で10〜20億ドル規模のコスト優位性があるという試算もある(ただしこれは高稼働率と最適なワークロード配分を前提とする)。
TPUとGPU、エンジニアが知っておくべき違い
技術を選ぶ立場のエンジニアとしては、TPUとGPUの特性差も押さえておきたい。
| 観点 | NVIDIA GPU | Google TPU |
|---|---|---|
| 汎用性 | 高い(幅広いフレームワーク対応) | 低い(TensorFlow/JAX/XLA中心) |
| 推論効率 | 標準的 | AI特化で高効率 |
| 電力消費 | 相対的に高め | 低め(垂直電力供給方式) |
| 入手方法 | クラウド・オンプレミス両方可 | Google Cloud経由のみ |
| エコシステム | 成熟・広大 | 成長中・Google依存 |
GPUは汎用のスイスアーミーナイフで、あらゆるフレームワークを扱える一方、TPUはAIワークロード専用のメスのように設計されており、深さと最適化でその幅の広さとトレードオフしている。
自社でAIシステムを構築するエンジニアにとっては、「何を作るか」でどちらが有利かが大きく変わる。推論コストを大量にかける本番AIシステムならTPUやTrainiumが有利で、探索的なR&DならGPUのエコシステムの広さが生きる、という判断軸が現実的だ。
エンジニアとビジネスパーソンが受け取るべきメッセージ
エンジニア視点:AIインフラの民主化は続く
個人や中小企業がAnthropicのような超大型インフラを持つ必要はないが、今回の発表は間接的に開発現場にも影響する。
AnthropicがGoogleのTPUを大規模に使うことで、Claude APIの応答速度の安定化とコスト低下が期待される。実際に業務でClaude APIを使っているチームにとっては、同じ料金でより多くのリクエストをより速く処理できるようになるかもしれない。
また、クラウド選定に関わるエンジニアにとっては、「TPU対GPU」という議論が今後より現実味を帯びてくる。推論需要はトレーニングの118倍のペースで増加すると予測されており、TPUへの移行コストが月間5万ドルを超えるAI推論ワークロードを抱えているなら、選択肢として真剣に評価すべき段階に来ている。
ビジネスパーソン視点:Claudeを使うことの意味が変わる
「月額数十万円をAIに払っていいのか」という判断をしている企業にとって、今回の発表は背中を押す材料になるかもしれない。Anthropicが3.5ギガワット規模のインフラを確保したということは、数年単位で安定してサービスを提供できる体制を整えているということだからだ。
一方で、Anthropicによるこの大規模なコンピュートキャパシティの利用はAnthropicの商業的な成功が続くことを前提としており、条件次第で規模が変わる可能性も残っている点は正直に書いておく。
注意点と課題:バラ色だけではない現実
コストとキャッシュバーンの問題
Anthropicの成長は本物だが、まだ黒字ではない。2026年だけでモデル訓練に120億ドル、推論インフラに70億ドルを投じる計画で、粗利益率は約40%と推定されている。急成長しながらも大量の現金を燃やし続けている状況で、今回の超大型コンピュート契約はさらなる投資を意味する。
これは Anthropicのサービスを使う側にとって何を意味するか。収益化が遅れたり資金調達に失敗したりすれば、サービス品質の低下や料金改定のリスクがゼロではない。「Claudeを業務の基幹に組み込む」判断をするなら、ベンダーリスクも頭に入れておく必要がある。
GPUエコシステムへの依存からの移行コスト
企業や開発者がTPUを活用しようとする場合、既存のNVIDIA GPU向けに最適化されたコードやワークフローを書き直す必要がある。TPUはGoogleクラウド経由でしかアクセスできず、オンプレミス環境への導入ができないため、インフラの制御度が下がる点も見落とせない。「クラウドに閉じ込められるのは困る」という組織にとっては、TPU中心の設計は選びにくい。
電力・環境問題という現実
AIインフラへの超大型投資は電力網に甚大な負荷をかけており、elon Muskが建設したxAIのデータセンターが近隣地域の主要な大気汚染源になるなど、環境コストが現実問題として浮上している。Anthropicはより電力効率の高いTPUを選ぶことで、部分的にはこの問題に対処しているが、消費電力の絶対量が急増することは変わらない。
まとめ:AIインフラ争いは「誰がより賢くコンピュートを使うか」の戦い
今回の発表を一言でまとめると、「Anthropicは量を確保しながら、コスト効率でも戦う」という宣言だ。
OpenAIのStargateが「とにかくデカく」という戦略なら、AnthropicはTPUやTrainiumを組み合わせて「同じ予算でより多くの計算を」という方向性を打ち出している。
個人的には、この戦いの行方が最終的にAPIの価格と性能に直結すると見ている。エンジニアが毎日触るClaude APIの裏側では、今も世界最大規模のインフラ投資が動き続けているわけだ。
規模感に圧倒されつつも、自分たちの業務でAIをどう使うか考えるときに「このインフラがあるから、Claude APIはこう使えるはず」という視点を持てると、ツール選定の精度が上がると思う。数字が大きくなりすぎて現実感が薄れてくる話だが、その先にあるのは結局、日々の仕事を変えるAPIの料金と速度だ。