生成AI開発をリードするオープンAIは、アルファベット(GOOGL)のAIチップ「TPU(テンソル・プロセッシング・ユニット)」のレンタルを最近開始したことが報じられています。これは、同社が主に使用してきたエヌビディア(NVDA)製GPU以外のチップを本格的に活用する初めての取り組みとされています。
コスト削減と依存からの脱却を図る
オープンAIは、これまでマイクロソフト(MSFT)やオラクル(ORCL)を通じてエヌビディア製のサーバーチップを借り、AIモデルの学習とChatGPTの推論処理に活用してきました。2024年のサーバー利用費は約40億ドルにのぼり、その半分が推論用です。2025年には、総額140億ドル近くを投じると見込まれています。
アルファベットのTPUを導入することで、特にコストがかさむ推論処理の効率化を目指しています。ChatGPTは利用者が急増しており、有料ユーザー数は年初の1,500万人から2,500万人を超えたともいわれています。
グーグルクラウドへの移行が引き起こす変化
オープンAIは、ChatGPTの画像生成機能が急拡大した2025年初頭に、マイクロソフトからグーグルクラウドへの一部移行を進めました。しかしこの動きは、グーグル側のサーバーにも大きな負荷をもたらしています。
その結果、アルファベットは他のクラウドプロバイダーに対し、TPU設置の協力を打診。たとえば、AI向けクラウド基盤を提供するコアウィーブ(CRWV)と協議を行ったと報じられています。これまでTPUはアルファベットの自社施設でのみ提供されており、今回の動きは新たな展開といえます。
AIインフラ競争の最前線で進む分断
アルファベットは、自社のGeminiモデル開発チーム向けに最も高性能なTPUを確保しており、オープンAIにはそれらの提供を行っていないとされています。また、TPUがAIモデルの学習に使われる予定があるかどうかは明らかになっていません。
他社では、アップル(AAPL)やセーフ・スーパーインテリジェンス、コヒアなどがTPUを活用しており、いずれも元アルファベットの社員が在籍するなど、技術的な親和性が背景にあります。
エヌビディア一強時代への挑戦
AIモデルの学習においては、現在もエヌビディアのGPUが圧倒的な性能を誇っていますが、推論用チップの開発は多くの企業が進めています。アマゾン(AMZN)、マイクロソフト、メタ・プラットフォームズ(META)なども独自チップの開発に注力していますが、大口顧客の獲得には苦戦しています。
たとえば、アンソロピックはアルファベットとアマゾンのAIチップを採用していますが、両社から数十億ドルの出資も受けており、単なる技術力だけでの競争ではないことがうかがえます。なお、アルファベットがオープンAIに対して割引や利用クレジットを提供しているかは不明です。
マイクロソフトにとっての打撃
オープンAIは、マイクロソフトの戦略的パートナーとして多額の投資を受けてきました。マイクロソフトも独自のAIチップ開発を進めていますが、次世代版のリリースが遅れており、当面はエヌビディアとの競争力に欠けるとみられています。
そのため、オープンAIによるアルファベットTPUの採用は、マイクロソフトのクラウド戦略にとって大きな痛手となる可能性があります。
AIクラウド戦争の新たな局面へ
今回の動きは、AI時代におけるクラウドインフラの主導権争いが新たな段階に入ったことを示しています。オープンAIのような巨大AI企業が、特定のクラウドパートナーに依存せず複数の選択肢を模索する動きは、業界全体の再編につながる可能性があります。
今後、エヌビディアの優位が続くのか、アルファベットやその他の企業が推論領域でシェアを伸ばすのか、注目が集まります。