スマホアプリでAIに話しかけ、瞬時に答えが返ってくる。検索を手伝い、文章をまとめ、次の行動まで提案してくれる。こうした「使われるAI」の時代に向けて、世界最大の半導体企業エヌビディアが動いた。
2026年3月16日、カリフォルニア州で開催した開発者向けイベントで、CEOのジェンスン・フアン氏は「AIの推論の転換点が到来した。AIは今や思考しなければならない」と宣言。推論の処理能力を高める新たな半導体システムを発表し、今年後半に出荷する見通しを示した。さらに、BlackwellとRubinを中心とするAIインフラの売上機会が2027年末までに少なくとも1兆ドル(約159兆円)に達するとの強気の予測も明らかにした。
この発表は、単なる「新製品のお披露目」ではない。AIが社会に実装されるにあたって、半導体業界の競争の軸が大きく動こうとしているサインだ。
「学習」と「推論」――AIを支える2つの計算
まず、今回の発表を理解するための基礎知識として、AIの計算には大きく2つの種類があることを押さえておきたい。
ひとつは学習だ。膨大なデータを使ってAIの能力を鍛える工程で、開発段階に行われる。GPT-4のような巨大モデルを生み出すには、データセンター規模のコンピュータで何か月もかけて学習させる必要がある。
もうひとつが推論だ。学習済みのAIが、実際にユーザーの質問に答えたり、文章を書いたり、タスクをこなしたりする工程を指す。ChatGPTを使うとき、私たちが直接触れているのはこの推論の側だ。
AIの黎明期は、まず「賢いモデルを作ること」が最優先だったため、学習向けの半導体が主役だった。エヌビディアはその市場で圧倒的なシェアを築いてきた。だが今、業界の重心が動き始めている。
なぜ今「推論」に注目が集まるのか
生成AIが急速に普及した結果、今や何億人もの人々が日常的にAIを使うようになった。需要が広がれば広がるほど、「速く・安く・安定して応答できる」能力が問われる。その舞台となるのが推論だ。
さらに近年、「AIエージェント」と呼ばれる新たな使い方が広がり始めている。AIエージェントとは、単に文章を返すだけでなく、目的に応じて複数の手順を自律的にこなすAIのことだ。たとえば、インターネットで情報を検索し、要点をまとめ、メールの下書きを作成し、社内データを参照して意思決定を支援する、といった一連の作業を自ら進める。
こうしたエージェント型のAIでは、「考える→調べる→また考える→実行する」というサイクルを何度も繰り返す。このとき、推論の速さや効率が使い勝手に直結する。遅ければ実用にならない。
フアンCEOが「AIはついに生産的な仕事ができるようになった」と述べた背景には、この転換点の認識がある。
エヌビディアの新戦略――「AI工場全体の設計者」へ
今回発表された新システムは、次世代基盤「Vera Rubin」と統合した推論強化の構成を持つ。高スループット(大量処理)が求められる前段の処理はRubin GPUが担い、低遅延(素早い応答)が求められる後段の処理は推論専用アクセラレータが担う、役割分担型の設計だ。単一の万能チップですべてをこなすのではなく、処理の性質に応じて最適な半導体を組み合わせる発想である。
エヌビディアが目指しているのは、GPUという部品を売る会社から、AI処理のためのシステム全体を設計・提供する会社へのシフトだと見られている。GPU、ネットワーク、推論専用アクセラレータ、そしてソフトウェアまでをひとまとめにして、企業がAIエージェントを動かすための「基盤一式」として売り込む。
この方向性は、投資家にも一定の安心感を与えたようだ。発表当日のエヌビディア株は終値で1.2%上昇した。
競争は激しくなる一方――グーグル、メタも独自チップを強化
ただし、エヌビディアにとって推論市場が安泰かといえば、そうとは言い切れない。
GoogleはAI処理向けの自社製プロセッサ(TPU)を継続的に強化しており、自社のAIサービスをエヌビディア依存から切り離す動きを進めている。Metaも推論向けの独自チップ「MTIA」を約6か月サイクルで改良しており、処理効率の向上を急いでいる。
大手テクノロジー企業が自社でチップを開発する動きが加速することで、「エヌビディアから買わなくても済む」選択肢が広がる。推論市場そのものは成長が見込まれるが、エヌビディアがその恩恵をどれだけ独占できるかは、競争次第の部分が大きい。
ロイターなど欧米メディアは、今回の発表を「推論シフトへの本格参戦」と評価しつつも、AIインフラへの巨額投資が本当に回収できるのかという投資家の懸念と、競合各社の独自チップ強化という現実も並べて伝えている。
「AI半導体バブル」か「産業の次の基盤」か
エヌビディアの1兆ドル規模の予測は強気に映るが、その前提には、企業がAIエージェントの導入を加速させるという見立てがある。実際、企業ソフトウェアのAI化は着々と進んでおり、それを支えるインフラ需要は当面続くとみられている。
一方で、学習フェーズへの巨額投資の成果がまだ十分に見えていない段階での「次の需要」への期待感が先走りしているという見方も根強い。
確かなのは、AI半導体の競争が「誰が一番賢いモデルを作れるか」から「誰が一番使いやすい・安い・速いAIを動かせるか」という局面へ移りつつあるということだ。今回の発表は、特定のAIアプリをめぐる競争というより、そうしたAIアプリすべてを支えるインフラ基盤の競争が本格化していることを示している。エヌビディアはその新しい主戦場で、先手を打とうとしている。
(本稿は各種公開情報をもとに作成しました。一部数値は記事掲載時点の情報です)

