NVIDIAとIntel、RTX GPUを統合したx86 SoCを共同開発へ

「NVIDIAとIntel、RTX GPUを統合したx86 SoCを共同開発へ」のアイキャッチ画像

検索

【PR】・生成AIを体系的に学べる!僕も学んだセミナーを紹介!

今だけ6000円以上お得!おススメフルトラはこちら 記事中にサイト運営維持のためのアフィリエイトリンクを含む場合があります。

フルトラ研究所フルトラ研究所
サイトの利用規約を必ずご確認ください。PC利用がお勧めです。

2025年9月18日、NVIDIAとIntelは戦略的協業を発表し、x86 CPUとNVIDIAのRTX GPUチップレットを統合したSoC(System-on-Chip)を共同で開発する計画を明らかにした。両社は今回の提携により、ゲーミングPCやクリエイティブ向けノートPCのみならず、データセンターやAI分野でも新たな製品展開を視野に入れている。

NVIDIAがIntel株に50億ドルを投資

発表によると、NVIDIAはIntelの普通株式に50億ドル(約7,500億円)を投資。1株あたり23.28ドルで取得する条件で、規制当局の承認などを経て正式に完了する予定だ。これにより、NVIDIAは単なる技術パートナーにとどまらず、Intelの主要株主の一角に加わることになる。

協業の柱 ― x86 RTX SoC

両社が特に注力するのが、Intel製のx86 CPUとNVIDIA RTX GPUチップレットを一体化したSoCだ。これにより、従来はCPUと独立していたGPUをより密接に統合し、帯域幅やレイテンシーの制約を大幅に軽減。ノートPCの省電力化や小型フォームファクターへの搭載が現実的になる。さらに、高帯域・低遅延のNVLink技術を組み合わせることで、従来のノートPC用ディスクリートGPUに比べて大幅な性能向上が期待される。

期待される効果と課題

業界関係者は、今回の協業によりいろいろな効果を期待している。まずは、性能と効率の向上が期待される。CPUとGPU間の転送効率が向上し、消費電力の削減にも寄与。OEMへのメリットも大きい。CPUとGPUを一体化した設計により、製品開発コストや設計難易度を抑制できる。そして、AMD対抗だ。既にAPU戦略を推進するAMDに対し、強力な対抗軸を築ける可能性がある。一方で、課題も残る。高度なパッケージング技術や歩留まり確保、価格競争力の維持、そしてソフトウェア最適化など、多方面で調整が必要だ。特にRTXのレイトレーシングやDLSSといった機能をSoC上で十分に活かせるかが注目点となる。

今回の協業は「複数世代にわたる製品開発」が前提とされており、最初の製品登場は早くても2026年以降になるとみられる。ターゲットはゲーミングノートやクリエイターPCだけでなく、AI推論・学習を担うデータセンター向けソリューションも含まれると報じられている。業界では、既にCPUとGPUを統合したAppleやAMDの動向に加え、今回のNVIDIAとIntelの提携が新たな競争軸となるのは間違いない。PC市場、そしてAIインフラ市場における勢力図が大きく変わる可能性がある。

ディスアグリゲーテッドコンピューティングの新時代へ

「x86 RTX SoC」は、従来のPCアーキテクチャを大きく変えるだけでなく、近年注目されるディスアグリゲーテッドコンピューティングの考え方とも深く関わっている。

ディスアグリゲーテッドコンピューティングとは

ディスアグリゲーテッドコンピューティングとは、CPU・GPU・メモリ・ストレージといったコンピューティングリソースを物理的に分離(Disaggregate)し、必要に応じてネットワーク経由で柔軟に組み合わせる設計思想を指す。従来の「1サーバー=固定リソース」から脱却し、GPUだけを増設、メモリだけを拡張といった運用を可能にする。データセンター規模では、ラック単位でCPU群・GPU群・メモリ群を分けて設計し、ソフトウェアでリソースを動的に割り当てることができる。この仕組みはクラウド事業者やAI研究機関において、投資効率の最大化運用コスト削減を実現するアプローチとして注目を集めている。

 

起源:2010年代前半、クラウド事業者の課題意識

従来のサーバーは、CPU・メモリ・ストレージを1台に統合した「モノリシック構造」だった。しかしクラウド事業者にとっては以下の問題が深刻化した。余剰リソースを他サーバーに融通できず利用効率が低い、CPU刷新の際にメモリやストレージまで入れ替える必要がある、電力効率が悪化し、データセンターのTCO(総所有コスト)が膨張といった問題だ。この状況に対応するため、Facebookは2013年に「Disaggregated Rack」を提唱。CPU、メモリ、ストレージをモジュール単位で分離し、ラック内で柔軟に構成するモデルを示した。これがディスアグリゲーテッドコンピューティングの直接的な起点となった。

NTTのIOWN構想:光ネットワークとの融合

2019年、NTTが提唱した「IOWN(Innovative Optical and Wireless Network)構想」は、ディスアグリゲーテッドの発想をさらに進化させるものだ。光通信(フォトニクス技術)をベースに、CPUやGPU、メモリを光インターコネクトで高速・低遅延に結んだ。電力効率は従来比100分の1、伝送容量は125倍、遅延は200分の1を目標とし、分離されたコンピューティングリソースを都市・国レベルで統合し、分散クラウドやAI社会基盤を支える。IOWNは、クラウドやデータセンター内にとどまらず、社会インフラ全体をディスアグリゲーテッドに設計する壮大な構想と言える。

ディスアグリゲーテッドコンピューティングは、Facebookが「ラック単位の分離」という概念を提示し、Intel IWONがインターコネクトの標準化を進め、NTT IOWNが光技術と社会インフラへの拡張を提唱したことで、段階的に発展してきた。いまやこの流れは、クラウド事業者やAI研究だけでなく、通信・社会基盤全体に広がりつつあり、将来的には「PCから都市レベルまで、すべての計算資源を柔軟に分離・結合できる」世界が見えてくる構想だ。年表で見る進化の流れは以下のようである

2013年:Facebook、OCPで「Disaggregated Rack」を提唱
2015年頃:Intel、「IWON」構想を発表。リソース結合の標準化に取り組む
2018年以降:CXL、NVLinkが実用化し、商用データセンターでの導入が進展
2019年:NTT、「IOWN構想」を発表。光技術を取り入れた社会的ディスアグリゲーションを提唱
2020年代:ハイパースケーラーがGPUプールやメモリプールを本格導入、AI需要で加速

光電融合は既に実現している

 上記を見ると、光による通信や電気回路への参入はまだまだ「夢物語」のように思える。しかし、Nvidiaは既に光技術をベースとしたディスアグリゲーテッドコンピューティングを着実に進めており、しかも、大規模な電子回路と光通信の融合をすでに実現している。(https://ascii.jp/elem/000/004/258/4258195/) また、既存のNVLinkによる従来レベルのGPU間通信は既に130TB/sを達成しており、IOWNで大阪万博で稼働している光スイッチの速度が約51Tbpsとなっており、2026年には100Tbps超え(https://japan.cnet.com/article/35236414/)を目指している状態だ。つまり、この数年の間で、CPU,GPUから同じ速度でダイレクトにつながる時代がすぐやってくるのだ。

x86 RTX SoCでPCアーキテクチャを刷新

 そんな中、PCレベルの進展は何もないかに思われた。しかし、2025年9月、x86 RTX SoCでは、従来のPC構造を根底から変え、Armベースではない従来のPCすべてに影響を与えることになる。これまで分離していたCPUとGPUを同一パッケージに統合することで、通信帯域、メモリ効率、消費電力、AI性能のあらゆる面で改善が見込まれている。

 一見、AMDやAppleが行っていることに追いついたという風に思われるかもしれないが、ここで注目してほしいのは、NvidiaはDDR7レベルのメモリと新型GPU、分散推論により、推論コストを大幅に下げることに成功していることである。

NVIDIA、新GPU「Rubin CPX」で分散推論とメモリ低価格化により推論コストを大幅削減へ

メモリもサーバーレベルから、一気にDDR7レベルでの大幅性能向上に成功してしまった。つまり、今回のアーキテクチャで最も脅威なのは、Nvidia専用GPUが複数搭載されることで、本来次世代のArmベースでRAMを確保していたApple等をコスト面でも性能面でも完全に突き放してしまう可能性が高くなってきたのだ。GPUに弱みを持っているAppleにとっては、かなり痛いライバルということになる

従来のPCはどんな構造だったのか?:CPUとGPUの分離構造

 これまでのゲーミングPCやクリエイターPCは、CPUとディスクリートGPU(dGPU)をPCIeスロットで接続するのが一般的だった。通信帯域では、PCIe 5.0で最大128GB/s程度、メモリ構造では、CPU用DDR5とGPU用GDDR6や7が分離され、消費電力はCPU+GPUで合計350〜400W級だった。しかし、電力は性能向上で上がる一方だ。直近では5090クラスで1200Wクラスが必要となっている。この構造は汎用性が高い一方、CPUとGPU間のデータ転送がボトルネックとなり、AI推論やレイトレーシングといった高帯域処理で効率が低下していた。

x86 RTX SoCによりメモリの容量増につながる

 新たに開発されるx86 RTX SoCは、CPUとRTX GPUをパッケージ内で直結。SoC内部の専用インターコネクト(NVLinkなど)によって、従来比で桁違いの帯域と効率を実現する。CPU-GPU帯域では、128GB/s → 1〜2TB/s級となり、メモリ構造はDDRとGPUメモリを統合、コピー不要で効率化、消費電力:375W級 → 250〜280W級で同等以上の性能となり、AI推論性能は、従来比2〜3倍の高速化、ゲーミング性能は、レイトレーシング効率改善により10〜20%向上、ハイエンドGPU相当の性能を、より小型・省電力のフォームファクターで実現できる見込みだ。

x86 RTX SoC&分散推論技術によるコスト低でより動画生成AIが身近に

AppleのM1などでも見られたように、今回の発表で、今後、ゲーミングノートPCの性能向上、小型化が期待される。また、GPUとCPUの統合だけでなく、VRAMとメモリの境界線もやがてなくなってくることが想定される。薄型ノートでもRTX級の性能を搭載可能になり、DLSSやレイトレーシングが普及価格帯に浸透していくだろう。また、CPUとGPUで統合メモリを扱えるため、動画編集や3Dレンダリングで大幅な効率向上。TensorコアをCPU直結で利用可能になり、大規模言語モデル推論や生成AI処理が加速していくだろう。

こちらに関しては、AIサーバーレベルとなると技術的にはすでに実現していた。しかも、今回の発表で、一般のPCレベルでもAI処理の恩恵を受けれるようになることが予測されるのだ。特にHBMシリーズよりもはるかに安価なグラボ用のGDDR7レベルでも従来より7.5倍の脅威の性能を実現している。簡単に言ってしまうと、GDDR7で共通化できてしまった。

NVIDIA、新GPU「Rubin CPX」で分散推論とメモリ低価格化により推論コストを大幅削減へ

この分散推論による低コスト&高パフォーマンスが、DDR7を採用している一般ユーザー向けにもより波及していくだろう。統合型のx86 RTX SoCは、OEMメーカーにとって設計簡素化とコスト削減をもたらすだけでなく、ユーザーにとっても「小型・低消費電力で高性能」という新しいPC体験を提供するとのこと。これは、AMDのAPU戦略に対抗する強力な選択肢となり、今後数年でPC市場の標準構造を塗り替える可能性がある。現状の「CPUとGPUを分離してPCIeで接続する構造」から、x86 RTX SoCによる「統合アーキテクチャ」へ。通信帯域の飛躍的な増加、消費電力の削減、AI性能の向上により、PCは次の進化のステージに入ろうとしている。IntelとNVIDIAの提携によって実現するこの変革は、ゲーミングからAIまで、PCのあり方を根本から変える起点となるだろう。

 一見すると「CPUとGPUを統合」するx86 RTX SoCは、ディスアグリゲーションとは逆行するように思える。しかし、両者は補完関係にある。そもそも、X86のメリットをSocにすることで、既存のインフラ設備を大きな変更を加えずに生かすことができるようになるのだ。完全なディスアグリゲーションをすぐに要求しているのではなく、直近での対応を想定しているのだ。

 SoC側の強みは、小型PCやノートPCにおいて、CPUとGPUの通信ボトルネックを排除し、省電力で高性能を実現。ディスアグリゲーテッド側の強みは、データセンターにおいて、SoCやGPU群をネットワークで束ね、柔軟にスケール。だ。「端末ではSoCで統合」「クラウドでは分離して柔軟化」という二層構造が今後のスタンダードになる可能性が高い。

 また、x86 RTX SoCとディスアグリゲーテッドコンピューティングの組み合わせは、経済的にも大きな意味を持つ。端末側(SoC)では、CPU+GPU一体化により基板設計コストを削減、ノートPCでの冷却・バッテリー制約を克服、OEMメーカーは部品点数を減らし、生産効率を向上する。クラウド側(Disaggregate)では、GPUリソースをプール化して需要に応じて割り当て → 利用効率向上、大規模AI推論でのコスト削減、長期的にはTCO(総所有コスト)の圧縮につながる。両者の技術は「端末の統合」と「クラウドの分離」という形で共存し、PCからデータセンターまで、幅広い領域で経済性を改善することになる。

今後の展望

 そんなx86 RTX SoCは2026年以降の登場が予想され、モバイルPC市場での普及が見込まれる。ディスアグリゲーテッドコンピューティングは、すでにクラウドやAIスーパーコンピュータ領域で導入が進みつつあり、NVIDIAのNVLinkやCXLといった高速接続技術が支えていた、しかし、NVlink不要で安価なCPXの登場で劇的な変化が起こるだろう、

 両者が進展すれば、エンドユーザーからクラウドまでがX86かArmかを問わずシームレスに繋がり、PCとデータセンターの境界はますます曖昧になっていく。x86 RTX SoCは、「CPUとGPUを一体化」することで端末側の性能・効率を飛躍的に高める一方、ディスアグリゲーテッドコンピューティングは、データセンターでリソースを分離し柔軟に利用することで、投資効率を最大化する。そして、最後は、分散推論により、端末からクラウドまで一貫した計算資源の最適化を実現する次世代コンピューティングモデルを形作ろうとしている。