NVIDIA は、2024 年第 2 四半期までに発売予定の次世代 AI GPU である Hopper H200 および Blackwell B100 に、HBM3E メモリを搭載する予定です。HBM3E は、従来の HBM3 メモリよりも多くの帯域幅と低い消費電力を提供する、最新のメモリ技術です。
NVIDIA は、これらの次世代 AI GPU の需要が急増すると予想しており、競合他社よりも先行して、十分な在庫を確保することが重要であると考えています。そのため、SK ハイニックスやマイクロンなどに HBM3E メモリの膨大な在庫を発注し、約 7 億 7,500 万米ドルから 10 億米ドルの前払いを行っています。
このアプローチにより、NVIDIA は次世代 AI GPU の需要を満たすことができるようになります。また、HBM 業界全体に大きな後押しを与え、生産能力の拡大を促進する可能性があります。
HBM3E は、AI および HPC 市場で重要な役割を果たすメモリ技術です。NVIDIA のこの投資は、AI および HPC 市場における NVIDIA のリーダーシップをさらに強化するものとなるでしょう。
具体的な影響
NVIDIA のこの投資は、次のような具体的な影響を与える可能性があります。
- NVIDIA は、競合他社よりも先行して、次世代 AI GPU の需要を満たすことができるようになります。これにより、NVIDIA は AI および HPC 市場でさらなるシェアを獲得することができます。
- HBM 業界全体に大きな後押しを与え、生産能力の拡大を促進する可能性があります。これにより、HBM の価格が下がり、利用しやすくなります。
- NVIDIA は、HBM 業界におけるリーダーシップをさらに強化することができます。これにより、NVIDIA は HBM の価格や供給をコントロールしやすくなります。
今後の展望
NVIDIA は、AI および HPC 市場で圧倒的な地位を占めており、この投資により、その地位をさらに強化することになります。NVIDIA は、今後も AI および HPC 市場で革新を続けることが予想されます。
Sorce:
https://wccftech.com/nvidia-spends-big-hbm3e-memory-purchases-hopper-h200-blackwell-b100-ai-gpus/