ハオのガジェット工房

※当サイトでは一部アフィリエイト広告を利用しています。自作PC、スマホを中心とした最新情報をお届けします。

NVIDIAがHBM3Eメモリ搭載の次世代AI GPUを発売予定-帯域幅と消費電力の革新

NVIDIA は、2024 年第 2 四半期までに発売予定の次世代 AI GPU である Hopper H200 および Blackwell B100 に、HBM3E メモリを搭載する予定です。HBM3E は、従来の HBM3 メモリよりも多くの帯域幅と低い消費電力を提供する、最新のメモリ技術です。

 

NVIDIA は、これらの次世代 AI GPU の需要が急増すると予想しており、競合他社よりも先行して、十分な在庫を確保することが重要であると考えています。そのため、SK ハイニックスやマイクロンなどに HBM3E メモリの膨大な在庫を発注し、約 7 億 7,500 万米ドルから 10 億米ドルの前払いを行っています。

 

このアプローチにより、NVIDIA は次世代 AI GPU の需要を満たすことができるようになります。また、HBM 業界全体に大きな後押しを与え、生産能力の拡大を促進する可能性があります。

 

HBM3E は、AI および HPC 市場で重要な役割を果たすメモリ技術です。NVIDIA のこの投資は、AI および HPC 市場における NVIDIA のリーダーシップをさらに強化するものとなるでしょう。

 

具体的な影響

NVIDIA のこの投資は、次のような具体的な影響を与える可能性があります。

  • NVIDIA は、競合他社よりも先行して、次世代 AI GPU の需要を満たすことができるようになります。これにより、NVIDIA は AI および HPC 市場でさらなるシェアを獲得することができます。
  • HBM 業界全体に大きな後押しを与え、生産能力の拡大を促進する可能性があります。これにより、HBM の価格が下がり、利用しやすくなります。
  • NVIDIA は、HBM 業界におけるリーダーシップをさらに強化することができます。これにより、NVIDIA は HBM の価格や供給をコントロールしやすくなります。

 

今後の展望

NVIDIA は、AI および HPC 市場で圧倒的な地位を占めており、この投資により、その地位をさらに強化することになります。NVIDIA は、今後も AI および HPC 市場で革新を続けることが予想されます。

Sorce:

https://wccftech.com/nvidia-spends-big-hbm3e-memory-purchases-hopper-h200-blackwell-b100-ai-gpus/