AMDは、本日2024年7月24日、AIモデル「Llama 3.1」の完全サポートを発表しました。これにより、EPYC CPU、Instinctアクセラレータ、Ryzen AI NPU、Radeon GPUを含むAMDの幅広いハードウェアでLlama 3.1を利用することが可能になります。この発表は、AIアクセシビリティとパフォーマンスの向上を目指すAMDの取り組みにおける重要な一歩です。
Llama 3.1とは?
Llama 3.1は、Meta AIが開発した大規模言語モデル(LLM)です。前モデルよりもコンテキスト理解、推論、テキスト生成能力が向上しており、様々なタスクに活用することができます。
AMDハードウェアでのLlama 3.1サポート
- AMD Instinct MI300Xアクセラレータ: Llama 3.1 405Bパラメータモデルを単一のMI300Xで実行可能、8つのMI300Xアクセラレータ搭載サーバーで全体モデルを収容
- AMD EPYC CPU: データセンターワークロード向けにAIとLLMを実行可能、小規模モデルの開発・テスト・バッチトレーニングにも最適
- AMD Ryzen AI: 開発者にコードブロックとリポジトリによるLlama 3.1利用を提供
- AMD Radeon GPU: ローカルでのAI処理を可能にし、パーソナライズされたリアルタイムAIパフォーマンスを実現
AMDとMetaのコラボレーション
AMDとMetaは、Llama 3.1の開発において緊密に連携してきました。このコラボレーションにより、Llama 3.1はAMDハードウェア上で最大限のパフォーマンスを発揮することができます。
AMDのAI戦略
今回の発表は、AMDのAI戦略における重要な節目です。AMDは、AIアクセシビリティとパフォーマンスの向上に注力しており、あらゆる分野での革新と成長を促進することを目指しています。
詳細情報
リンク