- 2025/12/25 掲載
ソフトバンク「NVIDIA GB200 NVL72」搭載の大規模AIインフラの新基盤を稼働、国産AIモデル開発を加速
1,224基のNVIDIA Blackwell GPUで構成、液冷構造により高性能・高効率なAI処理を実現
同基盤の稼働開始は、ソフトバンクが推進するAI計算リソース提供事業や国産AIモデル開発の戦略と連動している。ソフトバンクはこのGPUリソースを利用したアクセラレーテッドコンピューティングサービスを提供するとともに、グループ子会社のSB Intuitionsを中心に、国産LLM「Sarashina」シリーズの開発・商用化に活用する。特に日本語特化の大規模モデルを対象としており、これまで同社が構築してきたAIインフラとの組み合わせでモデル開発の加速を図る方向性が示されている。
ソフトバンクはこれまでにもAI計算基盤の拡張を進めてきた。2025年7月には4,000基超の「NVIDIA Blackwell GPU」を搭載した「NVIDIA DGX SuperPOD」を構築し、全社のAI計算資源は1万基超、総計算能力は約13.7 EFLOPSに達していると発表していた。この基盤は高速ネットワーク技術「Quantum-2 InfiniBand」や「NVIDIA AI Enterprise」などを採用し、高速・安定したAI処理環境を実現している。SB Intuitionsはこの環境を活用し、2025年度中に700億パラメーター級の「Sarashina mini」の商用提供を目指している。
新たに稼働した「GB200 NVL72」基盤は、既存のSuperPOD基盤と合わせて、国産AIモデルの研究開発や商用AIサービス向けインフラ基盤としての役割を強化するものと位置付けられている。稼働にあたっては、液冷設計による消費電力や発熱管理の最適化により、高密度GPU環境での安定稼働と運用コストの低減を目指す構造が採用された。これは、世界的に進展するAIインフラ構築競争において、効率的なGPU集約型基盤の実装例として注目されている。
ソフトバンクはまた、このAI計算基盤を自社グループでの活用に留めず、日本国内の企業や研究機関に対してサービスとして提供する計画を明らかにしている。これにより、日本国内でのAI技術研究やLLM開発の基盤整備を促進し、国内AIエコシステムの強化につなげる狙いを示している。
今回の発表は、AIインフラの構築が生成AIの発展や社会実装における重要な要素となる中で、先進的なGPU基盤の実用化が進んでいることを示している。ソフトバンクの取り組みは、日本国内のAI競争力の強化と国産LLMの開発支援を目指す一連の動きとして位置付けられる
AI・生成AIのおすすめコンテンツ
AI・生成AIの関連コンテンツ
PR
PR
PR