AIサーバー/データセンタの最新冷却技術
~高発熱化が進むGPUの効率的冷却とPUEの削減~
概要
ライブ配信/アーカイブ配信(2週間、何度でもご視聴可)
【講師】
サーマルデザインラボ 代表取締役
国峯 尚樹(くにみね なおき) 氏
【重点講義内容】
ChatGPTに端を発し、AIの利用が急速に拡大しました。AI処理は検索処理の十数倍の電力を消費し、ディープラーニングには大容量・高速処理が必要なため、NVIDIAのGPUの発熱量は1kWを超えています。
これらを集約したデータセンタの構築においてはICT機器だけでなく空調などの冷却器にも多くの電力を消費し、PUE(Power Usage Effectiveness:=データセンタ全体の消費電力÷IT機器の消費電力)の低減が課題となっています。AIサーバーはラック当たりの消費電力が、空冷限界といわれる45kW/Rackを超え、間接/直接液冷、液浸冷却も採用され始めています。データセンタはアイルコンティンメントや効率的な空調システムの採用により、電力削減が進んでいます。
本講ではこれら冷却技術の最新動向について、幅広く解説します。
1.AIの普及によるデータ処理量の増加と冷却技術課題
2.AIチップと高性能サーバーの冷却
3.放熱機構を支える高度冷却デバイス
4.高熱伝導放熱材料(TIM)とその使用方法
5.データセンタの省電力化への取り組み
6.今後の新技術と熱問題
7.質疑応答
エリア
オンライン
主催者
新社会システム総合研究所
種別
有料セミナー
ジャンル
IT戦略