開閉ボタン
ユーザーメニュー
ユーザーメニューコンテンツ
ログイン

株式会社IDCフロンティア提供コンテンツ

  • スペシャル
  • 会員限定
  • 2022/03/08

「サーバの消費電力」がAI・機械学習の足を引っ張る? 高性能ならではの苦しみとは

いま多くの企業でAIや機械学習の活用が急速に拡大している。そしてAIや機械学習に欠かせないのがGPUを搭載した高性能サーバである。しかしこれらは従来のサーバよりもはるかに大きな電力を必要とするため、通常であれば数十台を収容できるラックであっても1台しかサーバを収容できないなど、スペースに無駄が生じてしまう。現在、AI・機械学習推進の妨げの1つとなっているこの「高性能サーバの消費電力問題」について、その背景と具体的な解決策について考えてみたい。

photo
AI・機械学習の利用拡大で直面する「サーバの電力問題」
(Photo/Getty Images)

広がるAI・機械学習活用で生じる高性能サーバの“消費電力問題”

 少し前までは一部の用途で使われていたAI・機械学習といった最新テクノロジーは、いまや多くの企業のさまざまな領域で活用されるようになった。そのニーズは拡大する一方にあり、今後はさらに活用領域が拡大していくのは間違いないだろう。

 しかし一方、企業におけるAI・機械学習の利活用が盛んになるに従って新たな課題に直面することとなった。その最大の原因となるのが、AI・機械学習で用いられるGPUサーバやHPC(ハイパフォーマンスコンピューティング)サーバが消費する“膨大な電力”にある。

 これまでは、1ラックに40Uほどの台数を収容していたのに対し、AI・機械学習用途のサーバは1台でも非常に高い電力を必要とするため、ラック内の収容スペースに余裕があっても1ラックに1台しか収容できないことが一般的だ。

 つまり、既存サーバの集約や新システムの構築のために高性能のサーバを1ラックに高集積したいと望んでも、供給電力が足りないことで頭を悩ませている企業は多い。もちろん、AI・機械学習を活用するメリットは言うまでもないため、なるべくたくさんのラックを借りずにこれらのサーバを利用したいところだ。GPUサーバやHPCサーバの“消費電力問題”に対して、企業は諦めざるを得ないのだろうか?

この記事の続き >>
・高性能サーバはなぜ集積できないのか?
・高集積の秘密は「リアドア型空調機」
・テレワーク時代にありがたいオンサイト運用アウトソーシング

この続きは会員限定です

ここから先は「ビジネス+IT プレミアム会員」に登録の方(登録は無料)のみ、ご利用いただけます。

今すぐビジネス+IT会員にご登録ください。

すべて無料!ビジネスやITに役立つメリット満載!

  • 1

    インタビューから事例記事まで、ここでしか読めない1万本超の記事が無料で閲覧可能

  • 2

    導入事例資料や技術資料、デモ動画などを無料でダウンロード・閲覧可能

  • 3

    年間1,000本以上、会員限定のスペシャルセミナーにご招待

  • 4

    ビジネス+IT編集部が必読記事を、メールマガジンでお知らせ!

ビジネス+IT 会員登録で、会員限定コンテンツやメルマガを購読可能、スペシャルセミナーにもご招待!