開閉ボタン
ユーザーメニュー
ユーザーメニューコンテンツ
ログイン

株式会社IDCフロンティア提供コンテンツ

  • スペシャル
  • 会員限定
  • 2022/03/25
スペシャル対談 エヌビディア×IDCフロンティア対談、「AI」「GPU」「データセンター」の親和性

さまざまなビジネス領域において、AIや機械学習の活用が急速に広がりつつある。一方で企業のIT環境へと目を向けると、パブリッククラウドの利用がトレンドとなりつつある。しかし実は、自社でAIを効果的に活用する上では、データセンター利用のメリットが高まってきている向きもある。今回は、AIに欠かせないGPUの世界的なメーカーであるエヌビディアと、国内データセンター事業者の草分けであるIDCフロンティアそれぞれのキーパーソンの対談を通じて、これからのAI活用を支えるソリューションについて明らかにする。

ついに一般企業の間でもAIは実用段階に突入へ

──近年のAI活用の動向について、最前線からどのように見ておられますか。

IDCフロンティア 菊石 謙介氏(以下、菊石氏):DX(デジタルトランスフォーメーション)などの観点から、AIや機械学習、ディープラーニングといった最先端テクノロジー活用のニーズは当社も感じているところです。それと関係してか、4~5年ほど前からデータセンターの設備にも、機器を稼働させる電力を含め、求められるスペックが急激に増大していますね。

エヌビディア 佐々木 邦暢氏(以下、佐々木氏):かつては研究機関などの一部の組織に限られていたAI活用が、一般企業にまで拡大している流れを実感しています。

 ディープラーニングが世間に衝撃を与えた歴史的な出来事として、2012年の画像認識コンペティション (ILSVRC) が有名です。飛躍的な精度の向上を果たして首位を獲得したトロント大学の論文には、エヌビディアのGPUでAIをトレーニングしたことが述べられていました。GPUの得意とする並列処理が、そのままディープラーニングにも活かせることが広く認識される大きなきっかけになったと思います。

 あれから10年経った今では、グーグルやメタ(旧フェイスブック)のような最先端グローバルテクノロジー企業のみならず、一般企業でも、業務効率化のほか幅広い領域でディープラーニングなどのAI関連技術が使われ始めています。AI活用は、次の段階へと突入したと見ています。

──企業の間でAI・機械学習が爆発的に普及している要因は何でしょうか。

佐々木氏:やはり、従来は人間にしか難しいと思われていたタスク、例えば画像や音声の認識などが、AI研究の進展によりコンピューターで処理可能となったことで、今までにない新しいサービスを開発できるからでしょう。そして、それを我々のGPUが支えているのはとても光栄なことです。もともとGPUというのは高精細な3Dグラフィックスを高速に描画するためのデバイスとして進化してきました。その要となるのが、先ほども少し触れた並列処理です。このようなグラフィック処理のためのGPUの進化がAIにも適合していたために、現在のように爆発的な普及につながっています。

 もちろんエヌビディアは、GPUのAI活用ニーズが突然降って湧いたため慌てて対応したわけではありません。当社はGPUを進化させる中で、その特徴である並列演算性能を、グラフィックス以外の分野へも応用できると考え、2006年には汎用並列コンピューティングプラットフォームである「CUDA」を発表しています。これは当初シミュレーション演算などで利用され、その後スパコンに搭載されるなどの流れを経て、AIのニーズにちょうど応えることができたわけです。

──GPU以外で、AI活用を支えるソリューションはありますか?

この記事の続き >>
・GPUだけではない、AI活用に欠かせないソリューション
・ラックが無駄になる? GPUサーバの電力問題
・電力と排熱の問題をクリアし、GPUサーバを高い集積度で設置・運用するためには

この続きは会員限定です

ここから先は「ビジネス+IT プレミアム会員」に登録の方(登録は無料)のみ、ご利用いただけます。

今すぐビジネス+IT会員にご登録ください。

すべて無料!ビジネスやITに役立つメリット満載!

  • 1

    インタビューから事例記事まで、ここでしか読めない1万本超の記事が無料で閲覧可能

  • 2

    導入事例資料や技術資料、デモ動画などを無料でダウンロード・閲覧可能

  • 3

    年間1,000本以上、会員限定のスペシャルセミナーにご招待

  • 4

    ビジネス+IT編集部が必読記事を、メールマガジンでお知らせ!

ビジネス+IT 会員登録で、会員限定コンテンツやメルマガを購読可能、スペシャルセミナーにもご招待!