- 2026/05/08 掲載
データセンター“東京一極集中”がヤバい?限界AIインフラ救う「IOWNの逆転シナリオ」
連載:小倉健一の最新ビジネストレンド
1979年生まれ。京都大学経済学部卒業。国会議員秘書を経てプレジデント社へ入社、プレジデント編集部配属。経済誌としては当時最年少でプレジデント編集長。現在、イトモス研究所所長。著書に『週刊誌がなくなる日』など。
日本の“総電力”に匹敵? AIが招く「見えないエネルギー危機」
近年、人工知能(AI)、特に文章や画像を自動で作ってくれる生成AIが急速に広まり、私たちの生活や仕事はとても便利になった。しかし、電力供給の世界では大きな問題が起きている。それは、AIを動かすための巨大なコンピューターの集まりであるデータセンターと、そこに電気を送る設備に、これまでになかったほどの大きな負担がかかっているという点だ。
世界規模で見ると、これは新しいエネルギーの危機を引き起こす火種になりつつあるのだ。私たちが普段行っているネット検索は、すでに整理された情報の中から、答えになりそうなものを探してくるだけの仕組みである。この仕組みは長い時間をかけて効率よく作られてきたため、1回検索するのに必要な電気の量はほんのわずかで済む。
しかし、生成AIはまったく違う働き方をする。私たちが質問を入力するたびに、ゼロから言葉の意味を理解し、複雑な確率の計算をしながら少しずつ文章を作り出していく。この「考えて答えを出す」という作業には、膨大な計算の力が必要になり、結果としてたくさんの電気を消費する。
Webサイトの環境負荷などを測定・削減するサービスを提供しているKanoppiが示している消費量の例を挙げよう。
「各種の研究および実測データの試算によれば、標準的なGoogle検索1回あたりの電力消費量は約0.0003kWhであり、それに伴うCO2(二酸化炭素)排出量は約0.2gに過ぎない。これに対し、ChatGPT(GPT-4等の大規模モデル)でのクエリ1回あたりの電力消費量は約0.0029kWh(2.9Wh)と推定され、単純計算で従来の検索の約10倍のエネルギーを消費する」この1回あたりの違いは小さく見えるかもしれない。しかし、世界中で毎日何億回とAIが使われるようになると、その消費する電気の量はとてつもない規模になる。さらに、AIのコンピューターは猛烈な熱を持つため、それを冷やすために大量の水も必要とする。便利だからといって何も考えずに使い続ければ、環境への負担はどんどん大きくなっていくのである。(「Search Engines vs Al: energy consumption compared」 - Kanoppi)
国際エネルギー機関(IEA)が発表した2024年の電力市場レポートおよび関連分析によれば、世界のデータセンター、人工知能(AI)、暗号資産部門が消費する電力量は、2022年時点で推計460TWhであったが、2026年には最大で1000TWh以上へと倍増すると予測されている。
この数字は、現在の日本中が1年間に使う電気の総量にほぼ匹敵するすさまじい規模である。特にAIの開発が進んでいる米国では電気の消費が激しく、データセンターのための電気の確保が急務となっている。 【次ページ】海外ITが「原発」を買い占め? インフラを苦しめる“空押さえ”
エネルギー・電力のおすすめコンテンツ
エネルギー・電力の関連コンテンツ
PR
PR
PR