- 2026/01/19 掲載
賢くなりすぎた…「AIの2026年問題」という皮肉、歴史が突き付ける“ブーム後の現実”(2/2)
【AIの2026年問題】性能向上が招く“データ枯渇”という皮肉
計算資源の制約が克服されたとしても、さらなる課題が待ち構えている。いわゆるAI開発における「2026年問題」だ。AIは、これまでモデルを巨大化し、膨大なデータを学習・推論することで飛躍的に性能を高めてきた。皮肉なことに、性能が大幅に向上したことで、まもなくネット上に公開された膨大なデータを学習し尽くしてしまうというのだ。この問題は、すでにChatGPTがリリースされた頃から唱えられていた。
Villalobos, et al(2022)によると、質の高いデータは2026年までに、SNSなど一般人が発した質の高くないデータは2030年から2050年までに、AIにとって重要な画像データは2030年から2060年までに枯渇するとされる。
計算資源の制約もビッグデータの枯渇も、AI開発における「スケーリング則(Scaling Law)」が生みだす問題だ。これは、データのサイズ、計算資源の量、パラメータの数を増加してAIを大規模にしていくほど性能が向上する法則だ。
人口が急増した中世のヨーロッパで、エネルギー源として薪や炭が膨大に消費され、森林を破壊したように、飛躍的に性能を高めたAIが学習と推論の栄養源であるデータを消費しつくしてしまうという皮肉な現象といえる。
失敗した国家プロジェクト「Σ計画」の教訓
これらは、いずれもAIの開発と進歩がこのままハイペースで進んでいくのか、という冒頭で述べた第1の技術的な制約問題だ。たしかに重要な課題ではあるが、人類の歴史に鑑みると、技術的制約は新たな技術開発で解決されてきたのも事実だ。AI開発におけるデータの問題は、量から質への転換で克服できるかもしれない。たとえば、かつての大型計算機(メインフレーム)時代には、ソフトウェア開発が人海戦術による作り込み型であったため、「プログラマー枯渇」が叫ばれていた。
これを受けて、1980年代後半の日本では、プログラマーの人材育成などを目指した国家プロジェクト「Σ計画」が真剣に推進されたほどだ。だがこれは、メインフレームの延長線上に将来を展望した計画に過ぎなかった。
実際には、1990年代にパソコンとサーバ(インターネット)を基盤にしたオープン化の波が押し寄せ、制約条件は克服された。その勢いがグローバルに広がり、クラウト化やモバイル化で新たな地平が切り拓かれたことは、この連載で解説してきた通りだ。
知性と教養は、粗雑な文章を大量に読み込むよりも、良質な文章をじっくり読み込む方が高まる。同様に、AIもある程度進歩すれば、大規モデルではなく、特定の目的に特化した質の高いデータによる小規模モデルが有効に機能することも十分考えられる。
AIはこのまま社会に受け入れられる?次に来る「本当の課題」
それでは、冒頭で示した第2と第3の課題、すなわち「AIが広く深く社会実装されていく過程で生じるさまざまな社会的課題」と「そもそもAI導入が(特に企業部門で)このまま順調に進むのか」という点はどうだろうか?これらの課題は、前回解説した全米アカデミーズの11項目からなるFindings(分析結果)にも関係してくる。さらに「ソロー・パラドックス」と「ニュー・エコノミー論」の間で繰り広げられた「1990年代の生産性論争」の知見も役立ちそうだ。
これらの点は、回を改めて考えていこう。
| 1) | Villalobos Pablo, Jaime Sevilla, Lennart Heim, Tamay Besiroglu, Marius Hobbhahn, and Anson Ho(2022)“Will we run out of ML data? Evidence from projecting dataset size trends,” EPOCH AI Paper, Nov. 10, 2022, pp. 1-22. |
| 2) | National Academies(2025)Artificial Intelligence and the Future of Work, Washington, DC, The National Academies Press. |
AI・生成AIのおすすめコンテンツ
AI・生成AIの関連コンテンツ
PR
PR
PR