• 会員限定
  • 2023/05/16 掲載

マイクロソフトが自社でAIチップを開発せざるを得ない深刻理由、NVIDIA依存だけではない

  • icon-mail
  • icon-print
  • icon-hatena
  • icon-line
  • icon-close-snsbtns
記事をお気に入りリストに登録することができます。
ChatGPT人気を追い風に、テック大手によるジェネレーティブAI(生成AI)関連の動きが活発化している。The Informationの報道によると、マイクロソフトは、AI開発に用いるチップを自社で開発しており、今後AI市場での優位性を拡大させる狙いだ。現在テック大手を含め、生成AIの開発・運営ではNVIDIAのGPUに依存する状況となっている。マイクロソフトのAIチップ開発報道を切り口に、AI市場のコスト問題の現状を探ってみたい。

執筆:細谷 元、構成:ビジネス+IT編集部

執筆:細谷 元、構成:ビジネス+IT編集部

バークリー音大提携校で2年間ジャズ/音楽理論を学ぶ。その後、通訳・翻訳者を経て24歳で大学入学。学部では国際関係、修士では英大学院で経済・政治・哲学を専攻。国内コンサルティング会社、シンガポールの日系通信社を経てLivit参画。興味分野は、メディアテクノロジーの進化と社会変化。2014〜15年頃テックメディアの立ち上げにあたり、ドローンの可能性を模索。ドローンレース・ドバイ世界大会に選手として出場。現在、音楽制作ソフト、3Dソフト、ゲームエンジンを活用した「リアルタイム・プロダクション」の実験的取り組みでVRコンテンツを制作、英語圏の視聴者向けに配信。YouTubeではVR動画単体で再生150万回以上を達成。最近購入したSony a7s3を活用した映像制作も実施中。
http://livit.media/

photo
脱NVIDIA依存の動き、テック大手企業で顕著に
(Photo:VDB Photos/Shutterstock.com)

マイクロソフト、自社でAIチップを開発

 マイクロソフトが自社AIチップの開発に着手していることが報じられている。第一報を報じたのは、The Informationだ。NVIDIAへの依存度を下げ、大規模言語モデルのトレーニングを進めることが狙いとされる。

 情報筋によると、マイクロソフトは「Athene(アテネ)」というコードネームのもと、2019年から秘密裏にチップの開発を進めており、現在マイクロソフトとOpenAIの社員らが最新のGPT-4などの大規模言語モデルでどの程度効果的に機能するかをテストしているという。

 日本でも人気を博すChatGPT。開発したのはOpenAIだが、マイクロソフトも同社に多大な資金を投じ、ChatGPTのベースとなる大規模言語モデルの開発に深く携わっている。生成AIの開発・運営において必要となるのが、グラフィクス・プロセシング・ユニット(GPU)だ。このGPUの供給で、現在NVIDIAが独占的なシェアを占めており、GPU価格も高止まりしている。

画像
ChatGPTを活用するには膨大なマシンパワーが必要になる
(Photo:Diego Thomazini/Shutterstock.com)

 最近の大規模言語モデル開発・運営では、NVIDIAが2020年にリリースした「A100」というモデルが主に利用されている。価格は1~3万ドルほど。また、2022年にリリースされた後継モデル「H100」は、現在eBayで4万ドル以上で取り引きされていることが確認された。

 TrendForceの推計では、ChatGPTの開発から商業化までに、A100換算では、約3万以上のGPUが必要とされる。単純計算では、GPU1つあたりのコストを1万ドルとすると、そのコストは3億ドル(約400億円)に達する。

AI開発の高コスト問題

 マイクロソフトだけでなく、グーグルも最近自社で開発しているAIチップ「TPUv4」が「A100」のパフォーマンスを上回ったとする論文を公開するなど、NVIDIAに対する依存度を下げようという動きがテック大手企業で顕著となっている

 これらの動きは、生成AI市場が抱える構造的なコスト問題に焦点を当てるものであり、同市場の動向を知る上でも重要なトピックだ。

 AI開発のコストにまつわる現状はどうなっているのか、事例をみてみたい。

 Latitudeというスタートアップは、生成AIを活用したロールプレイングゲーム「AI Dungeon」を提供しているが、その生成技術はOpenAIのGPTモデルによって実現されていた。

 このゲームを運営するにあたってLatitudeは、OpenAIとAWSに利用料を支払っていたが、そのコストは毎月20万ドル(約2,700万円)に達していた。

 これを受け同社は、コスト削減のためOpenAIからイスラエル拠点のAI21 Labsに乗り換え、またオープンソースや無料の言語モデルも取り入れることで、生成AI関連コストを半額以下に抑えることができたという

 上記でも触れたが、OpenAIのChatGPTの商業化には3万のGPUが必要と推計されており、そのコストが大規模言語モデルを利用するクライアントに転嫁された格好だ。

 他のテック大手によるAI開発の取り組みでも、高コストとなる事例が報告されている。

 たとえば、メタが最近リリースしたLLaMAモデルは、2048個の「A100」を使用し、1兆4000万のトークン(1000トークン=約750ワード)をトレーニングしたが、その日数は21日に及んだ。これをAWSの利用価格に換算すると、240万ドルを超えるという。このLLaMAモデルのパラメータ数は650億で、ChatGPTのベースモデルが持つ1750億パラメータよりも小さいものである。

 またAIスタートアップのHugging FaceのCEO、クレマン・デラング氏は、同社のBloom大規模言語モデルのトレーニングには2カ月半以上かかり、500個のGPUに相当するスーパーコンピューターが必要であったと述べている

 さらに最新報道では、イーロン・マスク氏がChatGPTの競合AI「TruthGPT」の開発に乗り出したとされるが、これに関連してマスク氏は約1万のデータセンターグレードのGPUを購入したといわれている。単純計算では、1万ドルのA100であれば1億ドル、4万ドルといわれるH100であれば4億ドルを支払ったことになる。 【次ページ】開発だけでなく、運営・維持でも高コスト

関連タグ

関連コンテンツ

あなたの投稿

    PR

    PR

    PR

処理に失敗しました

人気のタグ

投稿したコメントを
削除しますか?

あなたの投稿コメント編集

機能制限のお知らせ

現在、コメントの違反報告があったため一部機能が利用できなくなっています。

そのため、この機能はご利用いただけません。
詳しくはこちらにお問い合わせください。

通報

このコメントについて、
問題の詳細をお知らせください。

ビジネス+ITルール違反についてはこちらをご覧ください。

通報

報告が完了しました

コメントを投稿することにより自身の基本情報
本メディアサイトに公開されます

必要な会員情報が不足しています。

必要な会員情報をすべてご登録いただくまでは、以下のサービスがご利用いただけません。

  • 記事閲覧数の制限なし

  • [お気に入り]ボタンでの記事取り置き

  • タグフォロー

  • おすすめコンテンツの表示

詳細情報を入力して
会員限定機能を使いこなしましょう!

詳細はこちら 詳細情報の入力へ進む
報告が完了しました

」さんのブロックを解除しますか?

ブロックを解除するとお互いにフォローすることができるようになります。

ブロック

さんはあなたをフォローしたりあなたのコメントにいいねできなくなります。また、さんからの通知は表示されなくなります。

さんをブロックしますか?

ブロック

ブロックが完了しました

ブロック解除

ブロック解除が完了しました

機能制限のお知らせ

現在、コメントの違反報告があったため一部機能が利用できなくなっています。

そのため、この機能はご利用いただけません。
詳しくはこちらにお問い合わせください。

ユーザーをフォローすることにより自身の基本情報
お相手に公開されます