0
会員になると、いいね!でマイページに保存できます。
共有する
近年、生成AIの産業・ビジネス用途の活用が急速に広がる中で、大規模言語モデル(LLM)の開発競争も激化している。その対立軸としては、(1)汎用型LLM vs 個別型LLM、(2)汎用言語型LLM(英語) vs 特定言語型LLM、(3)クローズドソース vs オープンソースなどがある。今回は、OpenAIの「GPT-4」など、「広く浅く何でもできる」土台を構築する汎用型LLMに対し、限られた領域で「狭く深くカスタマイズできる」ことを重視する個別型LLMとして、NECが独自開発した「cotomi」の実力を見てきたい。
【現状整理】言語モデル「3つの開発パターン」
現在、生成AIの産業・ビジネス用途の活用が急速に進んできている。すでに業務の中でChatGPTのような生成AIサービスを活用する段階から、既存の業務オペレーションに生成AIを組み込んだり、生成AIをベースに新サービスを展開する事例も出始めている。
そのような中で、LLM(大規模言語モデル)開発としては、開発の方向性のパターンも生まれてきている。下記が開発の方向性のパターンだ。本記事では、このうち(1)について触れたい。
(1)汎用型LLM vs 個別型LLM
・パラメーターを最大化した汎用LLMと、個別業務へのチューニングを重視した個別型LLM(後述)
(2)汎用言語型LLM(英語) vs 特定言語型LLM
・汎用言語の英語を土台に開発されたLLMと、日本語などの特定言語に特化したLLM
例:GPT(汎用言語)⇔ NEC cotomi、NTT Tsuzumiなど(日本語特化)/National Multimodal LLM Programme(シンガポール政府によるASEANローカル言語に対応した言語モデル)
(3)クローズドソース vs オープンソース
・カスタマイズの自由度が高いオープンソースモデルによる提供と、クローズドソースモデルとしての提供
例:メタ Llama(※同社はオープンソースとして提供すると発表)⇔ GPT(クローズドソース)
競争は激化? 汎用型LLM vs 個別型LLM
本記事においては、特に、汎用型LLM vs 個別型LLMの競争について触れていく。この戦いにおける汎用LLMとは、OpenAIが展開しているChatGPTや、アンソロピックが展開しているClaudeなどが代表例として挙げられる。汎用型LLMは、大規模なパラメーターを学習させて、さまざまなタスクに対応できるよう開発される。一方で、個別業務へのチューニングを重視したモデルが個別型LLMだ。
言い換えれば、「広く浅く何でもできる」汎用の土台を構築する汎用LLMモデルに対して、最低限の土台を構築し個別業務での「狭く深いカスタマイズ」を重視するのが個別型LLMである。
そうした個別型LLMとして、独自開発の「cotomi」を展開するのがNECだ。ここからは、「cotomi」の実力、企業や産業の個別課題の解決を重視するNECの生成AI戦略を中心に、言語モデルの競争についても見ていきたい。
汎用型LLMにどう勝つ? 「個別型LLM」成功の条件
はじめに、言語モデルの開発・競争環境を整理すると、(1)メガベンダーによる汎用型LLM、(2)個別型LLM、特定言語型LLMモデルなどによる差別化モデル、(3)
オープンソース による言語モデル展開などのパターンが存在する。
このうち、NECの個別型モデル「cotomi」(後述)が含まれる(2)の特化型の展開の戦い方については、汎用型LLMの汎用性の高さに対して、個別業務へのカスタマイズ性・寄り添いによって勝負を仕掛けている状況がある。
とはいえ、LLMも急速に進化している。ChatGPTをはじめ新たなモデルにおいて大幅な機能拡張が発表される。今後、個別領域の対応能力を有していくことが想定される。
加えて、メタのLlamaなどのように、オープンソースとして展開すると発表されている言語モデルに関しても、さまざまなプレイヤーが開発に参加し、急速に個別領域に対応したサービスが開発されていくと見られている。
そのため、個別型LLMの今後の展開としては、これら汎用型LLMや、オープンソースモデルが個別領域のタスクに対応できる進化よりも先に、いかに顧客基盤やユースケース、展開のためのエコシステムを形成できるかが鍵となる。
これら競争におけるポイントを踏まえ、NECの個別型LLM「cotomi」、生成AI戦略に勝算はあるのだろうか。
NECの「生成AI展開」の方針
NECは現在、金融業・製造業・官公庁・物流業・小売業など、幅広い企業に対して生成AIソリューションを提供している。同社の生成AI展開は、自社内の徹底的な活用を経て、言語モデルの展開、顧客へのソリューション展開へと広がってきている。
NECの自社内のオペレーション改善のための生成AI活用においては、スピード感をもって徹底的に生成AIを使い倒すことに主眼が置かれている。当初から社内活用に全社をあげて取り組んでおり、現在は利用者が3万人を超え、グループ9万人のうち3割は使い倒している状態にある。
NECでは自社を最初のクライアントとして位置付け、テクノロジーを実践し、生きた経験やノウハウを顧客に提供する「クライアント・ゼロ」という考え方がある。この考えの下、自社内のあらゆる業務でのAI活用での経験を標準化・ショーケース化し、他社へのビジネス提供を加速する。
業務特化型のLLM「cotomi」
そんなNECは、日本語に対応し、長文処理能力を他社比最大150倍まで引き上げた30万字を処理できる個別型LLMの「cotomi」を展開している。
cotomiは「広く浅い」汎用型LLMではなく、顧客のビジネス・業務の個別用途で「狭く深く」活用することが前提に置かれている。その観点から、パラメーター増大によるトレードオフのバランスを図り、かつ産業・業務のカスタマイズ性を向上させている。パラメーター規模の軸での言語モデル開発の競争とは別の視点での差別化を図っているのだ。
現在、普及している汎用的な生成AIは膨大なパラメーターサイズを有しており、AIとしての精度は高い。しかし、ビジネス・業務用途においては、パラメーター数はさまざまなコストとトレードオフになると同社は捉える。たとえば、下記のトレードオフが存在する。
■パラメーター数とコストのトレードオフの関係(例)
【サーバコスト】
セキュリティ性を考慮し自社でサーバを持つ場合、パラメーターサイズが大きいほど必要GPUが膨大となる
【消費電力】
パラメーターサイズが上がる分、消費電力が増大する
【レスポンス速度】
パラメーターサイズが上がる分、業務活用でのレスポンス速度が下がる
【産業・業務カスタマイズ性】
パラメーターサイズが上がる分、自社や産業のデータや、業務・オペレーションに基づくカスタマイズ性が下がる
こうしたビジネス・業務用途での生成AI活用における既存の大規模パラメーターの言語モデルの課題を解決するべくNECが展開している独自の言語モデルが「cotomi」だ。それでは、「cotomi」でどう戦っていく考えなのか。
【次ページ】なぜ「cotomi」なのか?NECが考える差別化の狙い
関連タグ