• 2026/01/19 掲載

ELYZA、日本語特化の「拡散言語モデル」公開 商用利用も可

自己回帰型モデルとは異なる拡散モデルをテキスト生成に適用、推論処理回数を削減や高速生成が可能に

会員(無料)になると、いいね!でマイページに保存できます。
AI開発企業の株式会社ELYZAは、画像生成AIで用いられる拡散モデルを応用した日本語特化の大規模言語モデル(dLLM)「ELYZA-LLM-Diffusion」を開発し、2026年1月16日に公開した。公開モデルはHugging Faceで提供され、商用利用も可能とした。
photo
(画像:ELYZA)
拡散言語モデルはもともと画像生成AIで広く使われている拡散モデルをテキスト生成に適用したもので、従来の自己回帰型モデルとは異なる生成プロセスを持つ。自己回帰モデルでは文章を左から右へ順番に生成するが、拡散型ではノイズを段階的に除去する逆拡散過程を通じてテキストを生成する。これにより、設計次第では推論処理回数を削減するなどの効率化や高速生成が期待されている。

画像
AIの自己回帰モデルと拡散モデルの違い(画像:ビジネス+IT)

公開された「ELYZA-LLM-Diffusion」シリーズには、日本語データによる追加事前学習を施した「ELYZA-Diffusion-Base-1.0-Dream-7B」と、さらに指示学習を行った「ELYZA-Diffusion-Instruct-1.0-Dream-7B」の2種類が含まれる。これらはいずれも7Bクラスのモデルとして提供され、Hugging Face上でダウンロードおよびデモの利用が可能になっている。

ELYZAによると、「ELYZA-Diffusion-Instruct-1.0-Dream-7B」は日本語の知識・指示追従能力を高めることを目的に設計され、既存のオープンな拡散言語モデルと比較して日本語タスクにおいて同等以上の性能を示したという。これにより、研究用途や検証用途だけでなく、実用的な日本語生成タスクにも応用できるモデルとして提供される。

公開に伴い、モデルの性能評価や技術的詳細を解説する公式テックブログ記事も公開されている。また、chatUI形式のデモも用意されており、一般ユーザーが機能を試すことができるようになっている。モデルの配布はApache License 2.0のもとで行われ、商用利用も可能としている。

拡散言語モデルの研究はまだ発展途上とされる一方で、生成プロセスの違いから推論効率の向上や電力消費の低減につながる可能性が指摘されている。ELYZAは今後もLLMを中心とした研究開発を進め、自然言語処理技術の国内実装を支援していく意向だとしている。

評価する

いいね!でぜひ著者を応援してください

  • 0

会員(無料)になると、いいね!でマイページに保存できます。

共有する

  • 0

  • 0

  • 0

  • 0

  • 0

  • 0

関連タグ タグをフォローすると最新情報が表示されます

関連リンク

あなたの投稿

    PR

    PR

    PR

処理に失敗しました

人気のタグ

投稿したコメントを
削除しますか?

あなたの投稿コメント編集

通報

このコメントについて、
問題の詳細をお知らせください。

ビジネス+ITルール違反についてはこちらをご覧ください。

通報

報告が完了しました

コメントを投稿することにより自身の基本情報
本メディアサイトに公開されます

基本情報公開時のサンプル画像
報告が完了しました

」さんのブロックを解除しますか?

ブロックを解除するとお互いにフォローすることができるようになります。

ブロック

さんはあなたをフォローしたりあなたのコメントにいいねできなくなります。また、さんからの通知は表示されなくなります。

さんをブロックしますか?

ブロック

ブロックが完了しました

ブロック解除

ブロック解除が完了しました

機能制限のお知らせ

現在、コメントの違反報告があったため一部機能が利用できなくなっています。

そのため、この機能はご利用いただけません。
詳しくはこちらにお問い合わせください。

ユーザーをフォローすることにより自身の基本情報
お相手に公開されます

基本情報公開時のサンプル画像