• 会員限定
  • 2026/03/31 掲載

リコー、日本語推論特化のマルチモーダルAIモデルを発表

独自の強化学習によりGemini 2.5 Proに匹敵する性能を達成

1
会員(無料)になると、いいね!でマイページに保存できます。
リコーは2026年3月30日、複雑な図表を含む日本語のビジネス文書を高精度に読解し、段階的な推論プロセスを日本語で出力できるマルチモーダル大規模言語モデルを開発したと発表した。独自に工夫した強化学習により思考過程の可視化を実現し、米グーグルの「Gemini 2.5 Pro」に匹敵する性能を達成している。同日には軽量版モデルの無償公開も開始した。
photo
(画像:ビジネス+IT)
 リコーが開発したマルチモーダル大規模言語モデル「Qwen3-VL-Ricoh-32B-20260227」は、320億パラメータの規模を持ち、テキストに加えて画像や図表などのデータを同時に処理する能力を備える。本モデルの開発は、経済産業省と新エネルギー・産業技術総合開発機構が実施する国内生成AI開発力強化プロジェクト「GENIAC」第3期の支援を受けて行われた。

 開発のベースには、中国のアリババクラウドが提供するAIモデル「Qwen3-VL-32B-Instruct」が採用された。リコーはこれを基に、特定のタスクに最適化する教師あり微調整を施した上で、カリキュラム学習や強化学習といった複数の学習手法を取り入れた。

画像
【図版付き記事はこちら】リコー日本語推論に特化したAIモデルを発表(図版:ビジネス+IT)

   特に強化学習のプロセスにおいては、最終的な出力の正確さに加え、推論のプロセスを適切に日本語で出力するかどうかを評価する独自の報酬関数を設定した。一連の最適化により、モデルが複数のステップを経て論理的な思考を行い結論を導き出すリーズニング性能を獲得した。

 同時に、AIがどのような思考過程や前提条件に基づいて回答したのかを日本語で確認できるようになったことで、ビジネス現場における実務利用の信頼性を高めている。図表を含む日本語文書の読解性能を検証するベンチマークテストにおいては、米グーグルの「Gemini 2.5 Pro」など大型の商用モデルと同水準のスコアを記録している。

 また、リコーは同日、開発に用いた技術を活用した80億パラメータの軽量版モデル「Qwen3-VL-Ricoh-8B-20260227」を開発プラットフォームであるHugging Face上で無償公開した。今回開発された320億パラメータの基本モデルは、セキュリティやデータ保護の観点から社内専用環境での運用を希望する企業向けに、オンプレミス環境での導入を想定した設計となっている。

 今後は、リコー独自のAIプラットフォーム「H.D.E.E.N」や、AIモデルを搭載した専用のサーバーパッケージ等を通じて提供される見通しである。加えて、AIモデルが処理する画像トークンを圧縮して削減する独自技術なども開発されており、これらを用いて企業側のAI運用コストを抑える取り組みも進められている。

評価する

いいね!でぜひ著者を応援してください

  • 1

会員(無料)になると、いいね!でマイページに保存できます。

共有する

  • 0

  • 0

  • 0

  • 0

  • 1

  • 0

関連タグ タグをフォローすると最新情報が表示されます

AI・生成AIの関連コンテンツ

あなたの投稿

    PR

    PR

    PR

処理に失敗しました

人気のタグ

投稿したコメントを
削除しますか?

あなたの投稿コメント編集

通報

このコメントについて、
問題の詳細をお知らせください。

ビジネス+ITルール違反についてはこちらをご覧ください。

通報

報告が完了しました

コメントを投稿することにより自身の基本情報
本メディアサイトに公開されます

基本情報公開時のサンプル画像
報告が完了しました

」さんのブロックを解除しますか?

ブロックを解除するとお互いにフォローすることができるようになります。

ブロック

さんはあなたをフォローしたりあなたのコメントにいいねできなくなります。また、さんからの通知は表示されなくなります。

さんをブロックしますか?

ブロック

ブロックが完了しました

ブロック解除

ブロック解除が完了しました

機能制限のお知らせ

現在、コメントの違反報告があったため一部機能が利用できなくなっています。

そのため、この機能はご利用いただけません。
詳しくはこちらにお問い合わせください。

ユーザーをフォローすることにより自身の基本情報
お相手に公開されます

基本情報公開時のサンプル画像