• 2026/01/26 掲載

Microsoft「触覚」認識を持つ、初のロボティクスAIモデル「Rho-alpha」を発表

自然言語理解・視覚認識に「触覚」センシングを統合、ロボットが物理世界で複雑な操作を実行する能力を高めることを目的

1
会員(無料)になると、いいね!でマイページに保存できます。
Microsoft Researchは2026年1月21日付けで、同社初のロボティクス向けAIモデル「Rho-alpha(ρα)」を公表した。このモデルは、自然言語理解・視覚認識・触覚センシングを統合し、ロボットが物理世界で複雑な操作を実行する能力を高めることを目的としている。
photo
(画像:ビジネス+IT)
Rho-alphaは、MicrosoftのPhiシリーズに基づくVision-Language-Action(VLA)モデルの拡張版であり、触覚データなどの物理的センシングを加えた「VLA+モデル」として設計されている。自然言語での指示をロボットの制御信号に変換し、両手による複雑な作業(バイマニュアル処理)を実行可能にするという。

画像
ロボットが「触覚」を手に入れた!Microsoftの新ロボティクスAIモデル「Rho-alpha」とは?(図版:ビジネス+IT)

トレーニングには、物理実世界でのデモンストレーションデータや、シミュレーション上で生成された軌道データ、Web規模の視覚言語データが活用されている。また、合成データ生成用にNVIDIA Isaac Simなどのシミュレーションフレームワークも用いられている。こうした手法により、触覚情報を含む大規模データセットの不足を補いながら学習している。

Microsoftは現在、デュアルアーム構成やヒューマノイドロボットなど複数のプラットフォームでRho-alphaの評価を進めており、関心のある組織向けにEarly Access Programを提供するとしている。将来的にはMicrosoft Foundry経由での利用も計画されている。

Rho-alphaは、ロボットに「感じる」能力を与えることで、従来の視覚・言語中心のAIとは異なり、物理世界の環境変化や接触フィードバックを理解し、適応的な行動を可能とすることを目指している。Microsoftはこの技術がより多様な環境でのロボット活用やHuman-Robot Collaboration(人間とロボットの協調)に寄与すると位置づけている。

評価する

いいね!でぜひ著者を応援してください

  • 1

会員(無料)になると、いいね!でマイページに保存できます。

共有する

  • 0

  • 0

  • 0

  • 0

  • 0

  • 1

関連タグ タグをフォローすると最新情報が表示されます

関連リンク

あなたの投稿

    PR

    PR

    PR

処理に失敗しました

人気のタグ

投稿したコメントを
削除しますか?

あなたの投稿コメント編集

通報

このコメントについて、
問題の詳細をお知らせください。

ビジネス+ITルール違反についてはこちらをご覧ください。

通報

報告が完了しました

コメントを投稿することにより自身の基本情報
本メディアサイトに公開されます

基本情報公開時のサンプル画像
報告が完了しました

」さんのブロックを解除しますか?

ブロックを解除するとお互いにフォローすることができるようになります。

ブロック

さんはあなたをフォローしたりあなたのコメントにいいねできなくなります。また、さんからの通知は表示されなくなります。

さんをブロックしますか?

ブロック

ブロックが完了しました

ブロック解除

ブロック解除が完了しました

機能制限のお知らせ

現在、コメントの違反報告があったため一部機能が利用できなくなっています。

そのため、この機能はご利用いただけません。
詳しくはこちらにお問い合わせください。

ユーザーをフォローすることにより自身の基本情報
お相手に公開されます

基本情報公開時のサンプル画像