- 会員限定
- 2019/03/08 掲載
人工知能が「記憶を読み取る」、ここまで来た認識技術
記憶をたどる際の「眼球の動き」から適切な画像をAIが選ぶ
一般的に、目の前にいる人が「今、何を思っているのか?」を推測することは難しい。実際に思っていることを口にしてくれれば理解できるかもしれないが、それでも正しく話してくれるかどうかは判断できない。「人が何を思っているか」を推測するために、これまでは「脳波と考えていることの関係」が研究されてきた。しかし、脳波の測定には、高価な機材が必要となるだけでなく、計測される人への負担も大きくなるという問題があった。
人間が何かの画像を思い出すとき、その画像に合わせて目を動かすといわれている。
「画像を思い出している際の眼球の動き」を捉えることができれば、その画像の特徴点から、どの画像を思い出しているのかを推測できるのではないか、というアプローチだ。
具体的には、被験者に事前にいくつかの画像を見てもらい、その直後に一面灰色に変わった画面上で見た画像を思い出してもらう。
その際に、アイトラッキング機器を使って眼球がどのように動いたかを検知し、その動きから、どの画像を思い浮かべたかを推測するものだ。
実験では、思い出すときに目を意識的に動かす努力をするよう指示された被験者の方が、より高精度での推測を実現できたという。
つまり、眼球の動きから画像の特徴的な位置を抽出し、データベース内の画像とマッチングさせることにより、その人が思い出している画像を推定することが可能になるのだ。
AIによるUI、インタラクションの多様化
この研究は、眼球の動きを捉えるアイトラッキングのデータを、AIによる認識技術に応用したものだ。認識技術といえば、顔認識など、画像の中に写る人が誰なのかを判別する技術だが、これまでは、入力されたデータを処理し、「出力」する側の役割を担うことが多かった。しかし、人間の行動や生体情報をセンシングし、そのデータをシステムの「入力」側で活用することによって、コンピューターとの新たな直感的なインタラクション(相互作用)が生まれることが期待できる。
たとえば、スマートスピーカーに代表される音声認識技術を用いた音声入力インターフェースもその一例だ。我々は長らく、マウスやキーボードなどの入力デバイス、もしくはスマートフォンの画面のタップという入力インターフェースにお世話になってきた。
今後、AIを使った認識技術が広く応用され、人間の行動や身体の反応をリアルタイムに読み解き、暗示的に意図される意味を推測することができれば、これまでキーボードやマウスに頼っていたコンピューターとのインターフェースが多様化し、より直感的な相互作用が実現できる可能性があるのだ。
【次ページ】“思い”を即座にシステムに伝達できるようになる
関連コンテンツ
関連コンテンツ
PR
PR
PR