- 2026/03/31 掲載
Google、音声とカメラでAI検索できる「検索Live」を提供開始
目の前にある物をリアルタイムで認識、会話で情報検索を実現
検索Liveの最大の特徴は、文字入力による静的な検索ではなく、マルチモーダルなアプローチを取り入れた点にある。AndroidまたはiOSのGoogleアプリを起動し、カメラを被写体に向けながら音声で質問すると、AIが映像の文脈を瞬時に理解して回答する。名前が分からない物体について尋ねたり、目の前の風景や事象について詳細な解説を求めたりすることができ、AIはリアルタイムの音声と画面上のウェブリンクを組み合わせて情報を提示する。
この機能を実現する基盤モデル「Gemini 3.1 Flash Live」は、前世代のモデルから大幅な性能向上を果たしている。ノイズフィルタリングの強化や、ユーザーの発話のペースおよび抑揚の認識精度が向上したことで、機械的ではない自然な会話のやり取りが可能となった。処理能力の向上とメモリ容量の拡大により、応答にかかる遅延が大幅に削減されたほか、長く複雑な対話であっても文脈を見失わずに適切な回答を生成し続ける仕様となっている。対応言語はAIモードが利用可能な90以上の言語をカバーしている。
従来の「Googleレンズ」が静止画の撮影を起点とした検索であったのに対し、検索Liveは動的な映像の共有と連続的な対話を用いる点で根本的な検索体験が異なる。旅行先でのリアルタイムな案内や、複雑な手順の確認など、即時性が求められる状況下での利便性が大きく高まる。
一方で、本機能のグローバル展開は検索エコシステム全体に変化をもたらす。ユーザーの疑問に対してAIが直接的かつ包括的な回答を音声で提示する仕組みが普及することで、検索結果画面から外部の個別ウェブサイトへの遷移率が低下する現象の加速が予測される。デジタルマーケティングやSEO(検索エンジン最適化)の領域では、従来のキーワードを軸とした手法から、会話型AIに参照されることを前提とした新たな情報提供戦略への転換が求められる状況となっている。
AI・生成AIのおすすめコンテンツ
AI・生成AIの関連コンテンツ
PR
PR
PR