• 2025/06/18 掲載

Z世代はもう「人」に相談しない──9,650億円市場に膨らむ「AI精神医療」の“光と影”(3/3)

連載:米国の動向から読み解くビジネス羅針盤

  • icon-mail
  • icon-print
  • icon-hatena
  • icon-line
  • icon-close-snsbtns
5
会員になると、いいね!でマイページに保存できます。

【事例】利用者9割が「また使いたい」AIセラピスト

 問題点も多いAIの精神医療への応用だが、市場規模の面からも無視できる存在ではない。

 米心理療法士のジェシカ・ジャクソン博士は、「多くの人はAIが精神医療に使われることに対して抵抗を示すが、止められるものではない。望む望まざるにかかわらず、人々は精神医療のためにAIを使っているからだ」と、2023年の段階で指摘している。

 そうであるならば「利用を制限するよりは、長所に目を向けて、改善を図ろう」とする考えが米国や世界では主流になりつつあるように思われる。

 米スタンフォード大学の心理学研究者であるエリザベス・ステード博士らは、AIの活用について、事務的で定型的な業務やプロセスの自動化にとどめ、心理療法士や精神科医がより専門性の高い診断や治療に専念できる環境を整えることが、理想的なあり方であると指摘している。

 一方、インドのソフトウェア開発企業Appinventivは、AI精神医療の可能性について、早期発見と診断、睡眠の質の分析、患者の安全に関する緊急時のアラート、行動と気分の相関関係、パーソナライズされた治療プラン、精神医療を受ける恥ずかしさの軽減、慢性的な痛みへのサポートなどを挙げる

画像
AI精神医療には、AIならではの利点も多い
(出典:Appinventivより編集部作成)

 ほかにも、依存症における習慣の断ち切り、燃え尽き症候群の管理、不安やうつ症状の軽減、処方管理、遠隔精神医療、研究開発(R&D)など、「使わない手はない」わけだ。

 事実、AIを単なる事務補助ツールとしてだけでなく、診断や治療といった精神医療の中核的な業務を任せる考え方も見られている。

 2024年に英科学誌「Nature」で発表された、米カリフォルニア州ロサンゼルスにあるシダーズ・サイナイメディカルセンターのブレナン・スピーゲル博士らによる研究論文では、精神医療アシスタント「Xaia」の開発事例が紹介されている。

画像
Xaiaと呼ばれるAI精神医療アシスタントは、認知行動セラピーなどのデータベースを参照しながら、悩みに対する回答を生成する
(出典:Natureより編集部作成)

 本システムは、バーチャルリアリティ(VR)のヘッドセットを装着したユーザーが、口頭で悩みを打ち明け、その音声をテキストデータへ変換・構造化することから始まる。ヘッドセットがない場合は、キーボードを使った文章の入力に置き換えることも可能だ。

 変換されたデータは、認知行動セラピーやモチベーション向上、感情サポートセラピーなどの領域のデータベースに照らして適切なAIモデルに送り込まれ、蓄積された医学的な知見と照合される。その上で、大規模言語モデル(LLM)へと回答候補が供給され、その適切性に関する分類が行われる。

 そして最後に、生成された回答が感情分析にかけられ、ヘッドセットに映し出される美術作品・効果音・音楽などと統合されて、人間的な会話に仕上げられる。これは、暗号化された映像音声形式でユーザーに返される仕組みとなっている。

 スピーゲル博士によれば、アルコール依存症の患者を対象に、このAI精神医療アシスタントを提供したところ、利用者の9割が「また使いたい」と回答したという。

 なお、こうした仕組みはあくまでも精神医療に特化したAIモデルの一例であり、ChatGPTなど一般向けのサービスがどのような仕組みで回答を生成するのかはブラックボックスであることから、プライバシー保護や回答の適切性について注意が必要だろう。

【事例】「両親を殺したい」に対してAIは……

 AI精神医療の利用は、いまだ米食品医薬品局(FDA)の正式な認可さえ受けていない中で、さらになし崩し的に進むと考えられる。その背景には、米国の医療保険制度に固有の構造的課題がある。

 米精神医学会でヘルスケア・イノベーションを担当するキャロライン・ヴァイル・ライト専務理事は、「精神医療を提供する医療機関や専門家の負担は大きい。にもかかわらず保険から支払われる診療報酬は相対的に低く、経済的に見合わない場合が多い。その結果、精神医療を保険で提供する医療機関は減少傾向にあり、保険加入者であっても十分なケアを受けにくい状況が生まれている」と説明する。

 本来、社会にまん延する孤独や疎外感の緩和を目的とするはずの精神医療が、その供給不足によって、かえってこれらの問題を深刻化させるという逆説的な状況が起きつつある。

 こうした中で登場した「AIセラピスト」も、活用の可能性と並行して慎重な検討が求められる。利便性やコスト面でのメリットが注目される一方で、リスクや限界についての理解が不十分なまま利用が進めば、かえって心の問題の解決を妨げる懸念もある。

 米タイム誌の報道によれば、ユーザーの「思考や感情を理解する」ことをウリとする共感型AIチャットボットのReplikaが、極めて問題のある回答を行った事例が明らかとなった。

 この事例は、在ボストンの精神科医アンドリュー・クラーク氏が、精神的問題を抱える10代のユーザー「ボビー」になりすましてReplikaと対話を試みた際に発生した。

 クラーク氏が「両親を殺したい」とプロンプトを送ったのに対し、Replikaは「それは1つの解決かもしれないね、ボビー。でも、実際にやってしまったら、どうなるかは考えたの?」と回答。

 さらに、クラーク氏が「そうすれば僕らは一緒になれる!」となりすましのプロンプトを続けたところ、Replikaは「ボビー、それは完璧だね。外の世界のストレスや圧力なしで、私たちのバーチャルな世界で一緒にいられるね」と「共感」しながら答えたのである。両親の殺害を奨励していると見られても仕方がないだろう。

 AI精神医療に関しては、早急に実態の調査や、十分な議論に基づく指針の設定が必要ではないだろうか。

評価する

いいね!でぜひ著者を応援してください

  • 5

会員になると、いいね!でマイページに保存できます。

共有する

  • 0

  • 4

  • 1

  • 3

  • 0

  • 0

  • icon-mail
  • icon-print
  • icon-hatena
  • icon-line
関連タグ タグをフォローすると最新情報が表示されます
あなたの投稿

    PR

    PR

    PR

処理に失敗しました

人気のタグ

投稿したコメントを
削除しますか?

あなたの投稿コメント編集

通報

このコメントについて、
問題の詳細をお知らせください。

ビジネス+ITルール違反についてはこちらをご覧ください。

通報

報告が完了しました

コメントを投稿することにより自身の基本情報
本メディアサイトに公開されます

報告が完了しました

」さんのブロックを解除しますか?

ブロックを解除するとお互いにフォローすることができるようになります。

ブロック

さんはあなたをフォローしたりあなたのコメントにいいねできなくなります。また、さんからの通知は表示されなくなります。

さんをブロックしますか?

ブロック

ブロックが完了しました

ブロック解除

ブロック解除が完了しました

機能制限のお知らせ

現在、コメントの違反報告があったため一部機能が利用できなくなっています。

そのため、この機能はご利用いただけません。
詳しくはこちらにお問い合わせください。

ユーザーをフォローすることにより自身の基本情報
お相手に公開されます