- 2025/06/18 掲載
Z世代はもう「人」に相談しない──9,650億円市場に膨らむ「AI精神医療」の“光と影”(2/3)
ChatGPTとZ世代の「特別な関係」
米OpenAIのサム・アルトマン最高経営責任者(CEO)は、「20~30代の多くが、人生における意思決定の際にChatGPTを活用している」と語る。さらに、「もはやZ世代にとって、ChatGPTなしに重要な決断を下すことは考えられない」とまで言い切っている。この傾向には理由がある。米ITニュースサイトTechRadarが指摘するように、AIは人間の心理療法士のように1時間当たり100ドル(約1万4,500円)もの費用を請求することもなく、医療者が陥りがちな「相手を断定的に批判してしまう対話」も回避できるため、若年層の支持を集めているのだ。
言うまでもなく、一般向けに開発されたChatGPTは、心理学や精神医療を専門に学習したわけではなく、医療的に間違った助言を与えることも多い。個人情報の保護なども曖昧であるため、利用には細心の注意が必要だ。だが同時に現実として、Z世代にとってChatGPTは、心理的な支えとして欠かせない「新たなライフライン」となっている。
AI精神医療の裏にある“光と影”
では、AIによる精神医療の長所と短所は何だろうか。まず、長所は何といっても「安い」ことである。前述の米保健医療労働局による研究でも指摘されている通り、精神的な悩みを抱えながらも医療的サポートを受けられない要因の1つは、経済的な負担の大きさだ。
AIによるカウンセリングは、その点で大きな解決策となり得る。特に、ChatGPTのような汎用(はんよう)型AIチャットボットは、無料または低価格で利用可能な場合が多く、経済的制約のあるユーザーにとって魅力的な選択肢となっている。
また、ネット環境さえあればどこにいてもアクセスが可能なため、通院の手間や交通費、待機時間といった負担を軽減できる点も利便性の高さとして挙げられる。
医療機関側にとっても、AIを治療プロセスに取り入れることで、一部業務の自動化と効率化が期待され、全体の処理速度の向上に寄与する可能性がある。

一方で、AI活用には明確な限界も存在する。特に、複雑かつ個別性の高い心理的問題に対しては、直感的な理解や感情的共感を伴う「人間的な」対話が不可欠である。しかし、AIはあくまで機械学習モデルに基づく応答を行うため、画一的かつ形式的な対話にとどまりやすく、対応が文字通り機械的であるという「宿命」を抱えている。
事実、アルトマン氏は2025年5月、米上院におけるAI規制に関する議会証言の場で、「(2月に誕生した)あなたの息子さんに、AIチャットボットを親友として成長してほしいか」と問われ、「いいえ、そのようなことはありません」と回答している。
続けてアルトマン氏は、「すでに多くのユーザーが感情的な支えを求めてAIと深い絆を築き始めている」とも述べ、AIとの関係性がより長期的かつ個別最適化されていく中で、プライバシー保護の重要性が高まっていることにも言及した。
特に、AI精神医療における未成年者の保護は「最重要課題」であり、年齢認証や利用規約の明確化は必須となる。精神医療に関わるセンシティブなデータをAIが蓄積・処理する以上、個人情報保護の観点からも慎重な対応が求められる。
さらにAIは、誤診を軽減すべく継続的な改善を加える必要があり、場合によっては治療現場に適さないこともある。 【次ページ】【事例】利用者9割が「また使いたい」AIセラピスト
医療業界のおすすめコンテンツ
PR
PR
PR