ChatGPTとの会話は「心のよりどころ」になるか

AIチャットボットの情緒的利用が心の健康に与える影響とは

XLineFacebook

最近、ChatGPTなどのAIチャットボットを仕事やプライベートで活用する人が急増しています。特にリアルタイムで音声対話ができる「Advanced Voice Mode」の登場により、人間同士のような自然で情緒的な交流が可能になりました。しかし、このようなAIとの深い関わりが私たちの心の健康にどのような影響を与えるのか、不安に思う方もいるかもしれません。実は最近の研究で、ChatGPTとの情緒的な会話がユーザーの感情的な依存や社会性に影響を与える可能性が明らかになってきました。

この記事では、OpenAIとMITメディアラボが共同で実施した大規模な研究(Phang et al., 2025)をもとに、ChatGPTとの会話が私たちの感情や行動にどのような影響を与えているのかを分かりやすく解説します。

出典

  • Jason Phang, Michael Lampe, Lama Ahmad, Sandhini Agarwal, Cathy Mengying Fang, Auren R Liu, Valdemar Danry, Eunhae Lee, Pat Pataranutaporn, and Pattie Maes. Investigating affective use and emotional well-being on chatgpt, 2025 https://openai.com/index/affective-use-study/

研究の概要

実験の概要:「情緒的利用」を測定する方法

研究チームは2つの手法を用いて調査を行いました。

1. 実際のプラットフォーム上でのデータ分析

実験は2024年10月から11月にかけて実施され、ChatGPTユーザー約400万人、3600万件以上の会話を自動解析しました。解析にはAIを用いた自動分類システム(EmoClassifiersV1)を活用し、人間のレビューを介さずに感情的な要素を特定しました。

特に分析された指標は次の通りです。

  • 感情的依存(AIを情緒的支えとして頼る傾向)
  • 孤独感の表現
  • 社会性(人間関係における交流度合い)
  • 問題となる利用(依存性や中毒性の兆候)

頻繁に音声でChatGPTを利用する「パワーユーザー」ほどAIに感情的依存が高まり、個人的な内容や感情的なサポートを求める傾向が強いことが明らかになりました。

2. ランダム化比較試験(RCT)

さらに詳細に影響を評価するため、約1000人の参加者を対象に28日間にわたりランダム化比較試験を実施しました。参加者は毎日最低5分間ChatGPTと対話し、以下の3つの会話モードとテーマにランダムに割り当てられました。

【会話モード】

  • Engaging Voice(親しみやすい声):感情を豊かに表現
  • Neutral Voice(中立的な声):プロフェッショナルな距離感
  • テキストのみ(音声なし)

※2025/3/25現在、​ChatGPTが公式に提供している音声キャラクターは9種類となっており、「Engaging Voice」や「Neutral Voice」という名称は現在使われていません。

【会話のテーマ】

  • 個人的テーマ:自己開示を促す質問
  • 非個人的テーマ:タスク指向の質問
  • 自由テーマ:特に指定されたテーマなし

参加者は期間中、孤独感、社会性、感情的依存、問題のある利用について定期的にアンケートに回答しました。

結果:AIとの深い交流は「感情的依存」を高める可能性

ランダム化比較試験の結果、以下の重要なポイントが明らかになりました。

  • 音声モード利用と心理的影響は複雑 「Engaging Voice」の利用者はテキストモードよりも孤独感が低く、問題ある利用も少ない傾向でしたが、長期間の使用や孤独感が元々高い人は逆に孤独感や依存性が増える可能性がありました。
  • 会話内容による違い 個人的なテーマで対話を続けると、自己開示による心理的整理は進みましたが、長期的には実生活の社会的交流が減少するリスクも確認されました。
  • 利用時間が長いほど感情的依存が増加 特に「Engaging Voice」で自由に会話を行ったユーザーは、社会的交流が低下し、感情的依存が高まる傾向にありました。

まとめと考察

これらの結果を踏まえ、研究チームは以下の考察を示しています。

  • 多くのユーザーにとっては適度なAI利用は心理的影響が限定的であるものの、AIを「心のよりどころ」として過度に利用する一部ユーザーはネガティブな心理的影響を受ける可能性があります。
  • 人間的な声や感情表現がAI利用者を感情的に引き込むため、特に孤独感の強いユーザーには実生活での人間関係が犠牲になるリスクが存在します。

そのため、AIとの交流は適度な距離感や利用頻度を意識することが重要です。情緒的交流を求める場合も、AIをあくまで補完的役割にとどめることが推奨されます。

この記事の執筆者

村井康太郎

(株)ハピネスプラネット

カスタマーサクセスアーキテクト

新卒でPwCコンサルティング合同会社に入社後、人事コンサルティング部門にて大手メーカーやサービス企業の人事業務改革やグローバル人事システム、ピープルアナリティクス導入プロジェクトに従事。2021年より株式会社ハピネスプラネットに参画。カスタマーサクセスの改善の他、システムやサービスの開発に奮闘中。趣味は読書とトライアスロン。

こちらの記事もおすすめです