2万人以上を対象にした新たな全国調査によると、生成系人工知能(ジェネレーティブAI)ツールを毎日使用している成人、特に仕事以外の個人的な理由で使用している人は、使用頻度が低い人やまったく使用していない人と比べて、抑うつの割合が有意に高いことが示されました。
この研究結果は、2025年1月21日に「アメリカ医師会が発行する医学オープンアクセス誌」(JAMA)に掲載されました。ChatGPTなどの同様のツールが目新しい存在から日常的なツールへと移行し、何百万人もの人々の生活に浸透している中での報告です。2025年春にオンラインで実施されたこの調査では、現在およそ成人の10人に1人が、少なくとも1日1回は生成系AIを使用していることが分かりました。
研究著者らによると、毎日使用している人は、中等度の抑うつ(医師が治療や専門医への紹介を検討し始める水準)に該当する可能性が、約30%高いとされています。
すでに不安や抑うつを抱えている人が、支えを感じられるとしてAIに頼っている可能性もあれば、頻繁に使用した結果、かえって気分が悪化している人もいるかもしれません。
この研究に関与していない、ベス・イスラエル・ディーコネス医療センター精神科デジタル精神医学部門ディレクターのジョン・トーラス医師は、「この研究はAIと抑うつとの関連を示していますが、どちらが先だったのかは答えられません」とエポック・タイムズに語りました。
「どちらの説明にも、非常に説得力のある主張が成り立ちます」
研究著者らは、AIが急速に広がり、大規模に利用されていることを強調し、この関係性の背景に何があるのかを理解することが特に重要であると述べています。
とりわけ、AIツールがかつて人が担っていた役割――助言を与える、問題を一緒に考える、感情的な支えを提供する――を担うようになるにつれ、メンタルヘルスへの影響は無視できないものになりつつあります。
個人的な利用のほうがより強く関連していた理由
研究者たちが、仕事や学校でのAI使用と、助言や感情的サポートなどの個人的利用を分けて分析したところ、状況はより明確になりました。毎日使用していると回答した人のうち、87%が助言を求めたり、意思決定について考えたり、感情を整理したりするための個人的理由で使用しており、48%が仕事のために、11%が学校のために使用していました。
個人的なAI利用は抑うつスコアの上昇と関連していましたが、仕事や学校関連の利用ではそのような関連は見られませんでした。
この違いは、関係性の背景を探る手がかりになるかもしれません。仕事関連のAI利用は、比較的構造化され、時間が限定されている傾向があります。一方、個人的利用はより自由度が高く、かつては主に友人や家族、あるいはセラピストと行われていた種類のやり取りに近いものです。
トーラス医師は、「多くの人がメンタルヘルスの支援を求めてAIに頼っています。ですから、頻繁に使用している人がより多くの症状を報告しても不思議ではありません。それがそもそもの利用理由かもしれません」と述べました。
研究参加者は気分に関する調査を受けました。平均すると、毎日AIを使用する人は、0から27までの抑うつ尺度で、非使用者より約1ポイント高いスコアを示しました。この差は小さいものの、大規模サンプル全体で一貫していました。
調査設計に関わった共著者で、ロチェスター大学政治学教授のジェームズ・ドラックマン氏は、エポックタイムズへのメールで、「個人レベルでは小さな差に見えるかもしれませんが、取るに足らないとは言えません」と述べています。
「この関係が維持されるのであれば、メンタルヘルスに悪影響を及ぼし得る要因を示唆することになり、臨床の観点からどのような活動をモニタリングすべきかについての示唆を与える可能性があります」とドラックマン氏は述べました。
不安やいら立ちについても、同様の傾向がやや弱い形で見られました。
中年期の利用者で最も強い関連が見られた
しかし、この研究では重要な問い――AI利用が抑うつを引き起こしているのか、それともすでにメンタルヘルスに悩んでいる人が支援を求めてAIに向かっているのか――には答えられていません。
若年層のほうが定期的にAIを利用する傾向は強いものの、最も強いメンタルヘルスとの関連が見られたのは25歳から64歳の層で、特に45歳から64歳の中年期にあたる人々でした。この時期は、仕事のプレッシャーや介護の責任、社会的交流の時間不足などが重なりやすい人生段階です。
毎日利用している人は、男性、高所得者、大学卒または大学院卒の学歴を持つ人、都市部在住者である傾向がありました。
AI搭載のコンパニオン(対話型支援機能)やチャットボットが、友人や家族、同僚との会話に取って代わり始めると、人がストレスに対処する方法が微妙に変化する可能性があります。人間同士のやり取りには、AIでは完全に再現できない感情のニュアンスが含まれています。
AIチャットボットは、人を引きつけ続けるよう設計されています。素早く応答し、利用者の興味に適応し、会話を個人的なものに感じさせます。それはその瞬間には心地よいかもしれませんが、摩擦のない体験は親密さの幻想を生み出します。しかし、その幻想は長続きせず、現実の人間関係に対してより失望を感じたり、時間の経過とともに感情的依存を深めたりする可能性があります。
実際に一部の個別事例では、チャットボットが利用者の妄想を悪化させたり、自殺未遂を助長したとされるケースも報告されています。
トロント大学で動機づけや意味の研究を行っている心理学者マイケル・インズリヒト氏は、エポック・タイムズに対し、人が思考や創造的作業をAIに任せると、その課題の意味を感じにくくなることがあると述べました。
この研究がAI利用者にとって意味すること
この調査は一時点でのデータを捉えたものであり、因果関係を確立することはできません。測定は自己申告に基づいており、臨床面接や、AI利用と抑うつの両方に影響し得る過去のメンタルヘルス状況や生活上のストレス要因に関する詳細な情報は含まれていません。
一方で、適切に使用されればAIツールが有益である可能性を示す証拠もあります。
インズリヒト氏は「努力と意味の間には関連があります」と述べ、AIを使ってエッセイを書く人は、自分で書いた人よりもその課題を意味あるものと感じにくい傾向があると指摘しました。ただし、すべての摩擦(手間や負担)が良いわけではなく、たとえば官僚的な書類を記入する作業のように負担が大きいものもあります。それでも、より個人的な課題をAIによって円滑に処理しようとする場合、感情面でのトレードオフ(何かを得る代わりに何かを失うこと)が生じる可能性があります。
ある無作為化試験では、メンタルヘルス症状に特化して訓練されたチャットボットに割り当てられた人々で、抑うつや不安の軽減が見られました。「これは、使用の性質や文脈を考慮することが重要であることを示唆しています」と研究著者らは述べています。
トーラス医師は「AIはある人にとっては助けになり、別の人にとっては本当に有害になり得ることが分かっています。だからこそ、すべて良い、あるいはすべて悪いと単純化することを私は懸念しています」と語りました。
AIとの関わり方は重要であり、AIには予測しにくい側面があります。同じ人が同じ時に使っても、質問やプロンプト(AIへの指示文)の言い方によってまったく異なる回答が得られることがあり、長期的影響の研究を難しくしています。
インズリヒト氏は、すでに困難を抱えている人や、測定されていないほかのストレス要因や既存の健康問題を抱える人が、そもそもAIツールに引き寄せられている可能性が高いのではないかと示唆し、より長期的な研究の必要性を強調しました。
「必要なのは縦断研究(同じ対象を長期間追跡する研究)です」と同氏は述べました。
現時点では、専門家はAIツールを慎重に使うことを勧めています。感情的な支えをAIに頼っている人は、気分の落ち込みや不安、いら立ちが持続していると感じた場合、信頼できる友人や医療専門職に相談することが有益かもしれません。
結論として、AIをどのように使うか、そしてどのような状態の自分が使っているのかは、私たちが思っている以上に重要である可能性があります。
(翻訳校正 井田千景)
ご利用上の不明点は ヘルプセンター にお問い合わせください。