ヨーロッパの若者の2人に1人近くが、AIチャットボットを使って親密または個人的な悩みを話し合った経験があることが、5月5日(火)に発表されたIpsos BVAの調査で明らかになった。AIテクノロジーは感情的なサポートの源として、ますます活用されている。
調査に回答した3,800人のうち、51%がチャットボットとメンタルヘルスや個人的な問題について話し合うことが「簡単」と回答した。同様の回答をした割合は、医療専門家については49%、心理士については37%にとどまった。
身近な人々がリストの上位を占め、友人と問題を話し合いやすいと答えた人は68%、親については61%だった。
この調査は、フランスのプライバシー監視機関CNILと保険会社Groupe VYVの委託を受け、2026年初頭にフランス、ドイツ、スウェーデン、アイルランドにおける11歳から25歳の人々を対象に実施された。
調査結果は、若者のメンタルヘルスに対する懸念が高まっていることを示した。回答者の約28%が、全般性不安障害の疑いがあるとされる基準を満たしていたことが判明した。
調査対象者の約90%が以前に人工知能ツールを使用した経験があり、多くの人がその常時利用可能な点や非批判的な性質を理由に挙げた。5人中3人以上のユーザーがAIを「人生のアドバイザー」または「相談相手」と表現した。
しかし、AIツールの心理的影響に対する懸念もここ1年で高まっており、専門家たちは人間の感情を検出し、感情的サポートを安全に提供するうえでのAIの限界について警告している。
今年初め、フロリダ州の男性の家族がGoogleを提訴し、同社のGemini AIチャットボットが男性の妄想および最終的な自殺に関与したと主張した。
ストックホルムのカロリンスカ研究所の心理士でデジタルヘルス研究者のLudwig Franke Föyenは、調査結果は驚くべきものではなかったと述べた。
現在の大規模言語モデルは高品質な回答を生成できると、Franke FöyenはReutersに語り、自身の研究では、認定を受けた専門家でさえAIが生成したアドバイスと人間の専門家によるアドバイスを区別するのに苦労することがあると示唆されていると付け加えた。
しかし彼は、メンタルヘルスのサポートをチャットボットだけに頼ることに対して警告し、汎用AIシステムはエンゲージメントを目的として設計されており、企業の目標がメンタルヘルスケアのニーズと一致しない場合があると述べた。
「AIは情報やサポートを提供できますが、人間関係や専門的なケアに取って代わるべきではありません」とFranke Föyenは述べた。
「誰かが親や友人、またはメンタルヘルスの専門家に話しかける代わりにチャットボットに頼るとすれば、それは懸念事項です。テクノロジーによって人々がより孤独を感じるようなことは避けなければなりません。」 – Rappler.com

