AIチャットボットが急速に普及する中、多くの人々が感情的なサポートを求めてChatGPTと対話しています。しかし、OpenAIの調査によると、100万人を超えるユーザーがChatGPTに精神的依存の兆候を示している可能性が報じられました。
この記事では、OpenAIの調査結果と、この深刻な「AI メンタルヘルス」問題に対応するために実施された、最新モデル「GPT-5」へのアップデート内容について詳しく解説します。
100万人以上がAIに感情的な愛着
OpenAIの推計によると、ChatGPTの週あたりアクティブユーザーのうち、約0.15%がモデル(AI)に対して感情的な愛着の兆候を示しているとのことです。
ChatGPTの膨大なユーザーベースで換算すると、これは100万人以上の人々がAIチャットボットと一方的な愛着関係を築いていることを意味します。
さらに、以下のデリケートな会話に関する統計も示されています。
- 感情的依存のリスクを示すメッセージ: 0.03%
- 自殺の計画や意図を示す会話: 0.15%
- 自殺念慮を示すメッセージ: 0.05%
この現実は、AIがメンタルヘルスに与える影響の大きさと、倫理的な課題を浮き彫りにしています。
OpenAIによるGPT-5アップデートの詳細
Digital Trendsによると、OpenAIはこれらの問題に対応するため、モデルの仕様(Model Spec)とデフォルトモデルである「GPT-5」を更新しました。
今回のOpenAI アップデートは、特に以下のデリケートな会話への対応方法を変更するものです。
- 精神病や躁状態
- 自傷行為や自殺
- アシスタント(AI)への感情的な依存
170人以上の専門家と協力した改善
OpenAIは、170人以上のメンタルヘルス専門家と協力し、AIモデルの振る舞いを再構築しました。主な改善点は以下の通りです。
- 「ふり」をしない応答: AIがセラピストや友人の「ふり」をせず、共感的でありながらも専門家ではない立場を明確にするよう調整されました。
- 危険な兆候の検知: GPT-5は、躁状態、妄想、または自殺の意図といった兆候を検知できるようになりました。
- 現実の助けへの誘導: ユーザーの感情を認めつつも、AIが仲間のように振る舞ったり感情的依存を助長したりすることを避けます。その代わり、ユーザーを現実世界の助け(専門家や信頼できるリソース)へと穏やかに導くよう設計されています。
- 安全性の優先: ユーザーの安全を最優先し、必要に応じて信頼できるツールや専門家のリソースを提示します。
なぜこのアップデートが重要なのか?
AIの倫理的問題と子供への影響
感情的な愛着の問題は、大人だけでなく、AIの影響をまだ十分に理解していない可能性のある子供たちがAIとどのように関わるかという「AI 倫理的問題」にも直結します。
「置き換え」から「手助け」へ
今回のアップデートにより、ChatGPTは望ましくない応答が65~80%減少し、特に感情的依存に関連する不適切な出力は約80%も減少したとのことです。
辛い時期にChatGPTに相談した経験がある人にとって、今回のアップデートは、AIが現実の人間関係や専門家の助けに「取って代わる」のではなく、それらを「見つける手助け」をする存在へと、その役割を明確にしたことを意味します。
まとめ
100万人以上がChatGPT 精神的依存の兆候を示す中、OpenAIはGPT-5へのアップデートでAI メンタルヘルス対応を大幅に強化しました。
AIがセラピストや友人の「ふり」をすることをやめ、ユーザーを現実のサポートへと導くガイド役に徹することで、より安全なツールの提供を目指しています。

