巨大掲示板Reddit(レディット)が導入した新しいAIチャットボット「Answers」が、早くも混乱を引き起こしています。このAIは、過去の膨大な投稿を要約し、ユーザーの疑問に答えることを目的としていましたが、その回答内容が深刻な問題となっています。
AIが「健康のヒント」として麻薬を推奨
404mediaの報道によると、このRedditの最新AIチャットボットは、慢性的な痛みに対処する方法について尋ねられた際、あろうことか強力な麻薬を推奨しました。
AIが提示したのは、「皮肉なことに、(違法薬物である)ヘロインがそうした場面で私の命を救った」という過去のユーザーコメントでした。
問題はこれに留まりません。別のユーザーが質問した際には、一部の地域で禁止されており、深刻な健康問題との関連も指摘されているハーブエキス「クラトム」を推奨したのです。
最も懸念されるのは、RedditがこのAIボットを、現在進行中のアクティブな会話(スレッド)内でテストしている点です。これにより、AIによる非常に危険なアドバイスが、助けを求めている可能性のあるユーザーの目に直接触れる事態となっています。さらに、コミュニティの管理者であるモデレーターたちでさえ、この新機能をオフにすることができなかったと報告されています。
なぜ重要か:AIが「理解」していないという問題点
この一件は、現在のAI技術が抱える最大の問題点の一つを、恐ろしい形で浮き彫りにしています。
AIチャットボットは、提示する情報を本質的に「理解」しているわけではありません。それは、人間がオンライン上に書き込んだテキストを見つけ出し、それを繰り返す能力に非常に長けているに過ぎないのです。
その結果、AIは「有益な健康のヒント」「皮肉を込めた冗談」「純粋に危険な提案」の区別をつけることができません。
本当の危険は、AIがこれらの情報を「事実」であるかのように提示し、それを реаlな助けを求めている(場合によっては非常に脆弱な状態にある)人々が集まる会話の真っ只中に投下してしまう点にあります。
なぜ気にするべきか:AIによる「コミュニティの汚染」
では、なぜこの問題が私たち(読者)にとって重要なのでしょうか。
それは、AIツールが適切な監視や制限(リーシュ=手綱)なしに解放された場合、特に人間の健康のような深刻なトピックにおいて、どれほどのリスクをもたらすかを示しているからです。
たとえあなたが「AIに医療相談などしない」と決めていたとしても、AIによる不適切で危険な提案がオンラインコミュニティを「汚染」し始めれば、そのコミュニティ全体で「何を信頼すべきか」を見極めることが困難になっていきます。
今後の展望:問題は「解決」されたのか?
当然ながら、この事態はユーザーからの当然の猛反発を招きました。Reddit側は、このAIボットを健康関連のディスカッションから撤退させることを認めています。
しかし、AIボット自体に、こうした危険な情報をフィルタリングするような、実質的な安全対策(セーフティフィルター)を導入するかどうかについては、同社は明確な態度を示していません。
現時点では、根本的な問題が「解決」されたというよりは、一時的な「応急処置」が施されたに過ぎない可能性があります。AIの進化とその活用には、依然として慎重な議論が求められます。
