Anthropicの危険なAIモデル「Mythos」に不正アクセス!AIセキュリティの脅威が現実化

-

AI開発大手Anthropicが、その最も強力かつ危険なAIモデルの一つである「Claude Mythos Preview」(通称:Mythos)が、許可されていない第三者グループによって不正アクセスされていたことを明らかにしました。このモデルは、主要なオペレーティングシステムやウェブブラウザの脆弱性を特定し、悪用する能力を持つとされており、その不正アクセスはAI技術の安全性と倫理的利用に関する深刻な懸念を浮上させています。

今回の事件は、AIモデルが持つ潜在的な危険性と、それを管理する上でのセキュリティ対策の重要性を改めて浮き彫りにしました。高度なAI技術が悪意ある者の手に渡った場合、どのような脅威が現実となるのか、その詳細と影響を深掘りします。

AnthropicのAIモデル「Mythos」のイメージ

Anthropicの「Mythos」とは?その驚異的な能力とAIセキュリティへの影響

Anthropicの「Claude Mythos Preview」は、同社が開発した汎用AIモデルの中でも特に高度なサイバーセキュリティ機能を備えています。Anthropic自身が「間違った手に渡れば危険になりうる」と警告するほど、その能力は強力です。具体的には、ユーザーの指示に従い、現在普及しているほぼ全ての主要なオペレーティングシステム(Windows, macOS, Linuxなど)や主要なウェブブラウザ(Chrome, Firefox, Edgeなど)に存在する脆弱性を識別し、さらにそれを悪用する能力を持つとされています。

このようなAIモデルは、サイバーセキュリティの防御側にとっては画期的なツールとなり得ます。例えば、企業が自社のシステムに潜在する脆弱性を事前に発見し、修正するための強力な味方となるでしょう。実際、Anthropicは「Project Glasswing」というイニシアチブを通じて、Nvidia、Google、Amazon Web Services、Apple、Microsoftといった限られた大手企業にのみ、このモデルへの公式アクセスを提供しています。政府機関もこの技術に強い関心を示していると報じられています。

しかし、その裏返しとして、悪意ある攻撃者の手に渡れば、前例のない規模と精度のサイバー攻撃を可能にする「デジタル兵器」となりかねません。Anthropicがこのモデルの一般公開を計画していないのは、まさにこの悪用リスクを懸念しているためです。今回の不正アクセス事件は、このAIモデルが持つ二面性を如実に示しており、AIセキュリティの重要性を改めて浮き彫りにしています。

不正アクセスの手口と情報漏洩の経緯

今回の不正アクセスは、未公開のAIモデルに関する情報を探すDiscordグループによって行われたと報じられています。このグループは、Anthropicのサードパーティ請負業者のアクセス権と、一般的なインターネット調査ツールを組み合わせてMythosに侵入したとされています。

特に注目すべきは、不正アクセスの手口に「Mercorのデータ漏洩」が関与していた点です。Mercorのデータ漏洩によって得られたAnthropicの他のモデル形式に関する知識が、Mythosのオンライン上の場所を「推測」する上で重要な手がかりとなったとのこと。これは、サプライチェーン全体のセキュリティが、AIモデルのような機密性の高い技術を守る上でいかに重要であるかを示しています。

不正アクセスは、AnthropicがMythosの限定的なテストリリースを発表したのと同じ4月7日に行われました。このDiscordグループのメンバーは、それから2週間以上にわたりMythosを定期的に利用していたとされ、その証拠としてBloombergに対しスクリーンショットやライブデモンストレーションを提供しています。グループは、Anthropicによる検出を避けるため、サイバーセキュリティ目的での利用は控えていたと主張していますが、他の未公開Anthropic AIモデルにもアクセスしていた可能性が指摘されており、事態の深刻さを物語っています。

AIの脅威をイメージした画像

AIモデル悪用の潜在的リスクとサイバー攻撃の高度化

Mythosのような高度なAIモデルが悪意ある者の手に渡った場合、その潜在的なリスクは計り知れません。従来のサイバー攻撃は、人間のハッカーが脆弱性を手動で発見し、エクスプロイトコードを作成する必要がありました。しかし、MythosのようなAIは、このプロセスを自動化し、かつてない速度と規模で実行できる可能性があります。

考えられる悪用シナリオとしては、以下のようなものが挙げられます。

  • ゼロデイ攻撃の自動生成: 未知の脆弱性(ゼロデイ脆弱性)を自動で発見し、それを利用した攻撃コードを生成する能力。これにより、防御側が対策を講じる前に大規模な攻撃が可能になります。
  • 標的型攻撃の高度化: 特定の組織や個人を狙った標的型攻撃において、そのターゲットが使用するシステムやソフトウェアの脆弱性をピンポイントで特定し、カスタマイズされた攻撃を仕掛けることが容易になります。
  • サプライチェーン攻撃の拡大: 企業間の連携が複雑化する現代において、サプライチェーン上の脆弱性をAIが自動で発見・悪用することで、一つの弱点から広範囲に被害が及ぶ可能性があります。今回の事件自体が、サードパーティ経由のサプライチェーンリスクを示唆しています。
  • 国家レベルのサイバー戦争: 国家が支援するハッカー集団がこのようなAIモデルを利用すれば、インフラストラクチャへの攻撃や情報窃取など、国家安全保障に関わる重大な脅威となり得ます。

Anthropicは、現時点では不正アクセスが自社システムに影響を与えたり、サードパーティベンダーの環境を超えて拡大した証拠はないと述べていますが、一度流出した情報やモデルの知識がどのように拡散し、悪用されるかは予測困難です。この事件は、AIモデルの安全性確保が、単なる技術的な問題に留まらず、社会全体の安全保障に関わる喫緊の課題であることを示しています。

AI開発企業の責任と今後の展望

今回のAnthropicの事件は、AI開発企業が負うべき責任の重さを改めて問いかけています。強力なAIモデルを開発することは、同時にその悪用リスクを最小限に抑えるための厳格なセキュリティ対策と倫理的ガイドラインを確立することを意味します。

Anthropicのような企業は、モデルのアクセス制御、サードパーティベンダーのセキュリティ監査、そして万が一の事態に備えたインシデント対応計画をさらに強化する必要があります。また、AIモデルの「危険度」を評価し、その公開範囲や利用方法を厳しく制限する「AIガバナンス」の枠組みも、国際的なレベルで議論され、確立されるべきでしょう。

AI技術は、私たちの社会に計り知れない恩恵をもたらす可能性を秘めていますが、同時に新たなリスクも生み出します。技術の進歩とセキュリティ対策、そして倫理的配慮のバランスをいかに取るかが、今後のAI時代における最も重要な課題の一つとなるでしょう。

こんな人におすすめ

このニュースは、AI技術の最前線に関心のある方、サイバーセキュリティの脅威について深く知りたい方、あるいは企業における情報漏洩対策の重要性を再認識したいと考えている方にとって、特に重要な示唆を与えるでしょう。AIモデルの悪用リスクや、サプライチェーンセキュリティの課題について理解を深めたい方にもおすすめです。

まとめ

Anthropicの強力なAIモデル「Mythos」への不正アクセス事件は、AI技術がもたらす恩恵と同時に、その潜在的な危険性を浮き彫りにしました。主要なOSやブラウザの脆弱性を特定・悪用できる能力を持つモデルが、許可されていないグループの手に渡ったことは、AIセキュリティの脆弱性と、悪意あるサイバー攻撃の高度化に対する警鐘です。

この事件は、AI開発企業が負うべきセキュリティ責任の重さ、サプライチェーン全体の情報漏洩対策の重要性、そしてAIモデルの倫理的利用とガバナンスの必要性を強く示唆しています。AI技術の進化が加速する中で、私たちはその恩恵を享受しつつも、潜在的なリスクを常に意識し、適切な対策を講じていく必要があります。

情報元:The Verge

合わせて読みたい  ホロライブ史上最大級の祭典「hololive SUPER EXPO 2026」が開幕!恒例のサインウォールも登場

カテゴリー

Related Stories