生成AIの開発をリードするOpenAIは、ロシア、北朝鮮、中国、イランに関連する5つの国家支援型ハッカー集団(脅威アクター)による、同社のAIモデルの悪意ある利用を検知し、妨害したことを明らかにしました。
これらの攻撃者は、OpenAIの提供する大規模言語モデル(LLM)を、サイバー攻撃の初期段階で活用しようと試みていたとのことです。
OpenAIは、脅威インテリジェンスコミュニティとの連携を通じてこれらの活動を特定し、関連するアカウントをすべて停止する措置を講じました。同社は、「私たちの使命は、すべての人類に利益をもたらす安全なAIを構築することであり、そのためには悪用を防ぐことが不可欠です」と述べています。
特定されたハッカー集団とその活動内容
今回、OpenAIによって活動が妨害されたのは以下の5つのグループです。
- Charcoal Typhoon(中国)
- 偵察活動の一環として、企業やサイバーセキュリティツール、内部プロセスに関する情報収集にAIを利用。技術記事の翻訳や、プログラマーのデバッグ作業の支援にも使用していました。
- Salmon Typhoon(中国)
- 主に技術的な記事の翻訳、特定のコマンドの検索、および基本的なスクリプティングタスクの支援にAIを利用していました。
- Crimson Sandstorm(イラン)
- 特定の標的を狙う「スピアフィッシング」メールの文面作成や、ウェブサイトから情報を自動収集するスクリプトの作成、さらにはマルウェアが検知を回避するためのコード生成などにAIを使用していました。
- Emerald Sleet(北朝鮮)
- アジア太平洋地域の専門家に関する情報の収集、公になっている脆弱性の特定、そしてスピアフィッシングキャンペーンに利用するコンテンツの生成などにAIを活用していました。
- Forest Blizzard(ロシア)
- ウクライナ情勢に関連する衛星通信プロトコルやレーダー技術に関するオープンソースの調査や、ファイル操作やデータ処理を行うスクリプト作成のサポートにAIを利用していました。
AIが悪用される手口と今後の対策
Microsoftと共同で発表された報告書によると、これらのハッカー集団は、AIモデルをサイバー攻撃の「生産性向上ツール」として利用しようとしていたことが指摘されています。具体的には、偵察、ソーシャルエンジニアリング用の文章作成、マルウェア開発の補助、脆弱性の検索といった用途です。
幸いなことに、現段階ではAIがサイバー攻撃に革命的な変化をもたらしたという証拠は見つかっていません。しかし、OpenAIは「脅威アクターが時間と共にAI技術に適応していくことは避けられない」と警鐘を鳴らしています。
今回の発表は、AIプラットフォームがサイバー攻撃の温床となることを防ぐため、開発企業がいかにプロアクティブ(積極的)な対策を講じているかを示す重要な事例と言えるでしょう。OpenAIは今後も監視を続け、悪意ある活動が検知され次第、迅速に対処していく方針です。

