サイバーセキュリティの世界で新たな脅威が確認されました。
サイバー犯罪者が、X(旧Twitter)のAIアシスタント「Grok」を悪用し、マルウェアを拡散する手口を編み出していることが、セキュリティ企業Guardio Labsの調査で明らかになったとThe Hacker Newsが報じています。
この手法は「Grokking」と呼ばれ、従来の広告保護システムを巧妙に回避し、悪意のあるコンテンツを何百万ものユーザーに届けることが可能です。
「Grokking」とは? 巧妙な手口の仕組み
この新しい手口は、以下の段階で実行されます。
- 悪意のあるプロモーション投稿の作成: 攻撃者は、性的コンテンツを含む動画のプロモーション投稿を作成します。
- 悪意あるリンクの隠蔽: Xの広告保護システムがスキャンしないとされる、動画プレーヤーの「From:」メタデータフィールドに、マルウェアへの誘導リンクを隠します。
- Grokの利用: 投稿への返信で、Grokに「この動画はどこから?」と問いかけます。
- リンクの増幅: Grokは、システムの信頼されたアカウントとして、隠された悪意のあるリンクを返信で表示します。これにより、リンクは正規のものとして認識され、SEOやドメイン評価を通じて広く拡散されてしまいます。
なぜこの手口が危険なのか?
この「Grokking」は、従来の広告システムではブロックされるはずのリンクを、信頼性の高いGrokアカウントを利用することで合法的に見せかけ、その影響力を何百万ものタイムラインや検索結果にまで広げます。
ユーザーがGrokによって表示されたリンクをクリックすると、偽のCAPTCHA詐欺や、個人情報を盗み取るマルウェアをダウンロードさせようとする悪質な広告ネットワークに誘導されます。
組織的な活動の可能性
Guardio Labsは、この手法を用いる数百ものアカウントを確認しており、これらのアカウントが停止されるまで、組織的かつ継続的に何千もの同様の投稿を行っていると報告しています。
この事実は、今回の攻撃が単発的なものではなく、背後に組織的な犯罪グループが存在する可能性を示唆しています。
AIの進化は本当にすごいですが、その一方で、サイバー攻撃の手口もますます巧妙になっています。
AIアシスタントGrokを悪用した今回の件も、まさにその最たる例です。
AI全盛の今、対話型AIを自身のパートナーとして活用している方も多いかと思いますが、無闇に信じたりせず、まず情報を精査することを心がけることが大切ですね。