概要
- ケンブリッジ、エジンバラ、ストラスクライドの研究者らが、ChatGPT公開後に投稿されたサイバー犯罪フォーラムのスレッド97,895件を分析した。
- WormGPTのような「ダークAI」ツールは話題を集めたが、実際に機能するマルウェアはほとんど生み出せず、ジェイルブレイクされたチャットボットは数日以上動作し続けることがますます困難になっている。
- AI 駆動の犯罪として最も規模が大きいのはハッキングではない。大量生産されたSEOスパム、ロマンス詐欺、そして1枚1ドルで販売されるAI生成ヌード画像だ。
この3年間、サイバーセキュリティ企業、政府機関、AIラボは、生成AIが新世代の強化されたハッカーを解き放つと警告し続けてきた。しかし実際に調査した新たな学術論文によれば、その強化されたハッカーたちは主にChatGPTを使ってスパムを書いたり、遊びでヌード画像を生成したりしているにすぎない。
「Stand-Alone Complex or Vibercrime?」と題されたこの研究は、ケンブリッジ大学をはじめとする複数の大学の研究者らによってarXivに公開され、サイバー犯罪アンダーグラウンドが実際にAIをどのように取り入れているのかを、サイバーセキュリティベンダーの主張ではなく実態から理解することを目的としている。
「ここでは、サイバー犯罪アンダーグラウンドにおけるGenAI導入の初期パターンについて、混合研究法による実証研究の初の試みの一つを提示する」と研究者らは記している。
チームは、2022年11月のChatGPT公開後に投稿されたフォーラムスレッド97,895件を分析した。データはケンブリッジサイバー犯罪センターのCrimeBBデータセットから取得したアンダーグラウンドおよびダークウェブフォーラムのものだ。トピックモデルを実行し、3,200件以上のスレッドを手動で読み、エスノグラフィー的にその世界に没入した。
結論はAI脅威論者コミュニティにとって芳しくないものだ。サンプル中のスレッドの97.3%は「その他」に分類され、実際にはAIを犯罪に利用する内容ではなかった。バイブコーディングツールを使用していたのはわずか1.9%だった。
「制限なしのChatGPTに過ぎない」
WormGPT、FraudGPT、そして2023年に見出しを賑わせた悪意あるチャットボットの波を覚えているだろうか?フォーラムのデータは異なる実態を語っている。
研究者らが発見したのは、「ダークAI」製品に関する投稿の大半が、無料アクセスを求める懇願、根拠のない憶測、そしてツールが実際に機能しないという不満であったということだ。人気のあるダークAIサービスの開発者の一人は、最終的にフォーラムのメンバーに対し、そのプロダクトはマーケティング目的のものだったと認めた。
「結局のところ、[CybercrimeAI]は制限なしのChatGPTに過ぎない」と開発者はプロジェクト終了前に記した。「インターネット上の誰でも、よく知られたジェイルブレイク技術を使えば、同等かそれ以上の結果を得られる。」
研究者らによれば、2024年末までに主流モデルのジェイルブレイクは使い捨て同然になったという。ほとんどは1週間以内に機能しなくなる。オープンソースモデルは無期限にジェイルブレイク可能だが、動作が遅く、リソースを大量に消費し、時代遅れになっている。
「AIシステムのガードレールは有用かつ効果的であることが証明されつつある」と著者らは結論付けており、これ自体を批判的論文における反直感的な発見と自ら表現している。
バイブコーディングは現実だ。バイブハッキングは、ほぼそうではない
この論文は、Claude Codeが17の組織を標的にした「バイブハッキング」恐喝キャンペーンに使われたと主張するAnthropicの2025年8月のレポートに直接言及している。ケンブリッジチームのデータは、より広いアンダーグラウンドでそのようなパターンを単純には示していない。
研究者らが調査したフォーラムでは、AIコーディングアシスタントは主流の開発者と同じように使われている。つまり、すでにスキルを持つコーダーにとってのオートコンプリートやStack Overflowの代替としてだ。スキルの低い行為者は既製のスクリプトを使い続けている。それが機能するからだ。
研究者らは、ハッカーでさえ自分たちのバイブコーディングで作ったハッキングツールを信頼していないことを発見した。「AIを活用したコーディングは諸刃の剣だ。開発を加速させる一方で、安全でないコードやサプライチェーンの脆弱性といったリスクも増幅させる」と、研究者らが監視するフォーラムであるユーザーが述べた。
別のユーザーは長期的なスキル低下について警告した。「AIをコードに使うと、スキルが非常に速く劣化することが今や明らかだ」とあるハッカーはフォーラムに書いた。「SaaSの詐欺を量産することだけが目的で、コードの品質・セキュリティ・パフォーマンスを気にしないなら、バイブコードは成り立つかもしれない。(フィッシングにも使えそうだ。)」
これは、完全自律型AIがいつか犯罪ネットワークを支配する可能性があると2025年に警告したEuropolの警鐘的な予測とは鮮明な対照をなしている。
AIが実際に犯罪者を助けている分野
混乱が生じているのは、食物連鎖の底辺においてだ。
SEO詐欺師はLLMを使ってブログスパムを大量生産し、減少する広告収益を追い求めている。ロマンス詐欺師やeWhoring業者はボイスクローニングと画像生成を組み合わせている。一攫千金を狙う詐欺師は、1冊20ドルで売るためのAI執筆eBookを量産している。
研究者らが発見した最も不穏な市場は、ヌード画像生成サービスに関するものだった。あるオペレーターはこう広告した。「AIを使えばどんな女性もヌードにできます…写真1枚=1ドル、10枚=8ドル、50枚=40ドル、90枚=75ドル。」
これは洗練されたサイバー犯罪ではない。20年にわたってスパム産業を支えてきた、低利益率・高ボリュームの同じ手口が、わずかに優れたツールで動いているにすぎない。
研究者らの締めくくりの考察が最も鋭い。AIがサイバー犯罪エコシステムを最終的に混乱させる最大の要因は、犯罪者をより有能にすることではないかもしれないと彼らは示唆する。むしろ、正規のテック業界からレイオフされた開発者たちが仕事を求めてアンダーグラウンドに流れ込むことかもしれない。
「ここ数ヶ月、こうしたツールによる労働市場の混乱への不安は急速に高まっている」と論文は述べている。「これが、生成AIツールがサイバー犯罪エコシステムを混乱させる最も重要な方法となり得る。大量解雇、景気後退、冷え込んだ雇用市場が、正規のより高いスキルを持つ開発者を一攫千金スキーム、詐欺、サイバー犯罪のアンダーグラウンドコミュニティへと追いやるのだ。」
Daily Debrief ニュースレター
毎日、今最も重要なニュースに加え、オリジナル特集、ポッドキャスト、動画などをお届けします。
Source: https://decrypt.co/366855/cybercrime-hacking-ai-study








