En bref
- Des chercheurs de Cambridge, d'Édimbourg et de Strathclyde ont analysé 97 895 fils de discussion sur des forums de cybercriminalité publiés après le lancement de ChatGPT.
- Les outils de « Dark AI » comme WormGPT ont suscité un certain engouement, mais n'ont produit presque aucun malware fonctionnel, tandis que les chatbots débridés sont de plus en plus difficiles à maintenir opérationnels plus de quelques jours.
- Le crime piloté par l'IA le plus mesurable n'est pas le piratage. C'est le spam SEO produit en masse, les arnaques sentimentales et les nus générés par IA vendus un dollar pièce.
Depuis trois ans, les entreprises de cybersécurité, les gouvernements et les laboratoires d'IA ont averti que l'IA générative allait libérer une nouvelle génération de hackers surpuissants. Selon un nouvel article académique qui a réellement examiné la situation, ces hackers surpuissants utilisent surtout ChatGPT pour écrire du spam et générer des nus pour le plaisir.
L'étude, intitulée Stand-Alone Complex or Vibercrime?, a été publiée sur arXiv par des chercheurs de Cambridge et d'autres universités, et vise à comprendre comment le milieu souterrain de la cybercriminalité adopte réellement l'IA, et non pas ce que les éditeurs de cybersécurité en disent.
« Nous présentons ici l'une des premières tentatives d'une étude empirique à méthodes mixtes sur les premiers modèles d'adoption de l'IA générative dans le milieu souterrain de la cybercriminalité », ont écrit les chercheurs.
L'équipe a analysé 97 895 fils de discussion publiés après le lancement de ChatGPT en novembre 2022, tirés du jeu de données CrimeBB du Cambridge Cybercrime Centre, regroupant des forums souterrains et du dark web. Ils ont exécuté des modèles thématiques, lu manuellement plus de 3 200 fils de discussion et se sont immergés ethnographiquement dans la scène.
La conclusion est peu flatteuse pour la communauté du « AI doom » : 97,3 % des fils de l'échantillon ont été classés comme « autres », c'est-à-dire ne portant pas réellement sur l'utilisation de l'IA à des fins criminelles. Seulement 1,9 % impliquaient quelqu'un utilisant des outils de vibe coding.
« Rien de plus qu'un ChatGPT sans restrictions »
Vous souvenez-vous de WormGPT, FraudGPT et de la vague de chatbots supposément malveillants qui ont envahi les manchettes en 2023 ? Les données des forums racontent une tout autre histoire.
La plupart des publications sur les produits « Dark AI », ont constaté les chercheurs, provenaient de personnes mendiant un accès gratuit, de spéculations oisives et de plaintes indiquant que les outils ne fonctionnaient pas vraiment. Un développeur d'un service Dark AI populaire a finalement admis aux membres du forum que le produit était un exercice marketing.
« En fin de compte, [CybercrimeAI] n'est rien de plus qu'un ChatGPT sans restrictions », a écrit le développeur, avant que le projet ne ferme. « N'importe qui sur Internet peut utiliser une technique de jailbreak bien connue et obtenir les mêmes résultats, voire de meilleurs. »
Fin 2024, affirment les chercheurs, les jailbreaks pour les modèles grand public étaient devenus jetables. La plupart cessent de fonctionner en une semaine ou moins. Les modèles open source peuvent être débridés indéfiniment, mais ils sont lents, gourmands en ressources et figés dans le temps.
« Les garde-fous des systèmes d'IA s'avèrent à la fois utiles et efficaces », concluent les auteurs, dans ce qu'ils qualifient eux-mêmes de constat contre-intuitif pour un article critique.
Le vibe coding est réel. Le vibe hacking, en grande partie, ne l'est pas
L'article aborde directement le rapport d'Anthropic d'août 2025, très médiatisé, affirmant que Claude Code avait été utilisé pour mener une campagne d'extorsion par « vibe hacking » contre 17 organisations. Les données de l'équipe de Cambridge ne montrent tout simplement pas ce schéma dans le milieu souterrain au sens large.
Dans les forums qu'ils ont étudiés, les assistants de codage IA sont utilisés de la même manière que les développeurs grand public les utilisent : comme des outils d'autocomplétion et des substituts à Stack Overflow pour des codeurs déjà qualifiés. Les acteurs peu qualifiés s'en tiennent aux scripts préfabriqués, parce que les scripts préfabriqués fonctionnent.
Les chercheurs ont constaté que même les hackers ne font pas confiance à leurs outils de piratage codés par vibe. « Le codage assisté par IA est une arme à double tranchant. Il accélérera le développement, mais amplifie également les risques tels que le code non sécurisé et les vulnérabilités de la chaîne d'approvisionnement », a déclaré un utilisateur dans un forum surveillé par les chercheurs.
Un autre a mis en garde contre la perte de compétences à long terme : « Il est maintenant clair que l'utilisation de l'IA pour le code entraîne une dégradation négative très rapide de vos compétences », a écrit un hacker dans un forum, « Si votre objectif est simplement de produire des arnaques SaaS et que vous ne vous souciez pas de la qualité/sécurité/performance du code, il peut être viable de faire du vibe code. (Semble également viable pour l'hameçonnage). »
Cela contraste fortement avec les prévisions alarmistes d'Europol, qui avait averti en 2025 qu'une IA entièrement autonome pourrait un jour contrôler des réseaux criminels.
Là où l'IA aide réellement les criminels
La perturbation, quand elle se manifeste, se situe au bas de la chaîne alimentaire.
Les escrocs SEO utilisent des LLM pour produire en masse du spam de blogs afin de compenser la baisse des revenus publicitaires. Les arnaqueurs sentimentaux et les opérateurs d'eWhoring intègrent le clonage vocal et la génération d'images. Les chasseurs d'argent facile produisent à la chaîne des eBooks rédigés par IA pour les vendre 20 $ pièce.
Le marché le plus troublant que les chercheurs ont trouvé concernait les services de génération d'images de nus. Un opérateur faisait la publicité suivante : « Je suis capable de rendre n'importe quelle fille nue avec une IA… 1 image = 1 $, 10 images = 8 $, 50 images = 40 $, 90 images = 75 $. »
Rien de tout cela n'est de la cybercriminalité sophistiquée. C'est la même arnaque à faible marge et à fort volume qui a alimenté l'industrie du spam pendant deux décennies, fonctionnant désormais sur des outils légèrement améliorés.
L'observation finale des chercheurs est la plus pertinente. La plus grande façon dont l'IA finit par perturber l'écosystème de la cybercriminalité, suggèrent-ils, n'est peut-être pas de rendre les criminels plus capables. Ce pourrait être en poussant des développeurs licenciés du secteur technologique légitime vers le milieu souterrain à la recherche de travail.
« Ces derniers mois, l'anxiété liée à la perturbation du marché du travail par ces outils augmente de façon précipitée », indique l'article. « Cela pourrait finir par être la façon la plus importante dont les outils d'IA générative perturbent l'écosystème de la cybercriminalité — des licenciements massifs, un ralentissement économique et un marché de l'emploi morose poussant des développeurs légitimes et plus qualifiés vers les communautés souterraines de combines pour s'enrichir rapidement, de fraude et de cybercriminalité. »
Newsletter Daily Debrief
Commencez chaque journée avec les principales actualités du moment, ainsi que des articles originaux, un podcast, des vidéos et bien plus encore.
Source: https://decrypt.co/366855/cybercrime-hacking-ai-study







