|
EN BREF
|
Une étude récente de l’université d’Édimbourg a révélé que les cybercriminels peinent à intégrer l’intelligence artificielle (IA) dans leurs pratiques. Analyzant plus de 100 millions de messages sur des forums clandestins, les chercheurs ont constaté que bien que ces cybercriminels montrent un intérêt pour l’utilisation de l’IA, cette technologie n’a pas véritablement amélioré leurs activités. Les discussions dans l’étude expriment que de nombreux outils basés sur l’IA sont perçus comme peu utiles. Les résultats indiquent également que même les hackers expérimentés ont des difficultés à tirer profit de l’IA, celle-ci n’étant efficace que pour des tâches simples à automatiser. En conséquence, ils se réfugient souvent vers des modèles d’IA de moindre qualité, qui exigent davantage de ressources.
Étude révèle que l’IA ne répond pas aux attentes des cybercriminels
Une récente étude menée par des chercheurs de l’université d’Édimbourg a mis en lumière les difficultés rencontrées par les cybercriminels dans l’intégration de l’intelligence artificielle (IA) à leurs activités. Bien que ces individus manifestent un intérêt croissant pour les outils d’IA, l’analyse de plus de 100 millions de messages provenant de forums clandestins indique que cette technologie n’a pas véritablement modifié leur approche.
Analyse approfondie des forums clandestins
Les chercheurs se sont basés sur la base de données CrimeBB, qui compile des informations issues des forums de cybercriminalité. À travers une étude combinant méthodes manuelles et utilisation d’un grand modèle de langage (LLM), les résultats montrent que, malgré un engouement pour l’apprentissage des outils d’IA, ces derniers ne répondent pas aux attentes des pirates informatiques.
Les discussions et avis recueillis sur les forums révèlent que beaucoup d’utilisateurs considèrent les outils d’IA comme étant peu utiles. Ces retours d’expériences indiquent un manque de résultats probants dans l’amélioration de leurs compétences ou dans le développement d’outils plus performants. En somme, l’IA ne permet pas aux cybercriminels d’accroître leur efficacité dans des activités illégales.
Difficulté d’adaptation aux nouvelles technologies
Un des enjeux principaux observés dans cette étude est que les cybercriminels doivent d’abord maîtriser les bases de la programmation avant de pouvoir tirer parti de l’intelligence artificielle de manière significative. Un message souvent cité dans l’étude précise que pour vraiment profiter des bénéfices offerts par l’IA, il est essentiel d’apprendre les principes fondamentaux de la programmation. Cette nécessité d’acquérir des compétences préalables constitue une barrière importante.
Il est donc évident que l’IA n’offrira pas un véritable « coup de pouce » pour le piratage ou pour contourner les dispositifs de sécurité si les utilisateurs ne possèdent pas les compétences requises au préalable. Les outils qui prétendent faciliter le développement de compétences en piratage ou l’accès à des techniques avancées se révèlent être peu efficaces pour ceux qui manquent des connaissances fondamentales.
Applications actuelles de l’IA dans le domaine de la cybercriminalité
Bien que l’utilisation de l’IA par les cybercriminels semble limitée, certains domaines d’application commencent tout de même à émerger. Les tâches plus simples et facilement automatisables, telles que la création de bots sur les réseaux sociaux, certaines escroqueries sentimentales ou encore les fraudes liées au référencement (SEO), ont vu l’influence de l’IA. Ces activités représentent les premières étapes d’une automatisation utilisant l’IA de manière efficace.
Par ailleurs, la génération de faux sites web pour manipuler les résultats de recherche et générer des revenus publicitaires s’inscrit également dans la dynamique actuelle. Néanmoins, il est important de noter que la complexité des activités plus avancées reste inaccessibles, du moins pour l’instant.
Le rôle des chatbots et des assistants de programmation
Au sein de la communauté des cybercriminels, les chatbots et assistants de programmation basés sur l’IA sont convoités pour leurs conseils sur des questions de codage. Toutefois, les retours d’expérience indiquent qu’en réalité, seuls les hackers expérimentés parviennent à tirer un réel avantage de ces outils. Pour les novices ou ceux moins aguerris, l’utilisation reste limitée.
L’étude met en lumière une tendance selon laquelle les outils grand public, comme Claude ou Codex d’OpenAI, sont plus souvent utilisés que des modèles spécifiquement conçus pour la cybercriminalité, tels que WormGPT. Ce dernier, conçu pour générer du code malveillant ou des courriels d’hameçonnage, n’a pas réussi à percer dans les pratiques courantes en raison des difficultés d’utilisation rencontrées lors de l’élaboration de techniques malicieuses.
Les garde-fous de l’IA face aux cybercriminels
Une autre conclusion importante de cette étude est que les garde-fous mis en place par les entreprises offrant des services d’IA semblent fonctionner efficacement, du moins pour le moment. L’analyse des messages démontre que de nombreux cybercriminels tentent sans succès de contourner les sécurités de ces modèles grand public. Ces limitations obligent les pirates à se tourner vers d’anciens modèles d’IA open source qui, bien que plus accessibles, se révèlent moins efficaces et nécessitent souvent des ressources considérables.
Ce constat cautionne l’idée que les avancées en matière de sécurité et de protection des données rendent plus difficile l’introduction de modèles d’IA dans le monde de la cybercriminalité. Les gardes en place par ces systèmes agissent en effet comme un bouclier qui entrave les tentatives de déverrouillage par des utilisateurs malveillants.
Implications et perspectives d’avenir
Les résultats de l’étude apportent un éclairage nécessaire sur les capacités réelles de l’intelligence artificielle dans le cadre de la cybercriminalité. Alors que les attentes envers l’IA au sein de ce milieu sont élevées, il est clairement établi que beaucoup d’entre eux n’ont pas su adapter leurs techniques pour tirer parti de cette technologie selon les standards contemporains.
Avec l’évolution constante des technologies et des réponses en matière de sécurité, il apparaît crucial que les acteurs de l’industrie technologique continuent de surveiller à la fois l’usage et l’impact de l’IA sur les comportements criminels. Reste à savoir si, dans un futur proche, cette tendance évoluera ou si les hackers devront toujours s’appuyer sur leurs compétences de base pour réussir, sans l’assistance des nouvelles technologies améliorées.
Pour en savoir plus sur la cybercriminalité et ses nouveaux enjeux, on peut se référer à des études complètes telles que le rapport d’Europol sur la menace que représente l’IA dans ce domaine. D’autres ressources utiles incluent l’analyse des opportunités professionnelles autour de l’IA ou encore les stratégies à adopter pour les petites et moyennes entreprises du secteur IT. Ces références sont cruciales pour comprendre les interactions complexes entre technologie, sécurité et criminalité.
Les recherches à long terme pourraient potentiellement apporter des éclaircissements supplémentaires sur ce sujet en évolution rapide. Il sera également essentiel d’étudier comment les cybercriminels s’adapteront et tenteront de surmonter les difficultés posées par les outils d’IA.

Étude révèle que l’IA ne répond pas aux attentes des cybercriminels
Une récente analyse menée par l’université d’Édimbourg met en lumière le désenchantement des cybercriminels face à l’intégration de l’intelligence artificielle (IA) dans leurs opérations illégales. Malgré un intérêt manifeste pour l’utilisation d’outils basés sur l’IA, les résultats de l’étude indiquent que ces technologies n’ont pas bouleversé leur méthodologie de travail.
Les chercheurs ont examiné plus de 100 millions de messages sur des forums clandestins, observant que la majorité des échanges suggèrent que les outils d’IA, comme les assistants de programmation, ne sont jugés pas très utiles par les utilisateurs peu expérimentés. Un message anonyme souligne : « Il faut d’abord apprendre les bases de la programmation par soi-même avant de pouvoir utiliser l’IA et en tirer VRAIMENT profit. » Cette assertion démontre que même les hackers les plus pierces reconnaissent la nécessité d’une connaissance préalable.
L’impact de l’IA sur le milieu cybercriminel semble se limiter à des tâches simples, telles que la création de bots sur les réseaux sociaux ou l’élaboration de fraudes basées sur le référencement (SEO). Cependant, pour des activités nécessitant des compétences plus avancées, l’IA ne semble pas offrir les avantages escomptés. Un témoignage d’un participant à l’étude mentionne que les chatbots sont utilisés davantage comme sources d’information pour des questions de programmation plutôt que comme outils de transformation des pratiques malveillantes.
Ce phénomène pourrait être attribué aux mesures de sécurité mises en place par les entreprises d’IA, qui semblent limiter l’usage de ces technologies pour des fins malveillantes. Les cybercriminels expriment leur frustration face aux difficultés rencontrées pour contourner les garde-fous de ces modèles grand public, souvent au point de retourner vers des modèles d’IA open source moins efficaces et plus accessibles. Un témoin de ce milieu déclare : « Les outils plus anciens exigent des ressources considérables, mais c’est ce que nous avons à notre disposition pour l’instant. »
Ainsi, malgré l’enthousiasme initial pour l’IA, le paysage cybercriminel fait face à un constat amer : la technologie ne répond pas à leurs attentes. Cette situation amène à se questionner sur l’avenir des cybercrimes en lien avec l’évolution continue de l’intelligence artificielle.
