|
EN BREF
|
Une récente analyse menée par l’université d’Édimbourg révèle que les cybercriminels tentent d’intégrer l’intelligence artificielle (IA) dans leurs activités, mais rencontrent des déceptions. L’étude, qui a examiné plus de 100 millions de messages de forums clandestins, constate que bien qu’il y ait un intérêt pour l’apprentissage des outils d’IA, ceux-ci n’ont pas significativement modifié leurs méthodes de travail. Les chercheurs n’ont trouvé aucun indice que les pirates avaient réussi à utiliser l’IA pour améliorer leurs efforts, certains outils étant jugés peu utiles pour les tâches complexes comme la pénétration d’appareils ou le contournement de dispositifs de sécurité. Les résultats indiquent que même les hackers expérimentés se sont tournés vers des produits d’IA légitimes pour des questions de programmation, mais peinent à contourner les protections mises en place.
Une récente étude publiée par l’université d’Édimbourg analyse des millions de messages échangés sur des forums de cybercriminalité et met en lumière le rapport mitigé des cybercriminels envers l’intelligence artificielle (IA). Malgré un intérêt marqué pour l’apprentissage des outils d’IA, ces derniers ne transforment pas significativement leur modus operandi, apportant plutôt une déception quant à leur efficacité dans le cadre de l’activisme illicite.
Une étude révélatrice sur l’utilisation de l’IA par les cybercriminels
Les chercheurs ont étudié plus de 100 millions de messages issus de la base de données CrimeBB, qui regroupe des informations provenant de forums clandestins. À travers cette analyse, il est devenu évident que, bien que les cybercriminels cherchent à intégrer l’IA dans leurs opérations, ils rencontrent des difficultés à tirer profit de cette technologie. Les résultats montrent que la plupart des discussions faites par ces individus évoquent une déception face à l’utilité des outils d’IA.
Une approche méthodologique double
Pour mener cette étude, les chercheurs ont combiné une analyse manuelle avec l’assistance d’un grand modèle de langage (LLM). Cette méthode a permis d’obtenir une vision globale des perceptions et des attentes des cybercriminels à l’égard des outils d’intelligence artificielle. Ainsi, bien que ces derniers montrent un intérêt pour l’utilisation de l’IA, cela ne s’est pas traduit par des avancées significatives dans leurs activités criminelles.
Un intérêt non transformé par l’IA
L’un des points majeurs soulignés par l’étude est le fait que, malgré leur curiosité pour l’IA, les cybercriminels n’ont pas trouvé d’applications pratiques qui répondent à leurs besoins. Les nombreux échanges sur les forums indiquent que les outils d’IA ne sont pas perçus comme des solutions améliorant l’efficacité des attaques cybercriminelles. Ces outils sont souvent décrits comme « pas particulièrement utiles ».
Des outils d’IA utiles uniquement pour les expérimentés
Il a été observé que les assistants de programmation basés sur l’IA ont tendance à être plus bénéfiques pour ceux qui possèdent déjà une certaine expérience en programmation. Les messages analysés dans l’étude suggèrent qu’une compréhension préalable des bases du codage est nécessaire pour réellement tirer parti de l’intelligence artificielle. Les cybercriminels débutants, en revanche, peinent à bénéficier de ces technologies avancées.
Les impacts réels de l’IA sur la cybercriminalité
L’étude met également en lumière que l’impact le plus significatif de l’IA dans le domaine de la cybercriminalité se limite à des tâches simples et faciles à automatiser. Par exemple, la création de bots sur les réseaux sociaux, des escroqueries et des fraudes en ligne, ainsi que la mise en place de faux sites internet pour générer des revenus publicitaires représentent les principales applications. Ces usages ne nécessitent pas l’expertise que la majorité des cybercriminels ne possèdent pas.
Difficultés à accéder aux outils avancés
De nombreux cybercriminels s’efforcent de contourner les limitations imposées par les modèles d’IA grand public, mais ils se heurtent à des écueils constant. Ce phénomène soulève une question essentielle : pourquoi ces pirates sont-ils incapables d’exploiter les potentialités de l’IA ? L’étude suggère que les systèmes mis en place par les entreprises d’IA, qui visent à protéger leurs produits, semblent fonctionner efficacement pour limiter les abus par les cybercriminels.
Retour aux anciens outils
Face à ces difficultés croissantes, les acteurs du cybercrime sont de plus en plus contraints de se tourner vers d’anciens modèles d’IA open source. Ces outils, bien que moins sophistiqués, sont plus accessibles mais restent également moins efficaces. Leur usage nécessite des ressources importantes, ce qui limite encore davantage leur efficacité dans le cadre des activités criminelles.
Viser les modèles légitimes plutôt que les outils dédiés aux cybercriminels
Les chercheurs ont constaté que les cybercriminels optent souvent pour des produits d’IA reconnus et légitimes, tels que Claude d’Anthropic ou Codex d’OpenAI, au lieu des modèles spécifiquement conçus pour la cybercriminalité. Cela soulève des interrogations sur la disponibilité et l’utilité des modèles pensés pour faciliter les activités illicites, comme WormGPT, qui visent à produire des contenus malveillants.
Les témoignages des cybercriminels
Les témoignages recueillis dans le cadre de cette étude révèlent que même les hackers les plus aguerris recourent aux chatbots pour obtenir des réponses à des questions techniques liées à leur pratique. Ces échanges mettent en avant une tendance à rechercher des antisèches qui leur permettront de mieux coder. Toutefois, cela souligne également leur dépendance à des technologies qu’ils n’ont pas pleinement maîtrisées.
Les limitations des outils d’IA
Les retours d’expérience des cybercriminels montrent que, malgré la capacité de l’IA à traiter une quantité énorme de données et à automatiser certaines tâches, les limitations restent notables. En effet, ces outils exigent des prérequis en matière de connaissances techniques, ce qui représente une barrière pour de nombreux individus. Les points soulevés dans l’étude laissent entendre qu’un fossé subsiste encore entre les avancées technologiques et leur application réelle dans des démarches criminelles. Cela laisse entrevoir que l’IA, pour l’instant, n’est pas le générateur de changement qui pourrait bouleverser le secteur.
Les garde-fous en place
L’absence d’efficacité de l’IA dans les pratiques de cybercriminalité peut également être attribuée aux garde-fous installés par les entreprises qui développent ces technologies. Ces mesures de sécurité sont mises en place pour éviter les abus et semblent fonctionner, du moins à ce jour. Les cybercriminels doivent donc redoubler d’efforts pour tenter de contourner ces protections, ce qui les amène à des solutions moins efficaces.
Un futur incertain pour l’IA dans le domaine illégal
Alors qu’ils continuent d’exploiter les outils d’IA, les cybercriminels semblent être à la recherche de solutions plus efficaces pour améliorer leurs opérations. Ce questionnement sur la capacité de l’intelligence artificielle à répondre à leurs attentes laisse apparaître un certain désespoir. Il demeure à déterminer si, avec la maturation des technologies, l’IA parviendra à s’imposer comme un atout dans ce secteur, ou si les défis à relever resteront insurmontables.
Les avenues à explorer pour les cybercriminels
Au fur et à mesure que les recherches avancent et que les technologies évoluent, il est impératif pour les cybercriminels de redéfinir leur approche envers l’IA. Ils devront explorer de nouvelles avenues, ajuster leurs stratégies et se former afin de ne pas se cantonner à des méthodes dépassées. Ce constat soulève la question de l’avenir de la cybercriminalité à l’ère de l’IA : faudra-t-il innover ou rester figé face aux progrès technologiques ?
Un domaine en constante évolution
La vitesse à laquelle les technologies évoluent, en particulier dans le domaine de l’intelligence artificielle, pousse les acteurs du cybercrime à réfléchir sur leurs choix stratégiques. Alors que l’IA continue de s’implanter dans divers secteurs, elle pourrait devenir un catalyseur d’innovation même dans le milieu criminel. Cependant, la caution de l’éthique et des implications légales risque de se poser comme un frein à certains usages de ces avancées.
Pour plus d’informations sur le sujet, vous pouvez consulter les articles suivants : « Une étude révèle que l’IA ne répond pas aux attentes des cybercriminels » et « Le SEO : la nouvelle stratégie des hackers pour s’immiscer dans le web ».
Selon une étude récente de l’université d’Édimbourg, les cybercriminels montrent un intérêt croissant pour l’intégration de l’intelligence artificielle (IA) dans leurs activités, mais cette technologie ne semble pas répondre à leurs attentes. Malgré l’analyse de plus de 100 millions de messages provenant de forums clandestins, les conclusions indiquent que l’IA n’a pas transformé leur manière de travailler.
De nombreux échanges sur ces forums décrivent les outils d’IA comme étant inefficaces. Les chercheurs ont constaté qu’aucune preuve tangible n’indiquait que ces acteurs malveillants avaient réussi à exploiter l’IA pour améliorer leurs compétences ou créer des outils plus performants. Certains témoignages affirment qu’il est essentiel d’apprendre les bases de la programmation avant d’espérer tirer profit de l’IA.
Les retours d’expérience révèlent que même les hackers les plus expérimentés n’utilisent l’IA que pour des tâches simples, telles que la création de bots ou certaines escroqueries sentimentales. Cela suggère que l’impact de l’IA sur les activités illégales se limite à des domaines faciles à automatiser, laissant peu de place à l’innovation.
Il est intéressant de noter que les outils d’IA utilisés par ces cybercriminels sont généralement des produits grand public et légitimes, comme Claude d’Anthropic ou Codex d’OpenAI. En revanche, ils montrent une réelle difficulté à contourner les garde-fous de ces technologies. Cette incapacité les pousse à se tourner vers de vieux modèles d’IA open source, qui, bien que moins sophistiqués, leur semblent plus accessibles.
Les chercheurs soulignent que le système de sécurité mis en place par les entreprises d’IA fonctionne, ce qui explique la déception grandissante des cybercriminels face à leur incapacité à exploiter ces technologies avancées. Les messages échangés dans ces forums témoignent d’une quête incessante de moyens pour désactiver les protections, mais les résultats restent peu satisfaisants.
