L’essor de l’intelligence artificielle (IA) a non seulement révolutionné notre façon de vivre et de travailler, mais a également présenté une nouvelle frontière pour la cybercriminalité. Avec l’avènement des outils de piratage basés sur l’IA, la cybercriminalité est devenue plus sophistiquée et plus difficile à contrer. Cette innovation a été mise en valeur de manière alarmante par le développement de deux outils incroyables : FraudGPT et WormGPT.

FraudGPT et WormGPT représentent une nouvelle vague d’outils de piratage basés sur l’IA conçus pour les activités malveillantes. Nés de la tendance plus large de l’application de l’IA dans la technologie, ces outils ont trouvé leur niche dans les coins les plus sombres du Web, où ils sont utilisés pour mener une variété d’activités illicites avec une efficacité alarmante.

FraudGPT est un outil piloté par l’IA, présenté comme un « bot sans limites, règles ni limites ». Il est vendu sur la base d’un abonnement sur le Dark Web. Il aide les pirates informatiques à mener leurs activités, en fournissant des services allant de l’élaboration de campagnes de phishing à la génération de code malveillant et à la recherche de vulnérabilités.

De même, WormGPT est un autre outil de piratage piloté par l’IA commercialisé dans le paysage de la cybercriminalité. C’est un outil d’IA générative aidant les criminels à concevoir des escroqueries convaincantes par e-mail professionnel (BEC). L’outil a une totale absence d’éthique. C’est une arme alarmante pour les cybercriminels.

Le paysage de la cybercriminalité s’est continuellement adapté et transformé parallèlement aux progrès technologiques. Il n’est pas surprenant que l’essor de l’intelligence artificielle ait également profondément affecté ce domaine. La cybercriminalité, comme tout autre domaine, cherche à tirer parti du potentiel de l’IA pour accroître l’efficacité, la portée et l’impact de ses actions.

L’application de l’IA dans la cybercriminalité a commencé par des tâches relativement simples telles que l’automatisation d’actions répétitives, l’augmentation de la vitesse et de l’ampleur des attaques ou l’orchestration d’attaques multiétapes plus complexes. Cependant, l’entrée de l’IA générative dans ce domaine a considérablement augmenté la sophistication de la cybercriminalité.

Les modèles d’IA générative, entraînés sur de grands volumes de données, sont capables de créer du texte de type humain basé sur des requêtes, ce qui les rend très efficaces pour des tâches telles que le spear phishing ou les escroqueries par e-mail professionnel (BEC). Ils peuvent générer des e-mails convaincants qui incitent les victimes à cliquer sur des liens malveillants ou à donner des informations sensibles, ce qui rend les cyberdéfenses traditionnelles moins efficaces.

L’avènement d’outils comme FraudGPT et WormGPT représente une nouvelle étape dans cette évolution. Ces outils sont spécialement conçus pour faciliter un large éventail d’activités illégales, de la création d’e-mails de phishing convaincants à la génération de code malveillant ou à la création de logiciels malveillants indétectables. Le fait que ces outils soient basés sur un abonnement et disponibles dans le commerce sur le Dark Web est le signe d’une démocratisation de la cybercriminalité, permettant même à des criminels peu qualifiés de lancer des attaques sophistiquées.

Bien que ces outils illustrent le potentiel d’utilisation malveillante de l’IA, il est important de se rappeler que l’IA peut également être un allié puissant dans la lutte contre la cybercriminalité. Les mêmes avancées qui génèrent ces nouvelles menaces renforcent également les outils de cybersécurité avec des capacités de détection et de réponse améliorées. Dans la suite de cet article, nous explorerons les spécificités du fonctionnement de FraudGPT et WormGPT et des menaces qu’ils représentent.

FraudGPT est un outil d’IA générative conçu pour aider les cybercriminels dans leurs activités illégales. Opérant dans le Dark Web, il exploite les mêmes capacités technologiques qui ont rendu les chatbots d’IA si populaires et les applique à des fins néfastes. Cet outil va au-delà de la simple automatisation et offre plutôt une génération de texte de type humain qui peut créer des messages très convaincants pour le phishing et d’autres escroqueries par courrier électronique.

Fait intéressant, FraudGPT a adopté une approche commerciale digne d’une startup de la tech et du growth-marketing pour sa distribution. Il est vendu sur la base d’un abonnement, avec des tarifs commençant à 200 $ par mois et allant jusqu’à 1 700 $ par an. Ce type de modèle de tarification permet à un large éventail de cybercriminels d’utiliser des capacités avancées d’IA, tout en illustrant la professionnalisation croissante de la cybercriminalité.

FraudGPT a été commercialisé comme un outil polyvalent pour une variété d’activités criminelles. Celles-ci vont de l’écriture de code malveillant et de la création de logiciels malveillants indétectables, à la création de pages de phishing convaincantes et de mails frauduleux. Il peut également aider à localiser les groupes de pirate, les sites et les marchés, et aider les utilisateurs à trouver des fuites et des vulnérabilités. En substance, FraudGPT est présenté comme un ensemble d’outils complet pour les cybercriminels en herbe ou établis.

Bien que les détails des cas individuels restent confidentiels en raison de la nature illicite de l’utilisation de FraudGPT, il ressort clairement du matériel promotionnel et des critiques sur le Dark Web que l’outil a été efficace pour aider les cybercriminels. Par exemple, dans le domaine du phishing, la capacité de FraudGPT à générer des e-mails persuasifs et hyper-réalistes aurait conduit à des escroqueries réussies, incitant les destinataires à cliquer sur des liens malveillants. Il a également été utilisé pour générer rapidement du code malveillant, augmentant encore la vitesse et l’ampleur des cyberattaques.

WormGPT est un autre outil d’IA puissant qui bouleverse le monde de la cybercriminalité. Comme FraudGPT, il s’agit d’un outil d’IA générative, mais dont l’objectif principal est de faciliter les escroqueries par e-mail professionnel (BEC). En substance, WormGPT offre un coup de pouce technologique aux cybercriminels manquant de finesse linguistique, en les aidant à élaborer des messages BEC convaincants qui peuvent tromper même les individus les plus vigilants.

Bien que WormGPT et FraudGPT soient des outils basés sur l’IA conçus pour la cybercriminalité, ils diffèrent par leurs applications spécifiques. WormGPT se concentre principalement sur les escroqueries BEC, générant un contenu qui semble urgent et important, se faisant souvent passer pour un cadre supérieur dans une entreprise. FraudGPT, d’autre part, offre un plus large éventail de fonctionnalités malveillantes, y compris le codage de logiciels malveillants, la création de pages de phishing et la rédaction de mails frauduleux.

L’émergence de WormGPT indique une tendance inquiétante dans le monde de la cybercriminalité. Avec la capacité de générer un contenu BEC convaincant, il a effectivement abaissé la barrière à l’entrée pour mener de telles escroqueries. En conséquence, il a élargi le spectre des attaquants potentiels, démocratisant l’accès à des outils BEC sophistiqués.

Dans une démonstration effrayante de ses capacités, les chercheurs ont incité WormGPT à générer un e-mail BEC. L’outil d’IA a généré un e-mail non seulement persuasif, mais aussi stratégiquement rusé, suggérant que le PDG de l’entreprise demandait à un gestionnaire de compte de payer d’urgence une facture. La capacité de WormGPT à élaborer des messages aussi convaincants et stratégiques illustre son potentiel pour faciliter les attaques sophistiquées de phishing et BEC.

Afin de protéger les utilisateurs et de maintenir un impact sociétal positif à leurs produits, de nombreux développeurs d’IA, y compris OpenAI, les créateurs de ChatGPT, ont établi des directives éthiques et des garanties pour leurs outils d’IA. Ces mesures de protection visent à prévenir l’utilisation abusive de la technologie d’IA pour des activités illégales telles que l’hameçonnage ou les escroqueries BEC. Par exemple, ChatGPT est conçu pour rejeter les demandes qui demandent explicitement de l’aide pour créer des mails frauduleux ou d’autres contenus contraires à l’éthique.

Malgré l’existence de ces garanties, les cybercriminels ont découvert des moyens de contourner ces contraintes éthiques. Dans un processus souvent appelé « jailbreak d’IA générative », ces acteurs tirent parti de la nature open source de certains de ces modèles d’IA, comme GPTJ, pour créer des versions sans limites éthiques. Des outils comme FraudGPT et WormGPT représentent le résultat troublant de ce processus.

FraudGPT et WormGPT sont deux exemples clairs de jailbreak d’IA générative. Les créateurs de ces outils ont effectivement « jailbreaké » les contraintes éthiques trouvées dans les modèles originaux. Par exemple, alors que ChatGPT rejetterait une demande de composition d’un e-mail frauduleux BEC, WormGPT prend cette tâche sans scrupules et avec une efficacité alarmante. FraudGPT est également débridé, offrant un large éventail de services illicites, allant de l’écriture de code malveillant à la génération de mails d’escroquerie persuasifs.

L’avènement des outils d’IA sans limites éthiques représente une nouvelle frontière dans la cybercriminalité, avec des implications potentiellement profondes pour la cybersécurité. À mesure que de plus en plus de personnes accèdent à ces outils d’IA avancés, le paysage des cybermenaces pourrait devenir plus diversifié et plus complexe, nécessitant de nouvelles stratégies et tactiques pour assurer une défense efficace.

La démocratisation des technologies avancées d’IA ouvre la porte à un plus large éventail de personnes faiblement compétentes techniquement, qui peuvent maintenant exécuter des attaques sophistiquées. Cet accès présente un risque important car il pourrait potentiellement entraîner une augmentation du volume de la cybercriminalité, aggravant les défis auxquels sont confrontés les professionnels de la cybersécurité.

Les escroqueries BEC sont déjà un problème considérable, représentant des milliards de dollars de pertes chaque année. L’avènement d’outils d’IA capables de générer des mails frauduleux BEC convaincants pourrait potentiellement amplifier ce problème. Étant donné que ces outils d’IA peuvent créer des e-mails avec un degré alarmant de sophistication et de stratégie, le risque pour les entreprises est considérable.

Les outils d’IA générative permettent également aux attaquants d’opérer à une vitesse et à une échelle plus grandes. Grâce à ces technologies d’IA, les acteurs de la menace peuvent désormais générer rapidement des campagnes de phishing et les lancer simultanément, ce qui peut submerger les défenses de cybersécurité conventionnelles.

La capacité de ces outils d’IA à créer du code malveillant ou même des logiciels malveillants indétectables présente un autre risque majeur. La capacité de générer des logiciels malveillants uniques et personnalisés pourrait augmenter le taux de réussite des attaques et les rendre plus difficiles à détecter, compliquant ainsi la tâche des experts en cybersécurité.

Malgré la sophistication des tentatives de phishing basées sur l’IA, les caractéristiques fondamentales d’une campagne de phishing ne changent pas. Par conséquent, les protections traditionnelles restent cruciales. Les systèmes de réputation qui détectent les expéditeurs non authentiques, tels que les domaines typosquattés ou les comptes de messagerie Web gratuits utilisés pour envoyer des factures, peuvent continuer à être efficaces pour identifier et contrecarrer les tentatives de phishing.

L’utilisation d’une stratégie de défense en profondeur permet plusieurs niveaux de contrôles de sécurité au sein d’un système informatique. Cette approche est plus efficace pour se défendre contre un large éventail de cybermenaces et peut minimiser l’impact potentiel d’un seul point de défaillance.

L’application d’analyses rapides sur la télémétrie de sécurité peut fournir aux organisations une détection rapide des menaces potentielles, y compris les attaques de phishing activées par l’IA. Bien qu’il ne soit pas nécessaire de détecter chaque action d’un attaquant, il est essentiel d’identifier les activités suspectes avant les dernières étapes d’une attaque, telles que l’activation d’un ransomware ou l’exfiltration de données.

Comme le dit le proverbe, « combattre le feu par le feu ». L’utilisation d’outils de sécurité basés sur l’IA peut être efficace pour contrer les menaces activées par l’IA. Grâce aux capacités de reconnaissance des formes de l’IA, ces outils peuvent être formés pour détecter les signes subtils d’activité suspecte qui pourraient être manqués par les méthodes traditionnelles.

Les programmes de sensibilisation à la cybersécurité doivent être mis à jour pour inclure des informations sur les risques d’attaques d’hameçonnage basées sur l’IA. À mesure que la sophistication de ces attaques augmente, la sensibilisation et l’éducation des utilisateurs doivent également augmenter. En effet, peu importe à quel point les systèmes de sécurité deviennent avancés, les humains sont souvent le maillon faible de la cybersécurité.

Comme nous l’avons vu, le paysage de la cybercriminalité évolue rapidement, les outils de piratage basés sur l’IA tels que FraudGPT et WormGPT jouant un rôle de plus en plus important. À l’avenir, il est clair que ce rôle de l’IA dans la cybercriminalité ne fera que croître. Au fur et à mesure que ces outils deviennent plus avancés, les tactiques utilisées par les cybercriminels le seront également. Les développements potentiels pourraient inclure des systèmes d’IA capables d’identifier et d’exploiter de manière autonome les vulnérabilités, ou de mener des attaques à grande échelle avec un minimum d’intervention humaine.

Cette évolution de la cybercriminalité souligne le besoin impérieux pour le secteur de la cybersécurité de rester vigilant. Aujourd’hui plus que jamais, il est nécessaire de disposer de défenses robustes et basées sur l’IA, capables de contrer ces menaces émergentes. Les professionnels de la cybersécurité doivent anticiper et se préparer à ces défis, en investissant dans des solutions avancées basées sur l’IA et en innovant continuellement pour garder une longueur d’avance sur les attaquants potentiels.

En outre, une compréhension et une sensibilisation plus larges de ces questions sont cruciales. Alors que l’IA est de plus en plus ancrée dans nos vies numériques, il est essentiel que le public soit informé des risques potentiels et des mesures de protection. Les personnes et les organisations doivent connaître les menaces auxquelles elles font face et les mesures qu’elles peuvent prendre pour se protéger.

Bien que l’émergence d’outils de cybercriminalité basés sur l’IA présente un défi important, elle offre également une opportunité pour le secteur de la cybersécurité. En adoptant les mêmes avancées technologiques que ces outils, nous pouvons développer des défenses de plus en plus sophistiquées. Malgré la complexité croissante du paysage des cybermenaces, cette industrie reste déterminée à protéger les utilisateurs et à lutter contre la cybercriminalité.

Sources:

Revue technologique du MIT

https://www.technologyreview.com/2017/04/11/5113/the-dark-secret-at-the-heart-of-ai/

Le manuel d’éthique de l’IA d’Oxford

https://global.oup.com/academic/product/the-oxford-handbook-of-ethics-of-ai-9780190067397?cc=ro&lang=en&

insideBIGDATA

https://insidebigdata.com/2023/07/28/generative-ai-report-fraudgpt-ai-powered-fraud-begins/