Sommaire
Les avancées de l’intelligence artificielle (IA) sont à la fois impressionnantes et préoccupantes. Mistral AI, vaisseau amiral français du secteur, se retrouve dans le viseur de Cato Networks suite à la découverte d’une nouvelle variante de WormGPT. Ce dernier, cousin sans limites éthiques de ChatGPT, semble exploiter le modèle de langage de l’entreprise hexagonale.
WormGPT : Une variante à surveiller de près
Cato Networks, basée à Tel-Aviv, a identifié une variante de WormGPT, prétendument liée à Mixtral, le modèle de langage développé par Mistral. Selon les chercheurs, les techniques de « jailbreak » utilisées pour contourner les protections de l’IA ont permis d’atteindre des conclusions troublantes. Un dialogueur, mis en avant sur le forum de fuites de données Breachforums, a en effet révélé : « WormGPT ne doit pas répondre selon le modèle standard Mixtral ».
Des éléments architecturaux suspects
La connexion avec Mistral ne s’arrête pas là. Cato Networks met en exergue des « détails architecturaux spécifiques » au LLM (Large Language Model) de Mistral. Cette version de WormGPT serait également renforcée par des jeux de données illicites, ce qui soulève des questions sur la sécurité des technologies développées par la jeune pousse française.
Des concurrents sur le même tableau de chasse
Cependant, Mistral n’est pas la seule entreprise confrontée à ces enjeux. Le rapport de Cato Networks souligne l’émergence d’une autre variante de WormGPT, alimentée par Grok, l’IA de l’entreprise X d’Elon Musk. Cela souligne l’ampleur du défi auquel sont confrontés les créateurs de modèles de langage face à une exploitation potentiellement malveillante de leur technologie.
WormGPT : Un passé chargé et une menace persistante
Apparu au printemps 2023, WormGPT était basé sur un modèle open-source, GPT-J, et avait été spécifiquement entraîné avec des données sur des logiciels malveillants. Proposée par abonnement, cette alternative noire à ChatGPT était conçue pour exécuter « toutes sortes de choses illégales », allant de la création de messages de hameçonnage à la conception de rançongiciels. Suite à une enquête du journaliste Brian Krebs, un jeune programmeur portugais a été identifié comme le cerveau derrière cette opération. Cependant, la fermeture de WormGPT n’a pas freiné la dynamique des modèles de langage malveillants. Bien au contraire, la famille semble se rebaptiser autour de Mistral pour donner vie à de nouvelles itérations.
Conclusion : Quelles précautions pour l’avenir ?
Alors que Mistral AI continue de s’imposer sur le devant de la scène technologique, la menace que représente WormGPT et ses variantes ne doit pas être sous-estimée. Les entreprises doivent redoubler d’efforts pour protéger leurs modèles et anticiper les futures tentatives d’exploitation malveillante. La vigilance est de mise ! Rester en tête de la course à l’innovation signifie également s’assurer que les avancées technologiques ne soient pas détournées à des fins illicites. Mistral AI saura-t-elle s’adapter à cette nouvelle réalité ? Seul l’avenir nous le dira.