Les experts en cybersécurité mettent en garde que les hackers exploitent des modèles de langage large (LLMs) pour créer des attaques de phishing sophistiquées. Ces outils d'IA permettent la génération de pages de phishing sur-le-champ, rendant potentiellement les arnaques plus dynamiques et plus difficiles à détecter. Cette tendance met en lumière les menaces évolutives en sécurité numérique.
Dans un article récent publié par TechRadar le 26 janvier 2026, l'utilisation de modèles de langage large (LLMs) par les hackers pour développer des techniques de phishing avancées est mise en avant. L'article, intitulé 'Les hackers utilisent des LLMs pour construire la prochaine génération d'attaques de phishing - voici à quoi faire attention', explore comment ces systèmes d'IA pourraient automatiser et personnaliser les efforts de phishing en temps réel. La description pose une question clé : 'Et si une page de phishing était générée sur-le-champ ?'. Cela suggère un passage de sites de phishing statiques à des sites dynamiques, qui pourraient s'adapter aux entrées ou contextes de l'utilisateur, augmentant leur efficacité. Bien que l'extrait disponible ne détaille pas d'exemples spécifiques ou de défenses, l'article vise à informer les lecteurs sur la vigilance face à de telles menaces émergentes. À mesure que les LLMs deviennent plus accessibles, les mesures de cybersécurité doivent évoluer pour contrer les attaques assistées par l'IA, en insistant sur la sensibilisation des utilisateurs et des outils de détection robustes.