Les hackers utiliseraient ChatGPT pour améliorer leurs cyberattaques !

Microsoft et OpenAI révèlent que des hackers utilisent désormais des modèles de langage avancés comme ChatGPT pour peaufiner et améliorer leurs cyberattaques existantes.

Hacker
Crédits : 123RF

Dans de nouvelles recherches publiées, Microsoft et OpenAI ont détecté des tentatives de groupes soutenus par la Russie, la Corée du Nord, l’Iran et la Chine qui utilisent des outils comme ChatGPT pour faire des recherches sur leurs cibles, améliorer leurs scripts et construire des techniques d’ingénierie sociale.

Usage pour optimiser les opérations et tromper les cibles

Selon Microsoft, le groupe Strontium, lié aux services de renseignement militaires russes, a été surpris à utiliser des modèles de langage pour comprendre des protocoles de communication par satellite, des technologies d’imagerie radar ainsi que des paramètres techniques spécifiques. De même, le groupe de hackers suspecté, également connu sous les noms APT28 ou Fancy Bear, avait été actif pendant la guerre Russie-Ukraine.

À lire aussi : Ces hackers visent les chercheurs d’emploi IT sur LinkedIn !

Le groupe a utilisé ces modèles pour automatiser des tâches de scripting de base, comme la manipulation de fichiers, la sélection de données, les expressions régulières et le multitraitement, potentiellement pour optimiser leurs opérations techniques d’après Microsoft. Aussi, un groupe nord-coréen de hackers appelé Thallium aurait utilisé ces modèles pour faire des recherches sur des vulnérabilités publiquement rapportées et cibler des organisations. L’entreprise informe que le groupe iranien Curium se serait, lui aussi, servi d’IA pour générer des e-mails de phishing et même du code pour éviter la détection par les antivirus.

Même si l’utilisation de modèles de langage par des hackers est encore limitée, Microsoft met en garde. « La fraude basée sur l’IA constitue une autre préoccupation majeure. La synthèse vocale en est un exemple, où un échantillon vocal de trois secondes peut entraîner un modèle à ressembler à n’importe qui. Même quelque chose d’aussi inoffensif que votre message d’accueil vocal peut être utilisé pour obtenir un échantillon suffisant », explique Microsoft.

Riposte technologique et appel à la vigilance

Bien qu’aucune cyberattaque majeure utilisant l’intelligence artificielle n’ait été détectée, Microsoft et OpenAI ont fermé tous les comptes et actifs associés à ces groupes de hackers. Ils estiment cependant important de publier ces recherches pour exposer les tentatives précoces de menaces bien connues.

Pour Microsoft, l’utilisation de l’IA pour répondre aux attaques IA est la solution. Son Security Copilot, un nouvel assistant IA, est conçu pour aider les professionnels de la cybersécurité à identifier les failles et mieux comprendre l’énorme quantité de signaux générés quotidiennement par les outils de cybersécurité. Toutefois, face à des hackers de plus en plus sophistiqués, les gouvernements et les entreprises du secteur technologique devront continuer à investir massivement dans la recherche en cybersécurité et le développement de contre-mesures pour contrer l’utilisation malveillante des technologies d’IA.

Source

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.