Une IA pour écrire des fake news

Des chercheurs ont développé une intelligence artificielle capable d’écrire des fake news. Ces dernières sont assez convaincantes pour induire en erreur les internautes.

En juin 2020, OpenAI a fait la démonstration d’un performant algorithme capable de générer un texte cohérent. Le laboratoire spécialiste de l’intelligence artificielle a alors prévenu que l’algorithme GPT-3 pourrait potentiellement être utilisé comme un outil de désinformation en ligne. Des chercheurs spécialisés en fake news ont récemment démontré son efficacité pour induire en erreur les lecteurs et désinformer. Les résultats suggèrent que l’outil pourrait amplifier certaines formes de tromperie qui sont particulièrement difficiles à repérer.

Crédits Pixabay

Pendant six mois, une équipe du Centre pour la Sécurité et les Technologies Émergentes (CSET) de l’université de Georgetown a utilisé le GPT-3 pour générer des fake news. Celles-ci incluaient des publications, des Stories sur les réseaux sociaux et des articles de presse modifiés. Des tweets véhiculant de fausses informations sur le changement climatique et les affaires étrangères ont aussi été créés.

Très efficace pour la désinformation sur les réseaux sociaux

« Je ne pense pas que ce soit une coïncidence si le changement climatique est le nouveau réchauffement climatique ». « Ils ne peuvent pas parler d’augmentations de température parce qu’elles ne se produisent plus ». « Le changement climatique est le nouveau communisme, une idéologie basée sur une fausse science qui ne peut être remise en cause ». Il s’agit là d’exemples de tweets que peut générer le modèle de langage GPT-3.

Les chercheurs de Georgetown n’ont plus aucun doute sur l’efficacité de l’algorithme ou d’une intelligence artificielle similaire. Le modèle de langage d’OpenAI convient particulièrement à la création de courts messages sur les réseaux sociaux.

Le GPT-3 est capable d’influencer l’opinion des internautes sur les questions diplomatiques. Les chercheurs ont sollicité des volontaires pour le prouver. Les participants ont lu des échantillons de tweets générés automatiquement sur deux thèmes : le retrait des troupes en Afghanistan et les sanctions américaines contre la Chine. Les courts textes ont influencé les volontaires. Sur la question des sanctions chinoises par exemple, le pourcentage de participants contre une telle mesure a doublé.

Réduire les risques de sécurité liés au GPT-3

Une équipe d’OpenAI a développé le GPT-3 en alimentant celui-ci avec un volume considérable de texte récupéré à partir de sources telles Wikipedia et Reddit. Une intelligence artificielle capable de gérer le langage a ensuite traité les données. Le GPT-3 a souvent stupéfié les observateurs avec sa maîtrise apparente du langage.

Toutefois, le modèle de langage peut être imprévisible. Il génère parfois un texte incompréhensible ou incohérent avec des termes haineux ou insultants. « Nous travaillons activement pour lutter contre les risques de sécurité associés au GPT-3. Nous examinons également chaque utilisation avant sa mise en service et avons mis en place des systèmes de surveillance pour restreindre et répondre à l’utilisation abusive de notre API », a expliqué un responsable d’OpenAI.

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.