Clicky

Open AI a développé un générateur de textes trop intelligent et dangereux pour être rendu public

L’intelligence artificielle est-elle une menace lorsqu’elle parvient à se faire passer pour un humain sur Internet ? Open AI, la société spécialisée dans l’IA d’Elon Musk, est convaincue que oui. Voilà pourquoi l’entreprise a pris la décision de ne pas publier un logiciel basé sur l’intelligence artificielle que la start-up est parvenue à mettre au point.

Le logiciel en question est un générateur de texte baptisé GPT-2. A l’origine, les chercheurs d’Open AI souhaitaient simplement former le programme « à la prédiction du mot suivant dans une phrase. » Ils ont utilisé 40 Go de données issues de 8 millions de pages sur le Net.

Seulement, GPT-2 est devenu si habile à imiter la façon dont un humain écrit que les recherches ont été suspendues, le temps de déterminer la menace qu’il pourrait représenter.

Beaucoup trop efficace ?

GPT-2 a été doublement testé par le quotidien américain The Guardian.

À partir de la première ligne de « Nineteen Eighty Four-Four » de George Orwell, le logiciel est parvenu à produire un paragraphe de science-fiction dystopique parfaitement cohérent.

Le programme a aussi été utilisé par The Guardian pour écrire un faux article d’actualité que le quotidien a publié dans ses pages. Le résultat est totalement bluffant avec une grammaire impeccable et l’utilisation de fausses citations. On aurait vraiment cru que l’article a été écrit par un humain. Le plus effrayant c’est que GTP-2 a pondu le texte en seulement 15 secondes.

Une boite de Pandore

Pour Elon Musk, l’intelligence artificielle constitue une des « plus grandes menaces existentielles » pour l’humanité. Avec GPT-2, les chercheurs d’Open AI semblent abonder dans son sens, considérant le logiciel comme une boite de Pandore à ne surtout pas ouvrir.

Comme à chaque fois qu’elle parvient à développer une nouvelle technologie, Open AI a publié cette semaine un article sur son programme de générateur de textes. La société a cependant décidé de ne pas dévoiler ses recherches en entier pour éviter que des personnes malintentionnées parviennent à leur tour à développer un logiciel aussi « dangereux. »

Elles pourraient alors utiliser le programme pour générer de fausses actualités dans le cadre de « fausses opérations de diffusion de nouvelles informations. »

Mots-clés openai