Un collectif de leaders de la Tech demande d’arrêter les expérimentations sur l’IA

Science sans conscience, n’est que ruines de l’âme… Cette assertion pourrait à terme se vérifier dans la nouvelle course à l’IA générative lancée par certains laboratoires de recherche financés par de grandes entreprises.

Intelligence artificielle

C’est en tout cas ce que pensent certains acteurs du secteur de la Tech parmi lesquels figure le milliardaire Elon Musk. Celui qui a récemment fustigé la direction prise par OpenAI s’est associé à des centaines de grands noms de la technologie pour signer une lettre ouverte publiée le 28 mars dernier. Ils y exhortent les laboratoires spécialisés dans l’IA à ne pas pousser leurs recherches au-delà de GPT-4. Selon eux, l’humanité court à sa perte.

La peur de voir la créature échapper complètement à son créateur

L’organisation à la base de ladite lettre ouverte porte le nom de Future of Life Institute. En dehors de la signature d’Elon Musk, elle a réussi à collecter celles d’autres grands noms comme Emad Mostaque, PDG de Stability AI, Yuval Noah Harari, auteur de Sapiens ou encore Steve Wozniak, cofondateur d’Apple.

Au début de sa correspondance, le collectif estime que les systèmes d’IA capables d’être aussi compétitifs que l’humain peuvent présenter des risques pour la société et l’humanité. Pour justifier leurs craintes, ils ont indiqué que ces derniers mois les laboratoires d’IA se sont laissé entrainer dans une course effrénée au développement d’intelligences artificielles toujours plus puissantes.

Des outils que finalement personne n’arrive vraiment à comprendre ou contrôler de manière fiable. Pas même les créateurs qui se retrouvent parfois désarmés face aux comportements de leurs propres créations.

D’un autre côté, le collectif souligne la compétition féroce que les IA actuelles mènent à l’esprit humain sur des tâches générales. À cet effet, ils posent de nombreuses questions qui relèvent de l’ordre de l’éthique.

« Devons-nous laisser les machines inonder nos canaux d’information de propagande et de mensonges ? Devrions-nous automatiser tous les emplois, y compris ceux qui sont gratifiants ? Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents, plus obsolètes et nous remplacer ? Devons-nous risquer de perdre le contrôle de notre civilisation ? ».

À LIRE AUSSI : GPT-4 : Tout savoir sur l’IA révolutionnaire d’OpenAI

Un moratoire de six mois sur les recherches liées à l’IA

Future of Life Institute, appuyée par les signataires de la lettre, estime que la réponse à ces questions ne doit pas être laissée dans les mains des leaders technologiques qui ne sont pas des élus du peuple.

Pour cela, ils préconisent que toutes les recherches visant à former les systèmes d’IA soient mises en pause pendant six mois. Une décision qui doit être publique, vérifiable et inclure tous les acteurs publics. Si possible, il faut que les gouvernements s’impliquent et instaurent un moratoire.

Une fois cela fait, il faudra que les développeurs d’IA travaillent de concert avec les décideurs politiques afin de mettre en place des systèmes de gouvernance efficace de l’IA. Cela devra prendre en compte les aspects suivants :

  • un nouveau cadre de réglementation,
  • la surveillance des systèmes d’IA hautement performants,
  • un système permettant de différencier les créations synthétisées par l’IA du réel,
  • un écosystème d’audit et de certification,
  • la responsabilité pour les dommages causés par l’IA,
  • le financement de la recherche technique sur la sécurité de l’IA,
  • et la mise en place d’institutions capables de faire face aux perturbations économiques et politiques causées par l’IA.

Pour le moment, les laboratoires concernés n’ont fait aucun commentaire à propos de la lettre.

Source : CNET

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.