L’IA a connu une envolée spectaculaire ces derniers mois et elle ne cesse de s’améliorer. Cependant, les grands modèles de langage qui confirment cet essor constituent également des menaces. Cela amène donc les acteurs du domaine à réfléchir sérieusement à des mécanismes de régulation.

Une idée introduite par Open AI
Grâce au succès de l’agent conversationnel ChatGPT, Open AI fait clairement partie des leaders de l’IA. Ainsi, les prises de position de ses dirigeants influencent l’évolution de ce secteur. Son fondateur, Sam Altman, son président, Greg Brockman, et le scientifique en chef, Ilya Sutskever ont d’ailleurs suggéré une régulation de l’IA dans un récent article de blog.
Ces derniers évoquent notamment le fait que le fonctionnement de l’IA puisse être difficile à comprendre pour les autorités en raison de son évolution effrénée. Leurs suggestions partent également du principe que l’IA est incapable de se gérer elle-même. Les dirigeants d’Open AI ont donc essayé d’aborder les différents aspects du sujet dans un article qui apporte toutefois peu de détails sur la marche à suivre.
En outre, cette sortie est similaire à celle de Timnit Gebru, un éminent chercheur et critique en intelligence artificielle qui accordait une interview à The Guardian. « À moins qu’il n’y ait une pression extérieure pour faire quelque chose de différent, les entreprises ne vont pas simplement s’autoréguler. Nous avons besoin de réglementation et nous avons besoin de quelque chose de mieux qu’un simple objectif de profit.” a-t-il déclaré.
Quelles peuvent être les missions de cet organisme ?
Open AI n’apporte pas des solutions précises dans son article de blog, mais l’entreprise pense notamment à un équivalent de l’Agence internationale de l’énergie atomique (AIEA). À l’image de cette organisation, l’autorité de régulation de l’IA pourrait donc éditer des règles et les normes à observer dans le domaine. Ses missions pourraient alors se poursuivre avec le suivi du respect des différentes règles. Néanmoins, l’organisme sera dans l’incapacité de limiter les domaines d’application de l’IA.
L’entreprise suggère précisément que : “tout effort dépassant un certain seuil de capacité (ou de ressources comme le calcul) devra être soumis à une autorité internationale qui peut inspecter les systèmes, exiger des audits, tester la conformité aux normes de sécurité, imposer des restrictions sur les degrés de déploiement et les niveaux de sécurité, etc.” Toutefois, Open AI propose que les petites entreprises soient exemptées afin de ne pas ralentir les projets d’innovation prometteurs.
Cette sortie vient donner ainsi du crédit à l’idée de la probable mise en place d’un programme de régulation de l’IA. Le sujet représente également un thème de conversation récurrent dans le domaine et les principaux acteurs semblent unanimes sur sa nécessité. Cependant, l’entreprise admet ne pas savoir encore “comment concevoir un tel mécanisme”.
Par ailleurs, les dirigeants d’Open AI ont abordé aussi la possibilité d’un ralentissement volontaire au niveau des recherches sur l’IA. Ces derniers ne sont effectivement pas contre le projet, mais ce ne sera pas pour tout de suite. En effet, l’entreprise est déterminée à “améliorer nos sociétés” et un freinage risque de donner surtout une longueur d’avance aux mauvais acteurs du domaine.