OpenAI pourrait cesser ses activités dans l’Union Européenne en raison des futures réglementations

La future réglementation demande plus de transparence de la part des entreprises se servant de l’IA et des données des citoyens européens.

OpenAI
OpenAI

La course à L’IA a poussé l’Union européenne à réfléchir à une législation plus actualisée. Si le projet de loi est encore en étude, elle envisage d’interdire l’usage de logiciel de reconnaissance de masse se servant de l’IA. C’est un coup dur porté aux services de sécurité, mais l’objectif était de protéger les informations personnelles des ressortissants européens. Au-delà de cela, le projet de loi impose certaines restrictions aux entreprises créatrices de langage IA. Elles devront jouer la carte de la transparence en divulguant les données utilisées pour créer les systèmes IA.

Face à ses exigences de la future loi, le PDG d’OpenAI se dit inquiet et s’est clairement exprimé sur le sujet.

L’option d’une fermeture en cas de non-conformité

OpenAI-Fermee
OpenAI-Fermé

Le PDG d’OpenAI, Sam Altman s’est exprimé après une conférence qui s’est déroulée à Londres. Selon les propos recueillis par Financial Times, le dirigeant est inquiet. Il prévoit de tout faire pour se conformer aux exigences de la future législation. Si cela n’est pas possible, il se retrouvera dans l’obligation de retirer OpenAI et toutes ses activités du marché européen. « Les détails sont vraiment importants », a déclaré M. Altman. « Nous essaierons de nous conformer, mais si nous ne pouvons pas le faire, nous cesserons nos activités. »

Pour s’expliquer, le PDG a montré que les systèmes comme ChatGPT seront classés à « haut risque ». Avec ce statut, il faudra qu’OpenAI livre des informations pour rester conforme à la norme de transparence et de sécurité. À ce sujet, le dirigeant est assez clair. « Soit nous serons en mesure de répondre à ces exigences, soit nous ne le pourrons pas », a déclaré M. Altman. « Il y a des limites techniques à ce qui est possible. »

Les craintes d’OpenAI

Selon la future loi, les entreprises formant des systèmes comme ChatGPT devront divulguer des données techniques sur la conception de leur système. Il faudra par exemple donner « La puissance de calcul requise, le temps d’entraînement et d’autres informations pertinentes liées à la taille et à la puissance du modèle ». Il faudra aussi fournir « des résumés des données protégées par le droit d’auteur utilisées pour l’entraînement ».

OpenAI-ChatGPT
OpenAI-ChatGPT

OpenAI pense que livrer ce type d’informations ne permettra pas l’émergence de l’entreprise. Les informations techniques pourront par exemple être utilisées par les concurrents pour proposer d’autres services plus performants. Si cela n’est qu’un détail, la seconde crainte est l’émergence de poursuites judiciaires. En divulguant la source des données utilisées, de nombreuses entités peuvent lancer des procédures judiciaires pour violation du droit d’auteur. À titre d’exemple, Stability AI fait l’objet de poursuite de la part de Getty Image pour avoir utilisé ses données protégées par le droit d’auteur. C’est donc une inquiétude légitime venant du PDG d’OpenAI.

Il revient aux Commissions européennes de prendre le devant des débats et d’anticiper tous les risques possibles.

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.