OpenAI, l’entreprise à l’origine du célèbre modèle de langage ChatGPT, se retrouve en plein milieu d’une toute nouvelle controverse majeure. Selon une lettre obtenue par le Washington Post, des lanceurs d’alerte accusent l’entreprise d’imposer des restrictions illégales à la communication de ses employés avec les régulateurs gouvernementaux.
Ces révélations, si elles sont avérées, soulèvent de sérieuses questions quant à la transparence et à l’éthique d’OpenAI. Et cela, encore plus à l’heure où l’intelligence artificielle suscite autant d’espoirs que d’inquiétudes !
Des accords de confidentialité qui bafouent les droits des employés
Au centre même de cette récente polémique se trouvent les accords de départ, de non-dénigrement et de non-divulgation imposés par OpenAI à ses employés. Selon les lanceurs d’alerte, ces contrats “interdisaient et décourageaient à la fois les employés et les investisseurs de communiquer avec la SEC concernant les violations des lois sur les valeurs mobilières, forçaient les employés à renoncer à leurs droits aux incitations et compensations pour les lanceurs d’alerte, et exigeaient des employés qu’ils notifient l’entreprise de toute communication avec les régulateurs gouvernementaux“.
Il faut savoir que des avocats représentant les lanceurs d’alerte anonymes ont adressé une lettre à Gary Gensler, président de la Securities and Exchange Commission (SEC), faisant référence à une plainte formelle distincte demandant à la SEC d’enquêter sur ces accords controversés. Les lanceurs d’alerte affirment avoir fourni à la SEC des preuves que “les anciens NDA d’OpenAI violaient la loi en exigeant de ses employés qu’ils signent des contrats illégalement restrictifs pour obtenir un emploi, des indemnités de départ et d’autres contreparties financières“.
Une culture du secret qui inquiète les législateurs
Face à ces accusations, la réponse d’OpenAI reste pour le moment timide. Un porte-parole de l’entreprise a déclaré au Washington Post que la politique d’OpenAI en matière de lanceurs d’alerte “protège le droit des employés à faire des divulgations protégées“. Cependant, l’entreprise n’a pas répondu immédiatement à la demande de commentaire de certains médias comme TechCrunch.
Ces révélations ont suscité l’inquiétude des législateurs, notamment du sénateur Chuck Grassley, qui a transmis une copie de la lettre des lanceurs d’alerte au Congrès. “La surveillance et l’atténuation des menaces posées par l’IA font partie de la responsabilité constitutionnelle du Congrès de protéger notre sécurité nationale, et les lanceurs d’alerte seront essentiels à cette tâche“, a-t-il déclaré. “Les politiques et pratiques d’OpenAI semblent avoir un effet dissuasif sur le droit des lanceurs d’alerte à s’exprimer et à recevoir une compensation appropriée pour leurs divulgations protégées.”
Une entreprise déjà critiquée pour ses pratiques
Rappelons que ce n’est pas la première fois qu’OpenAI est pointé du doigt pour ses accords de départ. Plus tôt cette même année, des dispositions qui auraient privé les anciens employés de leurs actions acquises s’ils refusaient de signer le document ou violaient leur NDA avaient déjà suscité la polémique.
Le PDG Sam Altman s’était alors excusé, tout en affirmant que l’entreprise n’avait “jamais rien repris” et était “déjà en train de corriger les documents de départ standard“. Mais pour le sénateur Grassley, ces excuses ne suffisent pas… “Si le gouvernement fédéral veut rester en avance sur l’intelligence artificielle, les accords de non-divulgation d’OpenAI doivent changer“, a-t-il martelé.
Les accusations portées par les lanceurs d’alerte contre OpenAI jettent une ombre inquiétante sur les pratiques de l’entreprise. À l’heure où l’IA soulève autant de questions éthiques que de défis technologiques, il est crucial que les acteurs majeurs du secteur fassent preuve d’exemplarité et de transparence.
Si OpenAI souhaite maintenir sa réputation et la confiance du public, elle devra apporter des réponses claires à ces accusations et, le cas échéant, revoir en profondeur ses accords de confidentialité et ses politiques envers les lanceurs d’alerte. L’avenir de l’IA responsable et éthique en dépend !