
Les journalistes de CNET ont révélé ne plus vraiment travailler de manière indépendante
CNET et la structure mère Red Ventures ont suspendu pour le moment, l’utilisation de l’outil d’IA pour la rédaction de contenu.
En octobre dernier, Red Venture, structure mère de CNET a ouvert la voix à la possibilité de se servir de l’intelligence artificielle dans la rédaction des contenus sur CNET. Après des mois de développement, le projet a pris corps.

Une première réunion a eu lieu entre les deux structures et a permis de dégager les premières conclusions. L’IA a prouvé qu’elle était plus rapide que les humains en termes d’écriture. Cependant, l’édition des textes de l’IA demande plus de temps que dans le cas d’un article rédigé par un humain.
Par ailleurs, il a été constaté que les textes écrits avaient du sens, mais ne véhiculaient pas toujours de la vraie information. Malgré ces insuffisances, la réunion interdépartementale a décidé de se lancer dans l’aventure.
Une volte-face déjà
Après quelque temps d’essai, une réunion avec le personnel a eu lieu en janvier pour discuter de l’impact de l’outil IA sur le travail.
Il a été constaté que les problèmes de fausses informations et de plagiat ont persisté. « Ils étaient bien conscients du fait que l’IA plagiait et hallucinait », se souvient un membre du personnel présent à la réunion. Son rapport a aussi tenu à montrer que les problèmes ont persisté malgré les efforts pour leurs corrections. « L’une des choses sur lesquelles ils se sont concentrés lorsqu’ils ont développé le programme était de réduire le plagiat. Je suppose que cela n’a pas très bien fonctionné ».
Au cours de la réunion qui a eu lieu en janvier, d’importants cadres travaillant pour CNET et Red Ventures ont défendu l’outil IA. Connie Guglielmo, rédactrice en chef de CNET, Lindsey Turrentine et la vice-présidente exécutive du contenu et de l’audience en font partie. Tout comme elles, il y avait aussi le vice-président du contenu de Red Ventures Lance Davi qui a reconnu aussi les insuffisances de l’intégration de l’IA.
Face au constat commun, CNET a décidé de suspendre son usage de l’outil IA en attendant de trouver une solution pour pallier les erreurs de l’IA et des humains.
Connie Guglielmo a tenu à rappeler que cette suspension n’est pas synonyme d’abandon de l’outil IA. « Attendez-vous à ce que CNET continue d’explorer et de tester comment l’IA peut être utilisée pour aider nos équipes dans leur travail de test, de recherche et d’élaboration de conseils impartiaux et de reportages basés sur des faits pour lesquels nous sommes connus ».
Il y a plus grave
Si les insuffisances présentées par l’IA peuvent être considérées comme des erreurs de parcours, ce n’est pas le cas pour le nouveau visage de CNET. Depuis 2010, le personnel de la structure estime qu’il y a antagonisme entre son travail habituel et la mission que lui assigne Red Ventures. Il y a une permanente lutte entre l’indépendance, la rigueur de l’information et la tendance à rédiger du contenu sponsorisé.
Depuis que Red Ventures est devenu propriétaire de CNET, les journalistes de CNET disent être poussés à modifier leur contenu. Ils ne peuvent plus dire la vérité, mais doivent mentir pour que leurs analysent soient favorables à une société partenaires de Red Ventures. Une personne travaillant pour CNET a confié à The Verge son expérience. Censée critiquer un produit, elle a dû modifier ses propos lorsqu’elle a appris qu’il existe des accords commerciaux entre la société et Red Aventures. « J’ai compris qu’un superviseur avait laissé entendre au cours de la conversation que la façon dont je procédais à mon examen pourrait avoir une incidence sur mes chances de promotion à l’avenir ».