Bing et Bard : des risques de désinformation

Dans la course effrénée pour l’IA effectuée par les grandes entreprises, les risques de dérapage ne sont jamais à écarter. Après, la grosse bévue de Bard de Google, c’est au tour de Bing de Microsoft de commettre une erreur.

Le chatbot de la firme de Mountain View interrogé sur son concurrent direct Bard, a déclaré que celui-ci avait fermé. Cette erreur fait suite à une mauvaise interprétation de sa part. Il s’est bien évidemment rattrapé l’instant d’après, en affirmant que celui-ci était toujours en ligne.

Crédits : Bing

Les chatbots ont des limites

Cet exemple précis permet de se rendre compte des limites de ces agents conversationnels. En effet, Bing en répondant affirmativement à la question, si Bard était fermé, s’est basé sur un article de presse qui parle d’un tweet dans lequel un utilisateur a demandé à Bard quand il serait fermé et ce dernier pour plaisanter, a répondu que c’était déjà fait. En effet, cet utilisateur a cité un commentaire de Hacker News dans lequel quelqu’un a fait une blague sur cet événement. Le chatbot s’est également fié aux propos d’un autre individu qui a utilisé ChatGPT pour écrire de fausses nouvelles sur l’événement. Bing s’est donc basé sur une blague ainsi qu’une fake news pour étayer ses propos.

Interrogé une deuxième fois, il a complètement changé sa version des faits en indiquant que Bard était toujours en ligne. Il est clair que ces bots n’ont pas la capacité de distinguer le vrai du faux ou une blague de la réalité. Ils sont aussi incapables d’évaluer correctement la fiabilité de leurs sources d’informations. Imaginons ce que des individus mal intentionnés seraient capables de faire pour faire échouer ces systèmes et leur faire raconter ce qu’ils veulent.

Désinformation et méfiance sur le Web

Beaucoup d’utilisateurs prennent pour argent comptant toutes les informations livrées par ces chatbots. Très peu prennent le temps de faire des recoupements ou des vérifications. Certes, ces bots sont capables de rattraper leurs erreurs, mais nous ne pouvons que spéculer sur les conséquences éventuelles de ces désinformations.

Celles-ci pourraient à court ou à long terme entraîner une méfiance des utilisateurs sur le Web. Google, Microsoft et OpenAI peuvent se cacher derrière des soit-disants clauses de non-responsabilité ou d’autres excuses, mais cela ne convaincra personne le moment venu. Tout cela parce que pour eux, le profit semble plus important que la sécurité.

source

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.