IBM Watson a donné des conseils inappropriés à des patients souffrant de cancer

L’année dernière, une étude menée par IBM a fait sensation lors de la conférence « American society of clinical oncology. » Cette étude a montré Watson prodiguer plusieurs traitements de certains cancers. Malheureusement, à peine quelques mois après cette démonstration, les premiers obstacles sont apparus, dévoilant finalement que Watson n’est pas si infaillible que ça.

Un rapport rédigé par Stat et certains experts médicaux ayant collaboré avec Watson a dévoilé l’envers du décor.

C’est alors que l’enthousiasme émis au début a fait place au scepticisme. Selon les chercheurs, l’IA a prescrit à maintes reprises des traitements inadéquats pour le cancer.

Le rapport pointe un doigt accusateur vers les médecins du Memorial Sloan Kettering (MSK) qui ont été en charge des paramétrages de l’intelligence artificielle, et bien entendu vers les ingénieurs d’IBM.

Un début plus que prometteur

Durant ses premiers essais, en juin 2017, plusieurs études ont vanté les mérites de Watson health. L’Asco, une organisation américaine rassemblant plusieurs oncologues, a par exemple fourni des résultats vraiment encourageants. Selon cette organisation, les recommandations de l’IA correspondaient à quelques détails près aux recommandations des médecins.

Ainsi, Watson aurait trouvé le bon diagnostic à 81 % dans le cas du cancer du côlon, 92,7 % pour le cancer du rectum et le résultat est même monté à 96,4 % pour le cancer de poumon. Les performances de Watson n’étaient cependant prometteuses que durant ses premières utilisations.

Des recommandations potentiellement fatales

Des rapports rédigés par des experts en médecine ont montré plusieurs exemples de recommandations voire même des traitements vraiment dangereux pour les patients. L’un des cas les plus concrets serait celui d’un patient âgé de 65 ans souffrant de saignements importants. Le traitement prescrit par Watson aurait aggravé encore davantage la situation, provoquant une hémorragie pouvant être fatale pour le patient.

Cette faille serait due à l’entraînement de l’IA qui consistait à traiter des dossiers de patients fictifs et non réels. Cette information a été révélée par un ancien ingénieur de l’IBM, Andrew Norden. Quoi qu’il en soit, ce cas reste une erreur humaine parce que Watson est une fabrication humaine et la machine aura toujours une capacité limitée.

Si Watson est perfectible, il n’en demeure pas moins que peu importe le domaine, l’IA ne sera jamais responsable de ses “erreurs.”

Mots-clés mécecinesanté