L’IA suffisamment intelligente pour savoir quand on ne doit pas lui faire confiance

Des informaticiens du MIT (Massachusetts Institute of Technology) ont conçu un réseau de neurones capable d’évaluer sa fiabilité.

La nouvelle approche, baptisée « régression probante profonde », ou « deep evidential regression », est a été conçu pour la prise de conscience sur l’exactitude des résultats obtenus. Elle accélère le processus d’estimation de l’incertitude pour aider les utilisateurs d’IA à prendre compte des marges d’erreur et réduire ainsi les risques.

Crédits Pixabay

L’analyse de l’incertitude dans les réseaux de neurones n’est pas tout à fait une première. Toutefois, la plupart des modèles déjà existants sont relativement lents et coûteux. En revanche, le présent algorithme est capable d’estimer et de signaler, plus rapidement et sans exigences informatiques excessives, à quel moment l’IA pourrait se tromper.

L’exactitude des prédictions d’une IA dépend surtout de la richesse de ses données. La régression probante profonde analyse donc la qualité et l’exhaustivité des informations avec lesquelles elle devra travailler.

L’IA signale elle-même son incompétence

Les utilisateurs des systèmes d’IA doivent toujours rester conscients de l’existence d’une marge d’erreur et de son ampleur. Étant donné l’implication de la technologie de l’intelligence artificielle dans différents secteurs (médecine, transport, etc.), l’impact négatif d’une fausse information peut être considérable.

« De nombreux modèles d’IA entrent dans le monde réel et touchent les humains entrainant parfois des conséquences mortelles. Pour y remédier, nous devons disposer de modèles plus performants capables de mesurer sa fiabilité », a expliqué Alexander Amini du laboratoire d’informatique et d’intelligence artificielle du MIT.

Concrètement, le réseau neuronal fait signe dans le cas où il se sent en dehors de ses compétences par rapport à un problème donné.

A lire aussi : Quand l’IA s’intéresse à la maladie d’Alzheimer

Une innovation qui pourrait sauver des vies

« Cette idée est importante et largement applicable. Elle sera utilisée pour évaluer des produits basés sur des modèles appris. En estimant l’incertitude d’un modèle appris, nous pourrons évaluer le degré d’erreur et les données manquantes qui pourraient l’améliorer », a expliqué la professeure Daniela Rus du MIT.

A lire aussi : Et si l’IA nous aidait à choisir le meilleur poisson pour nos sushis ?

Le nouveau réseau neuronal n’a pas encore été évalué par d’autres chercheurs, mais un document y afférent est déjà disponible en ligne. En tout cas, les détails de cette étude seront présentés lors de la prochaine conférence NeurIPS qui aura lieu en décembre.