Une IA qui génère des hypothèses scientifiques

Au cours des dix dernières années, l’intelligence artificielle est devenue un outil extrêmement intéressant pour classer les données volumineuses et faire des prédictions. L’IA est de plus en plus sollicitée au cours des recherches scientifiques. Ses performances s’avèrent souvent d’une aide précieuse pour aboutir rapidement à des résultats. À ce propos, une équipe de scientifiques s’en sert dans le cadre d’une recherche dont le but est de trouver des constituants optimaux pour les batteries.

Une tête de robot affichant des données cryptées

La création d’hypothèses a longtemps été un domaine purement humain. Aujourd’hui, cependant, les scientifiques commencent à recourir à l’intelligence artificielle pour produire des idées originales. C’est justement le processus qu’une équipe de l’université de Liverpool a utilisé dans le but de rationaliser le processus de conception des batteries, et leurs résultats sont prometteurs.

Concrètement, les chercheurs ont mis au point un réseau neuronal qui a classé une multitude de combinaisons chimiques en fonction de leur probabilité d’aboutir à un nouveau matériau utile.

Le problème de la boîte noire

Afin de comprendre les réseaux neuronaux, il faut noter qu’ils sont conçus à partir de nœuds interconnectés fonctionnant sur le modèle des neurones du cerveau. Ils ont une structure qui change au fur et à mesure que les informations circulent. L’humain étant susceptible de fatigue et de surmenage, ce modèle adaptatif le surpasse souvent en termes de résolution de problèmes complexes.

Néanmoins, malgré les bienfaits incontestables qu’elle apporte, la technologie de l’IA reste controversée. C’est notamment dû au « problème de la boîte noire ». Ce terme est utilisé pour signifier justement que personne ne peut voir à l’intérieur du réseau pour expliquer ou anticiper son processus de prise de décision. Malheureusement, cette opacité n’est pas sans conséquence. Elle mine la confiance dans les résultats. Par ailleurs, elle limite la contribution des réseaux neuronaux à la compréhension scientifique du monde.

Et si l’on essayait d’interpréter les réseaux neuronaux ?

Certains scientifiques essaient de rendre la boîte noire transparente en développant des « techniques d’interprétabilité ». Ces techniques tentent essentiellement de fournir une explication à la manière dont un réseau parvient à prendre ses décisions.

Les techniques d’interprétabilité peuvent suggérer des corrélations qui apparaissent dans le processus de l’apprentissage automatique. Par contre, elles ne peuvent pas identifier des causes aux décisions de l’IA ni les justifier d’ailleurs. Elles s’appuient toujours sur les connaissances des experts en la matière pour comprendre et interpréter le réseau.

« Bien que le fait de faire appel à l’intelligence artificielle puisse aider les humains à élaborer de nouvelles hypothèses scientifiques, nous avons encore beaucoup de chemin à parcourir. »

Soumik Sarkar, professeur associé de génie mécanique à l’université d’État de l’Iowa