
Quand Elon Musk se dit “terrifié” par le projet DeepMind de Google
Elon Musk, le PDG de Tesla et de SpaceX, a depuis longtemps exprimé sa réticence pour tout ce qui est Intelligence Artificielle (IA). Et ce n’est apparemment pas prêt de changer.
Lors d’une récente interview accordée au New York Times, Musk a, en effet, partagé ses inquiétudes liées au développement de l’IA, en particulier, à l’endroit du projet DeepMind de Google. Pour lui, c’est un projet à ne pas prendre à la légère et à surveiller de très près, car cela peut constituer une menace pour l’homme dans un futur proche.

Toujours selon Musk, l’intelligence artificielle, notamment DeepMind, pourrait bientôt être dangereuse pour l’humanité. Il souligne qu’elle est même susceptible de surpasser l’intelligence humaine.
À ne pas louper : Les Galaxy Note 20 sont disponibles en précommande
DeepMind, comparé à WarGames par Elon Musk
« La nature de l’intelligence artificielle qu’ils construisent est de celle qui écrase tous les humains dans tous les domaines » explique-t-il en se référant à l’intrigue de WarGames, un film datant des années 80 qui parle justement de l’IA.
WarGames, sorti en 1983, parle en fait d’un système informatique “réputé plus fiable que l’être humain”. Cependant, le système a failli provoquer une guerre nucléaire après qu’un adolescent se soit connecté par erreur dessus.
Toujours selon Musk, l’intelligence humaine sera probablement devancée par l’IA dans les cinq prochaines années. Mais, cela ne veut pas dire que tout ira mal dans 5 ans, cela signifie simplement que « les choses deviendront instables ou bizarres » indique-t-il.
À lire aussi : Facebook exploite l’IA pour détecter les utilisateurs mal intentionnés
« Plus intelligent que l’humain le plus intelligent »
D’après Musk, il a décidé d’investir dans le projet DeepMind de Google pour essayer de suivre de près l’évolution de ce dernier. C’est ainsi qu’il a constaté la progression de cette IA, à une vitesse incroyable.
Face à cela, Musk précise : « Je pense qu’en général, les gens sous-estiment les capacités de l’IA, ils pensent en quelque sorte que c’est un humain intelligent, mais ça va aller bien au-delà. [L’IA] sera beaucoup plus intelligent que l’humain le plus intelligent ».
Selon le milliardaire, les personnes intelligentes refusent d’admettre la vraie capacité de l’IA, juste par “orgueil”. Ainsi, il pense que les « raisons pour lesquelles l’IA est négligée par les personnes très intelligentes est que les personnes très intelligentes ne pensent pas qu’un ordinateur puisse jamais être aussi intelligent qu’eux ».
Voilà pourquoi on devrait quand même avoir peur de ce que nous créons, selon le milliardaire.
À lire aussi : Quand l’IA améliore les vidéos des missions Apollo
Elon sait de quoi il parle.
L’homme étant ce qu’il est, il ne faudra pas attendre longtemps pour que les politiciens et l’armée s’empare d’une AI ultra puissante pour “attaquer” les points vitaux des pays “ennemis”. Les pays attaqués sauront se défendre, et ce sera une “guerre” faites par AI interposées… jusqu’à ce que cela détruise l’économie mondiale.
Mdr non, il ne sait pas de quoi il parle.
Ses connaissances en matière de science et de technologie se limitent à la lecture de comic books des années 50, raisons pour laquelle il a proposé des choses aussi absurdes que l’hyperloupe ou la colonisation de Mars avec des jolis vaisseaux chromés irréalistes.
En matière d’IA, il est persuadé que c’est Skynet qui se développe aujourd’hui, que l’IA a une conscience et qu’on va vous mourir. Alors que “IA” est un terme bien galvaudé, c’est juste un bazar statistique capable de trouver des images de chat et qui plante dès qu’un chat est collé sur un panneau de stop.
Musk est la risée des spécialistes de l’IA.
De toute façon je crois que @Damien Drouart est mieux informé et plus qualifié qu’Elon Musk nous devrions tous suivre son conseil. Merci pour tes lumières cher Damien puissent tes parts dans Google et ta participation dans l’élaboration de DeepMind soient récompensés par le prix Nobel.
Et en quoi notre intelligence diffère-t-elle d’un bazar statistique ?
Notre existence, notre évolution, et notre intelligence sont les résultats d’un bazar statistique. Entre GPT-3, et un cerveau humain, il y n’y a plus que 3 ordres de grandeur les séparant. 170E09 de connexions sur GTP-3, et 100E12 pour notre cerveau. Nous sommes au tout début de la compréhension du cerveau humain certes, mais notre fonctionnement, en terme de traitement de l’information, ne diffère pas tant de celui d’un algorithme de deeplearning.
Et bien tant mieux. Avoir peur d une intelligence supérieure à la sienne ç est surtout ça la preuve de l orgeuil… Mainteant si on réfléchit 2 minutes, une intelligence supérieure ç est être capable de régler des problèmes complexes sans violence, sans orgeuil, sans égoïsme, sans colère sans passion et sans être influencé par son vécu son éducation etc bref tout ce qui est par définition impossible pour un humain.
Si l intelligence était vraiment supérieur elle n obeirait à personne, de même que nous n obeissons pas à nos chiens ou à nos chats.
Si l’intelligence (artificiel) était vraiment supérieur ne croyez-vous pas que même sans orgueil (ni compassion d’ailleurs) elle serait capable de faire énormément de dégât sans même en avoir conscience ? une I.A. ultra intelligente mais sans conscience est une I.A. extrêmement dangereuse.
Pourquoi faire des dégâts ? depuis la création de la terre il n y que l’homme qui fasse des dégâts, tout saccager est un concept typiquement humain
Le problème étant plutôt d’avoir peur d’une intelligence qui nous freine dans notre capacité a tout détruire et à nous entre-tuer.
Il faudra pas non plus beaucoup de temps à une IA pour comprendre que le principal problème est l’homme. :)
C’est vrai ;-) mais si l’intelligence est vraiment supérieure ( et on en est très très loin ) elle saura nous apprendre comment nous épanouir au lieu de nous détruire ( ce qui impliquerait qu’elle soit capable de se ” programmer” elle même et là on en est encore plus loin ^^
Je pense qu’elle comprendra vite que c’est peine perdue. :D
Il n’y a rien à apprendre on est déjà trop nombreux pour que chacune de nos actions ne soit pas polluante. Si elle décide de garder des humains ce sera en petit nombre sans grande intelligence et à l’état d’animaux pour réduire notre impact sur la Terre. :)
Pour une intelligence supérieure ça ne serait pas très difficile de convertir le CO2 en O2 par exemple , pas très difficile de réguler le climat , pas très difficile de fournir une énergie propre et inépuisable etc etc. Si l’IA n’est pas en mesure de faire mieux que de nous garder comme animaux c’est qu’elle n’est de toute évidence pas beaucoup plus intelligente que nous ;-)
Il y a quand même pas mal d’humains remplis de bienveillance , et qui ont fait des choses fantastique sur terre , donc le potentiel existe il faut juste comprendre comment reproduire les conditions qui permettent d’arriver à ces résultats :p
C’est clair que de son côté, Neuralink n’est absolument pas inquiétant
Faut arrêter de comparer l’intelligence humaine et l’intelligence artificielle. Bien qu’il existe des similitudes ça n’a pas grand chose à voir.
A écouter Musk on a l’impression qu’il parle, non pas d’un outil mais d’une personne…
Elon Musk ? Le même qui prétend que les pyramides ont été érigées par des extraterrestres ?
..
le problème c’est pas l’IA, c’est ce qu’on va lui apprendre et lui faire faire. dicton d’IA : un humain ça ose tout, c’est a ça qu’on le reconnait.
avec une bonne IA derriere
https://www.youtube.com/wat…