Simplifiez-vous l'innovation

#astuce
catégories

#astuce
partage

#astuce
liens internes

AI

L’intelligence artificielle face à ses limites

Sébastien Louradour
Sébastien
28 novembre 2017

MIT Technology Review, la publication du très prestigieux Massachusetts Institute Of Technology, revient dans son numéro de novembre sur les fondements de l’intelligence artificielle, ses promesses et ses limites.

Une technologie basée sur un article scientifique écrit il y a 30 ans

S’il on devait résumer de la façon la plus sommaire cette technologie qui n’a jamais autant fait parler d’elle-même, on pourrait commencer par préciser que l’intelligence artificielle (IA) repose exclusivement sur les fondements du deap learning, c’est à un dire un apprentissage s’appuyant sur la construction de réseaux de neurones, à l’image de ceux de l’être humain. Cette discipline est née en 1986 grâce à une publication scientifique signée par le chercheur Geoffey Hinton, considéré comme le “Einstein de l’IA”. A l’époque les processeurs sont toujours trop faibles pour mettre en application les résultats des travaux de recherche, si bien que les travaux n’aboutissent pas vers des applications concrètes. En 2012, le même chercheur publie un article décisif : il a découvert la méthode pour apprendre à une machine à reconnaître d’elle même une image en construisant son propre réseau de neurones. Et cette fois-ci, les progrès technologiques sont suffisants pour propager largement cette découverte.

De la reconnaissance d’image à la reconnaissance d’idées

Reconnaitre des images, c’est tout de même assez léger au regard des promesses annoncées, pourrez-vous me répondre.

Sauf que la méthode utilisée (back-propagation) permet d’explorer des champs bien plus complexes en allant jusqu’à la connaissance elle-même. En entraînant par exemple un réseau de neurones avec des millions de pages Wikipédia, celui-ci est en mesure d’assimiler autour d’une même valeur (un même vecteur pour être exact) des termes synonymes ou connectés les uns aux autres. Par exemple, rapprocher de lui-même les mots France et Paris, puis de rapprocher encore davantage Paris et Montmartre et ainsi de suite. Dans le champs médical, c’est en suivant la même logique mais répliqué des millions de fois qu’un réseau de neurones est capable de diagnostiquer des cancers. C’est aussi cette technologie qui est derrière l’apprentissage des véhicules autonomes ou la traduction simultanée.

Jusqu’où peut aller le deep learning

La question est désormais de savoir jusqu’où peut nous mener une telle technologie : sera notamment-t-elle capable de remplacer les humains dans leurs activités professionnelles ? Rien n’est moins sûr.

La première raison est que les progrès à parcourir dans le domaine du deep learning sont encore importants : les chatbots sont toujours idiots, la traduction par IA est toujours imparfaite, et de manière générale, entrer en communication avec un robot ne peut se faire que sur des sujets dont le périmètre est strictement contraint.

Ce qui amène à notre second point : le deep learning, ce n’est pas de l’intelligence comme un humain peut l’entendre. Ce n’est qu’une machine capable de reproduire avec une efficacité redoutable une action dès lors qu’elle est réduite à son strict périmètre. C’est par exemple pour cette raison que les traducteurs ont tant de mal à gérer les noms propres. Autre illustration : lorsqu’un humain suit une recette de cuisine, et lorsque l’instruction est de battre 4 oeufs, un humain n’a pas besoin qu’on lui explique qu’il faut d’abord casser les oeufs, un robot si. Pour résumer ainsi la chose, une machine ne comprend pas le contexte dans lequel elle évolue.

Encore quelques générations à patienter

C’est cette intelligence globale que les chercheurs essayent actuellement de développer, et autant dire, que le chemin est encore long. Le chercheur le plus célèbre dans cette nouvelle génération d’intelligence artificielle est Joshua Tenenbaum. Ses travaux portent sur la capacité d’une IA à aller comprendre par elle-même son environnement comme un enfant essaie de comprendre ce qui l’entoure en s’amusant. Il travaille actuellement sur la capacité des voitures autonomes à réagir correctement face à des situations totalement imprévues et encore jamais rencontrées. Un travail essentiel pour être capable de reproduire la réaction d’un humain face à ce même cas de figure. Ce domaine de recherche nommé “exploration – compression” pourrait prendre plusieurs décennies de développement avant d’aboutir à une technologie mature. Mais si l’article du MIT rappelle que ces travaux devraient en théorie encore prendre plusieurs générations, son auteur rappelle que cela devait également être le cas de la technologie précédente, sous-entendant que dans ce domaine, nous ne sommes pas à l’abris de découvertes très rapides…

Article du MIT à retrouver ici (en anglais) : Is AI Riding a One-Trick Pony?


Sébastien Louradour
Ecrit par
Sébastien Louradour
Rédacteur en chef de Yellow Vision, je décrypte les dernières tendances, essaye d'écouter les signaux faibles et de rendre l'ensemble compréhensible pour tous. Contactez-moi, j'échangerai avec plaisir !
Partager
Commentaires (0)

Merci de poster votre commentaires

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*

S’inscrire
à la newsletter