Extrait du livre de Yann Le Cun : Quand La machine apprend

 

Extrait du livre de Yann Le Cun : Quand La machine apprend

« La révolution des neurones artificiels et de l’apprentissage profond »

Yann Le Cun, lauréat du prix Turing (équivalent du prix Nobel en informatique) est professeur à la New York University et dirige la recherche fondamentale chez Facebook

Le noyau dur de l'intelligence artificielle dans les années 1970 et 1980 était une collection de techniques de raisonnement automatique basées sur la logique et la manipulation de symboles. Avec une certaine autodérision, les tenants anglo-saxons de cette tradition la désignent par l'expression GOFAI, acronyme de good old-fashioned artificial intelligence (« bonne vieille intelligence artificielle »)...

Ainsi, dans les systèmes experts: un moteur d'inférence applique des règles aux faits et en déduit de nouveaux faits. En 1975, MYCIN, par exemple, devait aider le médecin à identifier les infections aiguës, comme les méningites, et recommander des traitements antibiotiques. Il était doté d'environ 600 règles du type : « SI l'organisme infectieux est à Gram négatif ET l'organisme est en forme de bâtonnet ET l'organisme est anaérobie, ALORS l'organisme est un bactéroïde (avec une probabilité de 60 %). »

MYCIN était innovant. Ses règles comportaient des facteurs de certitude que le système combinait pour produire un score de confiance sur le résultat. Il était doté d'un moteur d'inférence, dit « à chaînage arrière », par lequel le système faisait une ou plusieurs hypothèses de diagnostic et questionnait le praticien sur les symptômes du patient. Le système changeait d'hypothèse au fur et à mesure des réponses et émettait un diagnostic, puis proposait un antibiotique et une posologie, avec un certain indice de confiance.

Pour construire un tel système, un ingénieur avait dû s'asseoir à côté du médecin et lui faire détailler son raisonnement: comment diagnostiquait-il une appendicite ou une méningite? Quels étaient les symptômes? Des règles émergeaient. Si le patient présentait tel et tel symptôme, il y avait telle probabilité d'appendicite, telle probabilité d'occlusion intestinale ou telle probabilité de colique néphrétique. L'ingénieur écrivait à la main ces règles dans une base de connaissances.

La fiabilité de MYCIN et de ses successeurs était très bonne. Mais ils n'ont pas dépassé le stade expérimental. L'informatisation en médecine commençait à peine, et la saisie de données était fastidieuse. Elle l'est toujours, d'ailleurs. Au final, tous ces systèmes experts fondés sur la logique et la recherche arborescente se sont révélés lourds et compliqués à développer. Ils sont tombés en désuétude, mais ils restent une référence et continuent d'être décrits dans les manuels d'intelligence artificielle.

Les travaux sur la logique ont quand même conduit à quelques applications incontournables: la résolution symbolique d'équations, le calcul d'intégrales en mathématiques, et la vérification automatique de programme. Avec elle, Airbus, par exemple, vérifie l'exactitude et la fiabilité de ses logiciels de contrôle d'avions de ligne.

Une partie de la communauté des chercheurs en IA continue à travailler sur ces sujets. L'autre partie, à laquelle j'appartiens, se consacre à des approches très différentes basées sur l'apprentissage-machine.

… Au machine learning

Le raisonnement ne représente qu'une part réduite de l'intelligence humaine. Nous pensons souvent par analogie, nous agissons par intuition, en nous adossant à des représentations du monde acquises progressivement par l'expérience. Perception, intuition, expérience... autant de capacités apprises. En tout cas entraînées.

Dans ces conditions, si l'on veut construire une machine dont l'intelligence se rapproche de celle de l'homme, il faut la rendre capable d'apprendre. Le cerveau de l'être humain est formé d'un réseau de 86 milliards de neurones (ou cellules nerveuses) interconnectés, dont 16 milliards dans le cortex. Chaque neurone est connecté en moyenne à près de 2000 autres par des connexions appelées synapses. L'apprentissage procède par création de synapses, suppression de synapses ou modification de leur efficacité. Dans l'approche la plus en vogue de l'apprentissage-machine, on construit donc des réseaux de neurones artificiels dont la procédure d'apprentissage modifie les connexions entre ces derniers.

Donnons-en quelques principes généraux.

La machine learning comporte une première phase d'apprentissage ou d'entraînement, durant laquelle elle  « apprend » progressivement à accomplir une tâche, et une deuxième phase, la mise en œuvre, où la machine n'apprend plus.

Pour entraîner une machine à dire si une image contient une voiture ou un avion, nous devons commencer par lui présenter des milliers d'images contenant un avion ou une voiture. À chaque fois, la machine capte l'image, son réseau intérieur composé de neurones artificiels connectés entre eux, en réalité, des fonctions mathématiques calculées par l'ordinateur traite cette image et donne une réponse en sortie. Si la réponse est correcte, on ne fait rien et on passe à l'image suivante. Si elle n'est pas correcte, on ajuste légèrement les paramètres internes de la machine, c'est-à-dire la force des connexions entre les neurones, pour que sa sortie se rapproche de la réponse désirée. À la longue, le système s'ajuste et finit par reconnaître n'importe quel objet, que ce soit une image qu'il a déjà vue ou une autre. C'est ce qu'on appelle la capacité de généralisation.

Le processus s'inspire du fonctionnement du cerveau, mais les machines en sont encore à des années-lumière. Quelques chiffres: le cerveau comporte 86 × 109 neurones, interconnectés par environ 1,5 × 1014 synapses. Chaque synapse peut effectuer un « calcul » une centaine de fois par seconde. Ce calcul synaptique représente l'équivalent d'une centaine d'opérations numériques sur un ordinateur (multiplication, addition, etc.), soit 1,5 x 1018 opérations par seconde pour le cerveau complet. En réalité, seule une partie des neurones est activée à chaque instant. À titre de comparaison, une carte GPU* peut effectuer 1013 opérations par seconde. Il en faudrait 100 000 pour approcher la puissance du cerveau. Et il y a un hic: le cerveau humain consomme l'équivalent de 25 watts de puissance. Une seule carte GPU en consomme dix fois plus, soit 250 watts ! L'électronique est un million de fois moins efficace que la biologie.


              

 Carte graphique de PC professionnel (*GPU : Graphic Processing Unit) 

Dimensions : 2,8 cm x 24,6 cm x 16,5 cm   -  Poids : 1,86 Kg   -   Consommation : 250 watts


Cocktail d'ancien et de moderne

Aujourd'hui, les applications sont généralement un tricotage d'apprentissage-machine, de GOFAI et d'informatique classique. Considérons la voiture capable de se conduire toute seule. Le système de reconnaissance visuelle embarqué, entraîné à détecter, localiser et reconnaître les objets et indices visuels présents sur la route, utilise une architecture particulière de réseau de neurones appelé « réseau convolutif ». Mais la décision que prend la voiture une fois qu'elle a « vu » le marquage des voies, le trottoir, la voiture en stationnement ou la bicyclette, dépend, elle, de systèmes classiques de planification de trajectoire, écrits à la main, ou même de systèmes à base de règles, que l'on pourrait qualifier de GOFAI.

Ces véhicules complètement autonomes en sont au stade des essais, mais des voitures dans le commerce, comme les modèles électriques Tesla depuis 2015, disposent déjà de systèmes d'aide à la conduite qui recourent aux réseaux convolutifs. Des régulateurs de vitesse équipés de systèmes de vision mettent la voiture en conduite autonome sur l'autoroute, la maintiennent sur la même voie, la font déboîter automatiquement quand le conducteur met le clignotant, tout en détectant s'il y a des voitures derrière elle.

Essai de définition

Nous poursuivrons ce tour du propriétaire tout au long de ce livre, mais il est temps de prendre un peu de recul. Comment définir les caractéristiques communes de tous ces systèmes d'intelligence artificielle ?

Je dirais que l'intelligence artificielle est la capacité, pour une machine, d'accomplir des tâches généralement assurées par les animaux et les humains: percevoir, raisonner et agir. Elle est inséparable de la capacité à apprendre, telle qu'on l'observe chez les êtres vivants. Les systèmes d'intelligence artificielle ne sont que des circuits électroniques et des programmes informatiques très sophistiqués. Mais les capacités de stockage et d'accès mémoire, la vitesse de calcul et les capacités d'apprentissage leur permettent d'« abstraire » les informations contenues dans des quantités énormes de données.

Percevoir, raisonner et agir. Alan Turing, le mathématicien anglais pionnier de l'informatique, décrypteur d'Enigma, le système de codage des messages de l'armée allemande pendant la Seconde Guerre mondiale, était un visionnaire. Il avait déjà eu l'intuition de l'importance de l'apprentissage quand il écrivait : « Instead of trying to produce a programme to simu- late the adult mind, why not try to produce one which simulates the child's. If this were then subjected to an appropriate course of education, one would obtain the adult brain » (« Au lieu de chercher à produire un programme qui simule l'esprit d'un adulte, pourquoi ne pas essayer d'en produire un qui simule celui d'un enfant ? En le soumettant à un entraînement approprié, nous obtiendrions le cerveau d'un adulte »).

Le nom d'Alan Turing reste attaché au test fameux qui consiste à faire dialoguer par écrit une personne et deux interlocuteurs qu'elle ne voit pas : un ordinateur et un autre être humain'. Si la personne ne décèle pas au bout d'un temps déterminé lequel des deux est une machine, cette dernière a passé le test avec succès. Mais les progrès de l'IA sont tels aujourd'hui que cette épreuve n'est plus jugée pertinente par les chercheurs. La capacité à dialoguer s'avère n'être qu'une forme très particulière d'intelligence. Et un système d'IA peut facilement donner le change. Il suffit qu'il se fasse passer pour un adolescent d'Europe de l'Est, distrait et légèrement autiste, qui ne parle pas bien anglais, pour excuser ses contresens et ses maladresses syntaxiques...

Mise au point

Je suis convaincu que le deep learning fait partie de l'avenir de l'intelligence artificielle. Aujourd'hui pourtant, un système de deep learning n'est pas capable de raisonnement logique. Et la logique, dans sa forme actuelle, est incompatible avec l'apprentissage. Le défi des années à venir est de les rendre compatibles.

Le deep learning reste donc encore très puissant... et très borné à la fois. Pas question de faire jouer au go la machine entraînée pour jouer aux échecs, et vice versa. Elle exécute sans avoir la moindre idée de ce qu'elle fait, possède aujourd'hui moins de sens commun qu'un chat de gouttière. S'il fallait placer les systèmes d'intelligence artificielle sur le fabuleux curseur de la capacité intellectuelle où l'homme est à 100, et la souris à 1, ils seraient plus proches du petit rongeur. Et ce, même si la performance de l'IA sur des tâches précises et étroites s'avère surhumaine.

 

-o-o-o-o-o-o-o-

 

Commentaires