Extrait du livre de Yann Le Cun : Quand La machine apprend
Extrait
du livre de Yann Le Cun : Quand La machine apprend
« La
révolution des neurones artificiels et de l’apprentissage profond »
Yann Le Cun, lauréat du prix Turing
(équivalent du prix Nobel en informatique) est professeur à la New York
University et dirige la recherche fondamentale chez Facebook
Le noyau dur de
l'intelligence artificielle dans les années 1970 et 1980 était une collection
de techniques de raisonnement automatique basées sur la logique et la manipulation
de symboles. Avec une certaine autodérision, les tenants anglo-saxons de cette
tradition la désignent par l'expression GOFAI, acronyme de good
old-fashioned artificial intelligence (« bonne vieille intelligence
artificielle »)...
Ainsi, dans les
systèmes experts: un moteur d'inférence applique des règles aux faits et en
déduit de nouveaux faits. En 1975, MYCIN, par exemple, devait aider le médecin
à identifier les infections aiguës, comme les méningites, et recommander des
traitements antibiotiques. Il était doté d'environ 600 règles du type : « SI
l'organisme infectieux est à Gram négatif ET l'organisme est en forme de
bâtonnet ET l'organisme est anaérobie, ALORS l'organisme est un
bactéroïde (avec une probabilité de 60 %). »
MYCIN était
innovant. Ses règles comportaient des facteurs de certitude que le système
combinait pour produire un score de confiance sur le résultat. Il était doté
d'un moteur d'inférence, dit « à chaînage arrière », par lequel le système
faisait une ou plusieurs hypothèses de diagnostic et questionnait le praticien
sur les symptômes du patient. Le système changeait d'hypothèse au fur et à
mesure des réponses et émettait un diagnostic, puis proposait un antibiotique
et une posologie, avec un certain indice de confiance.
Pour construire
un tel système, un ingénieur avait dû s'asseoir à côté du médecin et lui faire
détailler son raisonnement: comment diagnostiquait-il une appendicite ou une
méningite? Quels étaient les symptômes? Des règles émergeaient. Si le patient
présentait tel et tel symptôme, il y avait telle probabilité d'appendicite,
telle probabilité d'occlusion intestinale ou telle probabilité de colique
néphrétique. L'ingénieur écrivait à la main ces règles dans une base de
connaissances.
La fiabilité de
MYCIN et de ses successeurs était très bonne. Mais ils n'ont pas dépassé le
stade expérimental. L'informatisation en médecine commençait à peine, et la
saisie de données était fastidieuse. Elle l'est toujours, d'ailleurs. Au final,
tous ces systèmes experts fondés sur la logique et la recherche arborescente se
sont révélés lourds et compliqués à développer. Ils sont tombés en désuétude,
mais ils restent une référence et continuent d'être décrits dans les manuels
d'intelligence artificielle.
Les travaux sur
la logique ont quand même conduit à quelques applications incontournables: la
résolution symbolique d'équations, le calcul d'intégrales en mathématiques, et
la vérification automatique de programme. Avec elle, Airbus, par exemple,
vérifie l'exactitude et la fiabilité de ses logiciels de contrôle d'avions de
ligne.
Une partie de
la communauté des chercheurs en IA continue à travailler sur ces sujets.
L'autre partie, à laquelle j'appartiens, se consacre à des approches très
différentes basées sur l'apprentissage-machine.
… Au machine learning
Le raisonnement
ne représente qu'une part réduite de l'intelligence humaine. Nous pensons
souvent par analogie, nous agissons par intuition, en nous adossant à des
représentations du monde acquises progressivement par l'expérience. Perception,
intuition, expérience... autant de capacités apprises. En tout cas entraînées.
Dans ces
conditions, si l'on veut construire une machine dont l'intelligence se
rapproche de celle de l'homme, il faut la rendre capable d'apprendre. Le
cerveau de l'être humain est formé d'un réseau de 86 milliards de neurones (ou
cellules nerveuses) interconnectés, dont 16 milliards dans le cortex. Chaque
neurone est connecté en moyenne à près de 2000 autres par des connexions
appelées synapses. L'apprentissage procède par création de synapses,
suppression de synapses ou modification de leur efficacité. Dans l'approche la
plus en vogue de l'apprentissage-machine, on construit donc des réseaux de
neurones artificiels dont la procédure d'apprentissage modifie les
connexions entre ces derniers.
Donnons-en quelques principes généraux.
La machine learning comporte une première phase
d'apprentissage ou d'entraînement, durant laquelle elle « apprend » progressivement à accomplir
une tâche, et une deuxième phase, la mise en œuvre, où la machine n'apprend
plus.
Pour entraîner une machine à dire si une image contient une voiture ou un
avion, nous devons commencer par lui présenter des milliers d'images contenant
un avion ou une voiture. À chaque fois, la machine capte l'image, son réseau
intérieur composé de neurones artificiels connectés entre eux, en
réalité, des fonctions mathématiques calculées par l'ordinateur traite cette
image et donne une réponse en sortie. Si la réponse est correcte, on ne fait
rien et on passe à l'image suivante. Si elle n'est pas correcte, on ajuste légèrement
les paramètres internes de la machine, c'est-à-dire la force des connexions
entre les neurones, pour que sa sortie se rapproche de la réponse désirée. À la
longue, le système s'ajuste et finit par reconnaître n'importe quel objet, que
ce soit une image qu'il a déjà vue ou une autre. C'est ce qu'on appelle la
capacité de généralisation.
Le processus s'inspire du fonctionnement du cerveau, mais les machines en sont encore à des années-lumière. Quelques chiffres: le cerveau comporte 86 × 109 neurones, interconnectés par environ 1,5 × 1014 synapses. Chaque synapse peut effectuer un « calcul » une centaine de fois par seconde. Ce calcul synaptique représente l'équivalent d'une centaine d'opérations numériques sur un ordinateur (multiplication, addition, etc.), soit 1,5 x 1018 opérations par seconde pour le cerveau complet. En réalité, seule une partie des neurones est activée à chaque instant. À titre de comparaison, une carte GPU* peut effectuer 1013 opérations par seconde. Il en faudrait 100 000 pour approcher la puissance du cerveau. Et il y a un hic: le cerveau humain consomme l'équivalent de 25 watts de puissance. Une seule carte GPU en consomme dix fois plus, soit 250 watts ! L'électronique est un million de fois moins efficace que la biologie.
Carte graphique de PC professionnel (*GPU : Graphic Processing Unit)
Dimensions : 2,8 cm x 24,6 cm x 16,5 cm - Poids : 1,86 Kg - Consommation : 250 watts
Aujourd'hui,
les applications sont généralement un tricotage d'apprentissage-machine, de
GOFAI et d'informatique classique. Considérons la voiture capable de se
conduire toute seule. Le système de reconnaissance visuelle embarqué, entraîné
à détecter, localiser et reconnaître les objets et indices visuels présents sur
la route, utilise une architecture particulière de réseau de neurones appelé «
réseau convolutif ». Mais la décision que prend la voiture une fois qu'elle
a « vu » le marquage des voies, le trottoir, la voiture en stationnement ou la
bicyclette, dépend, elle, de systèmes classiques de planification de
trajectoire, écrits à la main, ou même de systèmes à base de règles, que l'on
pourrait qualifier de GOFAI.
Ces
véhicules complètement autonomes en sont au stade des essais, mais des voitures
dans le commerce, comme les modèles électriques Tesla depuis 2015, disposent
déjà de systèmes d'aide à
la conduite qui recourent aux réseaux convolutifs. Des régulateurs de vitesse
équipés de systèmes de vision mettent la voiture en conduite autonome sur
l'autoroute, la maintiennent sur la même voie, la font déboîter automatiquement
quand le conducteur met le clignotant, tout en détectant s'il y a des voitures
derrière elle.
Essai de définition
Nous poursuivrons ce tour du
propriétaire tout au long de ce livre, mais il est temps de prendre un peu de
recul. Comment définir les caractéristiques communes de tous ces systèmes
d'intelligence artificielle ?
Je dirais que l'intelligence
artificielle est la capacité, pour une machine, d'accomplir des tâches
généralement assurées par les animaux et les humains: percevoir, raisonner et
agir. Elle est inséparable de la capacité à apprendre, telle qu'on l'observe
chez les êtres vivants. Les systèmes d'intelligence artificielle ne sont que
des circuits électroniques et des programmes informatiques très sophistiqués.
Mais les capacités de stockage et d'accès mémoire, la vitesse de calcul et les
capacités d'apprentissage leur permettent d'« abstraire » les informations
contenues dans des quantités énormes de données.
Percevoir, raisonner et agir. Alan
Turing, le mathématicien anglais pionnier de l'informatique, décrypteur
d'Enigma, le système de codage des messages de l'armée allemande pendant la
Seconde Guerre mondiale, était un visionnaire. Il avait déjà eu l'intuition de
l'importance de l'apprentissage quand il écrivait : « Instead of trying to
produce a programme to simu- late the adult mind, why not try to produce one
which simulates the child's. If this were then subjected to an appropriate
course of education, one would obtain the adult brain » (« Au lieu de
chercher à produire un programme qui simule l'esprit d'un adulte, pourquoi ne
pas essayer d'en produire un qui simule celui d'un enfant ? En le soumettant à
un entraînement approprié, nous obtiendrions le cerveau d'un adulte »).
Le nom d'Alan Turing reste attaché au
test fameux qui consiste à faire dialoguer par écrit une personne et deux interlocuteurs
qu'elle ne voit pas : un ordinateur et un autre être humain'. Si la personne ne
décèle pas au bout d'un temps déterminé lequel des deux est une machine, cette
dernière a passé le test avec succès. Mais les progrès de l'IA sont tels
aujourd'hui que cette épreuve n'est plus jugée pertinente par les chercheurs.
La capacité à dialoguer s'avère n'être qu'une forme très particulière d'intelligence.
Et un système d'IA peut facilement donner le change. Il suffit qu'il se fasse
passer pour un adolescent d'Europe de l'Est, distrait et légèrement autiste,
qui ne parle pas bien anglais, pour excuser ses contresens et ses maladresses syntaxiques...
Mise au point
Je suis convaincu que le deep learning
fait partie de l'avenir de l'intelligence artificielle. Aujourd'hui pourtant,
un système de deep learning n'est pas capable de raisonnement logique. Et la
logique, dans sa forme actuelle, est incompatible avec l'apprentissage. Le défi
des années à venir est de les rendre compatibles.
Le deep learning reste donc encore
très puissant... et très borné à la fois. Pas question de faire jouer au go la machine
entraînée pour jouer aux échecs, et vice versa. Elle exécute sans avoir la
moindre idée de ce qu'elle fait, possède aujourd'hui moins de sens commun qu'un
chat de gouttière. S'il fallait placer les systèmes d'intelligence artificielle
sur le fabuleux curseur de la capacité intellectuelle où l'homme est à 100, et
la souris à 1, ils seraient plus proches du petit rongeur. Et ce, même si la
performance de l'IA sur des tâches précises et étroites s'avère surhumaine.
-o-o-o-o-o-o-o-
Commentaires
Enregistrer un commentaire