Article des DNA du 29/12/2023 sur l'Intelligence Artificielle
Article
des DNA du 29/12/2023
QUE NOUS RÉSERVE 2024 ?
L’intelligence
artificielle s’ancre un peu plus dans notre quotidien
Malgré une concurrence
qui se resserre, ChatGPT constitue la référence en matière de modèle de
langage.
L’année
à venir devrait être marquée par une intégration rapide de l’intelligence
artificielle (IA) dans une multitude de services, destinés aussi bien aux
particuliers qu’aux professionnels. Mais il faudra probablement attendre encore
avant de voir apparaître l’« IA surhumaine » redoutée par certains experts…
Plus
vite, plus haut, plus fort ! En cette année olympique, les progrès de
l’intelligence artificielle (IA) devraient continuer à tenir le monde en
haleine. À quoi faut-il s’attendre ? Probablement davantage à une multitude
d’évolutions qu’à une révolution. Les IA génératives s’intègrent toujours plus
profondément dans notre quotidien ( lire par ailleurs ), mais les marges de
progression se réduisent. À grand renfort d’épreuves de logique ou de tests de
connaissances, chaque nouveau modèle de langage revendique volontiers sa
supériorité sur ses concurrents.
En
réalité, leurs capacités actuelles sont relativement similaires, et les
différences vont maintenant surtout se jouer sur d’autres détails : la
réduction des « hallucinations » qui pousse ces modèles statistiques à soutenir
des affirmations erronées, l’élimination des biais, la taille des modèles, la
prise en compte de la dimension éthique.Bref, l’année 2024 devrait être celle
de l’optimisation, sur fond de concurrence toujours plus exacerbée. Selon le
cabinet Bloomberg Intelligence , le marché de l’IA générative devrait doubler
entre 2023 et 2024, passant de 67 à 137 milliards de dollars, et dépasser les 1
300 milliards de dollars à l’horizon 2032. Après dix années de gestation en
laboratoire, l’explosion de l’IA générative a redistribué les cartes. Des
entreprises inconnues comme OpenAI ont été propulsées sur le devant de la
scène, alors que des géants comme Google ont pu sembler à la traîne. Certains
acteurs majeurs n’ont d’ailleurs pas encore dévoilé leur jeu : on songe à
Amazon, mais surtout à Apple, qui prépare dans le plus grand secret un
concurrent à ChatGPT baptisé Ajax. Et des centaines de startups, à l’image
d’Anthropic ou de la licorne française Mistral AI, espèrent figurer parmi les
champions de demain.
Les
regards resteront évidemment tournés vers OpenAI, et la version 5 de ChatGPT
dont on ignore quand elle sera présentée. Mais la startup californienne a
d’autres projets dans ses cartons, à commencer par le mystérieux projet Q*,
objet des rumeurs les plus folles depuis la tentative d’éviction de son patron
Sam Altman. Selon les rares éléments dont on dispose, cette nouvelle IA se
montrerait exceptionnellement performante pour résoudre des problèmes
mathématiques – un des maillons faibles des modèles génératifs actuels.
Rien
ne dit que ces modèles révolutionnaires débarqueront en 2024 – ni même en 2025.
Ce qui est certain, en revanche, c’est que l’intégration de fonctionnalités IA
dans une multitude de services va encore s’accélérer ces prochains mois :
chatbots intelligents, synthèses de textes, création d’images à la carte,
réponses automatiques, assistants de rédaction, aide au développement,
traduction en temps réel… Une autre grande tendance devrait être l’apparition
d’IA multimodales, capables d’analyser plusieurs types de données. Ces
dernières peuvent, par exemple, analyser une image, comprendre la demande
écrite qui lui est associée, élaborer une réponse et la lire à haute voix.
Depuis quelques mois, ChatGPT en est déjà capable. Mais OpenAI ne devrait pas
conserver ce monopole très longtemps. Tous les géants du secteur travaillent
sur l’IA multimodale, qui pourrait donner une seconde jeunesse à leurs
assistants virtuels ou enceintes connectées. Et des modèles encore plus
ambitieux sont en cours de développement, à l’image de l’IA multimodale de Meta
capable d’analyser également la profondeur et le mouvement.
Il
faut aussi s’attendre à assister à une course à la miniaturisation, avec des
modèles de taille toujours plus réduite, capables de fonctionner sur un
ordinateur voire un smartphone, sans forcément recourir au cloud. Ces prochains
mois, les puces dédiées à l’accélération de l’IA devraient commencer à arriver
dans nos appareils domestiques.
Jean-Michel
Lahire
« C’est
un gros changement des usages »
• Questions à ▶
Tiphaine Viard, Maîtresse de conférences en IA à Télécom Paris
L’an
dernier à la même époque, presque personne n’avait entendu parler de ChatGPT.
Aujourd’hui, on a l’impression que l’IA arrive partout. Est-ce que cela vous
étonne ?
«
En lui-même, ChatGPT n’est pas une révolution technique, c’est plutôt un gros
changement des usages : le grand public s’est mis à interagir avec une
technologie qui restait auparavant plutôt cantonnée aux domaines scientifique
et informatique. Les modèles de langage sont un sujet de recherche depuis une
dizaine d’années. Il n’y a pas d’énormes nouveautés, ce sont des modèles qu’on
connaissait. Les données sont juste plus grosses. Mais j’ai l’impression qu’il
y a une énorme confusion : on prend ces modèles pour des moteurs de recherche
interactifs, ce qu’ils ne sont pas. En réalité, ce sont des générateurs de
textes. Il y a aussi eu une sorte d’anthropomorphisation de l’IA, qui s’est
vraiment renforcée avec ChatGPT. OpenAI a fait beaucoup de petits choix en ce
sens, par exemple en affichant la réponse au fur et à mesure, comme si un
humain la tapait sur une machine. Cela ne correspond à aucune réalité
technique. »
Qu’est-ce
que l’IA générative sait bien faire ? À l’inverse, quelles tâches
n’arrive-t-elle pas à accomplir ?
«
Ces IA sont fortes pour la génération de textes : c’est dans ce domaine qu’on a
le plus de données, d’expérience et de facilité. Il y a beaucoup de choses
également autour de la génération d’images, de vidéos, de sons, qui
fonctionnent bien. Ce n’est pas très surprenant parce que c’est le même
mécanisme. Un transformer , le modèle qui se trouve à la base des IA
génératives, fonctionne avec un espace vectoriel. Tant que vous arrivez à
transformer vos données, quelles qu’elles soient, en espace vectoriel, il n’y a
quasiment plus d’enjeu. En tout cas en théorie. En pratique, c’est plus
difficile de trouver une représentation vectorielle pertinente pour une vidéo
que pour du texte. Là où ça bloque, c’est sur toutes les questions de
raisonnement, car ce ne sont pas des modèles qui sont conçus pour ça. Il y a
beaucoup d’intérêt actuellement autour des recherches sur les modèles hybrides,
qui vont être capables d’utiliser un modèle génératif pour sortir du contenu et
utiliser un autre modèle pour vérifier et filtrer les résultats. »
Ces
modèles montrent vite leurs limites en « hallucinant » des réponses. D’où vient
le problème, et peut-il être réglé facilement ?
«
Ces hallucinations font vraiment partie intégrante de ces modèles. Le modèle
probabiliste reconstruit un contenu qui a l’air crédible, mais il n’a aucune
notion de ce qui est juste – d’où les hallucinations. Si une information fausse
s’est retrouvée dans les entraînements, on va aussi la retrouver dans le
modèle. L’an dernier, OpenAI avait expliqué qu’en plus de leur modèle, ils
utilisaient de l’apprentissage par renforcement. Concrètement, ils faisaient
sortir du contenu à ChatGPT et le faisaient relire à des humains. Si la réponse
était bonne, le modèle était renforcé, si elle était mauvaise, il était
pénalisé. Je pense qu’OpenAI continue à le faire. On peut aussi utiliser des
bases de connaissances qui sont vérifiées. Il y a beaucoup de travaux sur ces
questions d’hallucinations et de véracité. Les performances s’améliorent
lentement, mais ce sont des problèmes butoir : on les rencontrait déjà en 2015,
et ils existent toujours aujourd’hui. »
Certains
experts mettent en garde contre le danger que poserait l’arrivée prochaine
d’une intelligence artificielle générale (AGI), qui désigne dans le jargon une
IA capable d’effectuer n’importe quelle tâche humaine. Cela vous paraît relever
du fantasme ?
«
Complètement, même à moyen terme. C’est du même ordre que si un fabricant de
montres affirmait qu’on allait bientôt inventer le voyage dans le temps. Je ne
peux pas dire que dans le futur, ça n’arrivera jamais… Mais dans la situation
actuelle, nous en sommes loin. »
Qu’attendez-vous
de l’actualité de ces prochains mois ?
«
En termes de modèles, honnêtement, pas grand-chose. À l’échelle des prochains
mois, ce sont surtout les questions de régulation qu’il va falloir regarder,
avec la suite de l’AI Act. On commence aussi à voir apparaître des grands
courants et des acteurs qui semblent partis pour rester. Le milieu devient
moins volatil, mais beaucoup de choses peuvent changer. Est-ce que dans cinq
ans, les gens parleront encore d’OpenAI comme un acteur central ? Est-ce que
l’Union européenne va devenir un acteur majeur à cause de l’AI Act, ou est ce
que ce ne sera qu’un pétard mouillé ? »
TÉMOIGNAGES
Témoignages
« Au travail, c’est un gain de temps formidable »
Delphine Bancaud
Loin de considérer l
’intelligence artificielle (IA) comme une ennemie, ils en ont fait une alliée.
Certains de nos lecteurs ont découvert avec curiosité les chabots [programme
capable de répondre en temps réel aux questions d’un internaute, N.D.L.R.] avant
de les utiliser au quotidien dans leur travail. Anthony, 35 ans, de Vesoul (Haute-Saône), ne pourrait
plus s’en passer : « Cet outil est devenu indispensable pour me faire gagner du
temps, améliorer la qualité de mes mails destinés à mes clients et trouver des
nouvelles idées ». Pour James, 37 ans, directeur informatique à Strasbourg
(Bas-Rhin), ChatGPT est devenu une sorte d’assistant : « Je m’en sers
régulièrement pour écrire ou réécrire des textes dans des situations très
variées : rédaction d’un cahier des charges, réécriture d’un texte ou d’une
demande d’augmentation. C’est un outil incroyable qui évolue à vitesse grand V
et je peux vous dire que l’IA est déjà plus efficace que de nombreux collègues
! », ironise-t-il. Siméon, 34 ans, de Génelard (Saône-et-Loire), gérant d’une
entreprise de services à la personne, ne se verrait plus travailler sans son
chatbot préféré : « J’utilise l’IA quasiment tous les jours depuis six mois. Ça me sert à améliorer mes courriers
aux clients, qui sont davantage professionnels. Je fais un copier-coller de mon
texte et ChatGPT corrige mes fautes d’orthographe, remplace certaines tournures
de phrases par d’autres plus élégantes, soigne la mise en forme du document et
ajoute des formules de politesse. Je l’emploie également pour remplir des
dossiers administratifs complexes. C’est un gain de temps formidable pour moi
».
• « C’est un bon compagnon qui
peut rendre d’utiles services »
À chaque secteur d’activité son
utilisation. Christophe, 57 ans,
professeur de physique-chimie qui habite à Guebwiller (Haut-Rhin), y a souvent
recours depuis plusieurs mois. « Je l’utilise en classe pour initier les élèves
avec discernement à ce nouvel outil. Par ailleurs, ChatGPT est particulièrement
fort pour écrire un programme en python (langage de programmation), le corriger
ou encore donner toutes les explications nécessaires, ligne par ligne. Il me
corrige également des exercices de maths, une option que j’ai testée pour
l’instant au niveau seconde. C’est un bon compagnon qui peut rendre d’utiles
services », précise-t-il. Mais nos lecteurs sont néanmoins conscients de ses
limites : « Il faut toujours avoir l’œil critique afin de corriger d’éventuelles
bourdes », souligne Christophe
-o-o-o-o-o-o-o-o-o-
Commentaires
Enregistrer un commentaire