Article des DNA du 29/12/2023 sur l'Intelligence Artificielle

 

Article des DNA du 29/12/2023

QUE NOUS RÉSERVE 2024 ?

 L’intelligence artificielle s’ancre un peu plus dans notre quotidien

Malgré une concurrence qui se resserre, ChatGPT constitue la référence en matière de modèle de langage.

L’année à venir devrait être marquée par une intégration rapide de l’intelligence artificielle (IA) dans une multitude de services, destinés aussi bien aux particuliers qu’aux professionnels. Mais il faudra probablement attendre encore avant de voir apparaître l’« IA surhumaine » redoutée par certains experts…

Plus vite, plus haut, plus fort ! En cette année olympique, les progrès de l’intelligence artificielle (IA) devraient continuer à tenir le monde en haleine. À quoi faut-il s’attendre ? Probablement davantage à une multitude d’évolutions qu’à une révolution. Les IA génératives s’intègrent toujours plus profondément dans notre quotidien ( lire par ailleurs ), mais les marges de progression se réduisent. À grand renfort d’épreuves de logique ou de tests de connaissances, chaque nouveau modèle de langage revendique volontiers sa supériorité sur ses concurrents.

En réalité, leurs capacités actuelles sont relativement similaires, et les différences vont maintenant surtout se jouer sur d’autres détails : la réduction des « hallucinations » qui pousse ces modèles statistiques à soutenir des affirmations erronées, l’élimination des biais, la taille des modèles, la prise en compte de la dimension éthique.Bref, l’année 2024 devrait être celle de l’optimisation, sur fond de concurrence toujours plus exacerbée. Selon le cabinet Bloomberg Intelligence , le marché de l’IA générative devrait doubler entre 2023 et 2024, passant de 67 à 137 milliards de dollars, et dépasser les 1 300 milliards de dollars à l’horizon 2032. Après dix années de gestation en laboratoire, l’explosion de l’IA générative a redistribué les cartes. Des entreprises inconnues comme OpenAI ont été propulsées sur le devant de la scène, alors que des géants comme Google ont pu sembler à la traîne. Certains acteurs majeurs n’ont d’ailleurs pas encore dévoilé leur jeu : on songe à Amazon, mais surtout à Apple, qui prépare dans le plus grand secret un concurrent à ChatGPT baptisé Ajax. Et des centaines de startups, à l’image d’Anthropic ou de la licorne française Mistral AI, espèrent figurer parmi les champions de demain.

Les regards resteront évidemment tournés vers OpenAI, et la version 5 de ChatGPT dont on ignore quand elle sera présentée. Mais la startup californienne a d’autres projets dans ses cartons, à commencer par le mystérieux projet Q*, objet des rumeurs les plus folles depuis la tentative d’éviction de son patron Sam Altman. Selon les rares éléments dont on dispose, cette nouvelle IA se montrerait exceptionnellement performante pour résoudre des problèmes mathématiques – un des maillons faibles des modèles génératifs actuels.

Rien ne dit que ces modèles révolutionnaires débarqueront en 2024 – ni même en 2025. Ce qui est certain, en revanche, c’est que l’intégration de fonctionnalités IA dans une multitude de services va encore s’accélérer ces prochains mois : chatbots intelligents, synthèses de textes, création d’images à la carte, réponses automatiques, assistants de rédaction, aide au développement, traduction en temps réel… Une autre grande tendance devrait être l’apparition d’IA multimodales, capables d’analyser plusieurs types de données. Ces dernières peuvent, par exemple, analyser une image, comprendre la demande écrite qui lui est associée, élaborer une réponse et la lire à haute voix. Depuis quelques mois, ChatGPT en est déjà capable. Mais OpenAI ne devrait pas conserver ce monopole très longtemps. Tous les géants du secteur travaillent sur l’IA multimodale, qui pourrait donner une seconde jeunesse à leurs assistants virtuels ou enceintes connectées. Et des modèles encore plus ambitieux sont en cours de développement, à l’image de l’IA multimodale de Meta capable d’analyser également la profondeur et le mouvement.

Il faut aussi s’attendre à assister à une course à la miniaturisation, avec des modèles de taille toujours plus réduite, capables de fonctionner sur un ordinateur voire un smartphone, sans forcément recourir au cloud. Ces prochains mois, les puces dédiées à l’accélération de l’IA devraient commencer à arriver dans nos appareils domestiques.

Jean-Michel Lahire

----------------

 « C’est un gros changement des usages »

Questions à Tiphaine Viard, Maîtresse de conférences en IA à Télécom Paris

 L’an dernier à la même époque, presque personne n’avait entendu parler de ChatGPT. Aujourd’hui, on a l’impression que l’IA arrive partout. Est-ce que cela vous étonne ?

« En lui-même, ChatGPT n’est pas une révolution technique, c’est plutôt un gros changement des usages : le grand public s’est mis à interagir avec une technologie qui restait auparavant plutôt cantonnée aux domaines scientifique et informatique. Les modèles de langage sont un sujet de recherche depuis une dizaine d’années. Il n’y a pas d’énormes nouveautés, ce sont des modèles qu’on connaissait. Les données sont juste plus grosses. Mais j’ai l’impression qu’il y a une énorme confusion : on prend ces modèles pour des moteurs de recherche interactifs, ce qu’ils ne sont pas. En réalité, ce sont des générateurs de textes. Il y a aussi eu une sorte d’anthropomorphisation de l’IA, qui s’est vraiment renforcée avec ChatGPT. OpenAI a fait beaucoup de petits choix en ce sens, par exemple en affichant la réponse au fur et à mesure, comme si un humain la tapait sur une machine. Cela ne correspond à aucune réalité technique. »

Qu’est-ce que l’IA générative sait bien faire ? À l’inverse, quelles tâches n’arrive-t-elle pas à accomplir ?

« Ces IA sont fortes pour la génération de textes : c’est dans ce domaine qu’on a le plus de données, d’expérience et de facilité. Il y a beaucoup de choses également autour de la génération d’images, de vidéos, de sons, qui fonctionnent bien. Ce n’est pas très surprenant parce que c’est le même mécanisme. Un transformer , le modèle qui se trouve à la base des IA génératives, fonctionne avec un espace vectoriel. Tant que vous arrivez à transformer vos données, quelles qu’elles soient, en espace vectoriel, il n’y a quasiment plus d’enjeu. En tout cas en théorie. En pratique, c’est plus difficile de trouver une représentation vectorielle pertinente pour une vidéo que pour du texte. Là où ça bloque, c’est sur toutes les questions de raisonnement, car ce ne sont pas des modèles qui sont conçus pour ça. Il y a beaucoup d’intérêt actuellement autour des recherches sur les modèles hybrides, qui vont être capables d’utiliser un modèle génératif pour sortir du contenu et utiliser un autre modèle pour vérifier et filtrer les résultats. »

Ces modèles montrent vite leurs limites en « hallucinant » des réponses. D’où vient le problème, et peut-il être réglé facilement ?

« Ces hallucinations font vraiment partie intégrante de ces modèles. Le modèle probabiliste reconstruit un contenu qui a l’air crédible, mais il n’a aucune notion de ce qui est juste – d’où les hallucinations. Si une information fausse s’est retrouvée dans les entraînements, on va aussi la retrouver dans le modèle. L’an dernier, OpenAI avait expliqué qu’en plus de leur modèle, ils utilisaient de l’apprentissage par renforcement. Concrètement, ils faisaient sortir du contenu à ChatGPT et le faisaient relire à des humains. Si la réponse était bonne, le modèle était renforcé, si elle était mauvaise, il était pénalisé. Je pense qu’OpenAI continue à le faire. On peut aussi utiliser des bases de connaissances qui sont vérifiées. Il y a beaucoup de travaux sur ces questions d’hallucinations et de véracité. Les performances s’améliorent lentement, mais ce sont des problèmes butoir : on les rencontrait déjà en 2015, et ils existent toujours aujourd’hui. »

Certains experts mettent en garde contre le danger que poserait l’arrivée prochaine d’une intelligence artificielle générale (AGI), qui désigne dans le jargon une IA capable d’effectuer n’importe quelle tâche humaine. Cela vous paraît relever du fantasme ?

« Complètement, même à moyen terme. C’est du même ordre que si un fabricant de montres affirmait qu’on allait bientôt inventer le voyage dans le temps. Je ne peux pas dire que dans le futur, ça n’arrivera jamais… Mais dans la situation actuelle, nous en sommes loin. »

Qu’attendez-vous de l’actualité de ces prochains mois ?

« En termes de modèles, honnêtement, pas grand-chose. À l’échelle des prochains mois, ce sont surtout les questions de régulation qu’il va falloir regarder, avec la suite de l’AI Act. On commence aussi à voir apparaître des grands courants et des acteurs qui semblent partis pour rester. Le milieu devient moins volatil, mais beaucoup de choses peuvent changer. Est-ce que dans cinq ans, les gens parleront encore d’OpenAI comme un acteur central ? Est-ce que l’Union européenne va devenir un acteur majeur à cause de l’AI Act, ou est ce que ce ne sera qu’un pétard mouillé ? »

 TÉMOIGNAGES

 Témoignages « Au travail, c’est un gain de temps formidable »

Delphine Bancaud

        Loin de considérer l ’intelligence artificielle (IA) comme une ennemie, ils en ont fait une alliée. Certains de nos lecteurs ont découvert avec curiosité les chabots [programme capable de répondre en temps réel aux questions d’un internaute, N.D.L.R.] avant de les utiliser au quotidien dans leur travail. Anthony, 35  ans, de Vesoul (Haute-Saône), ne pourrait plus s’en passer : « Cet outil est devenu indispensable pour me faire gagner du temps, améliorer la qualité de mes mails destinés à mes clients et trouver des nouvelles idées ». Pour James, 37 ans, directeur informatique à Strasbourg (Bas-Rhin), ChatGPT est devenu une sorte d’assistant : « Je m’en sers régulièrement pour écrire ou réécrire des textes dans des situations très variées : rédaction d’un cahier des charges, réécriture d’un texte ou d’une demande d’augmentation. C’est un outil incroyable qui évolue à vitesse grand V et je peux vous dire que l’IA est déjà plus efficace que de nombreux collègues ! », ironise-t-il. Siméon, 34 ans, de Génelard (Saône-et-Loire), gérant d’une entreprise de services à la personne, ne se verrait plus travailler sans son chatbot préféré : « J’utilise l’IA quasiment tous les jours depuis six  mois. Ça me sert à améliorer mes courriers aux clients, qui sont davantage professionnels. Je fais un copier-coller de mon texte et ChatGPT corrige mes fautes d’orthographe, remplace certaines tournures de phrases par d’autres plus élégantes, soigne la mise en forme du document et ajoute des formules de politesse. Je l’emploie également pour remplir des dossiers administratifs complexes. C’est un gain de temps formidable pour moi ».

• « C’est un bon compagnon qui peut rendre d’utiles services »

      À chaque secteur d’activité son utilisation. Christophe, 57  ans, professeur de physique-chimie qui habite à Guebwiller (Haut-Rhin), y a souvent recours depuis plusieurs mois. « Je l’utilise en classe pour initier les élèves avec discernement à ce nouvel outil. Par ailleurs, ChatGPT est particulièrement fort pour écrire un programme en python (langage de programmation), le corriger ou encore donner toutes les explications nécessaires, ligne par ligne. Il me corrige également des exercices de maths, une option que j’ai testée pour l’instant au niveau seconde. C’est un bon compagnon qui peut rendre d’utiles services », précise-t-il. Mais nos lecteurs sont néanmoins conscients de ses limites : « Il faut toujours avoir l’œil critique afin de corriger d’éventuelles bourdes », souligne Christophe

 

-o-o-o-o-o-o-o-o-o-

Commentaires