L'intelligence artificielle générale, une course effrénée qui inquiète jusqu'à ses créateurs
Qu'est-ce que l'AGI ? Faut-il en avoir peur ? Le JDN revient sur les mythes et réalités de ce nouveau type d'IA.
Après l'IA, bientôt l'AGI, pour artificial general intelligence ? L'idée qu'un tel système puisse voir le jour s'est renforcée ces deux dernières années avec la montée en puissance des LLM, toujours plus grands, plus capables, plus efficaces. Au point de réveiller les craintes qu'une super intelligence artificielle soit mise au point et puisse engendrer une cascade de problèmes. Qu'en est-il vraiment ? Définition, usages, craintes justifiées … On fait le point.
Qu'entend-on par AGI ?
Bien que la communauté scientifique de l'IA peine à s'entendre sur la définition exacte d'AGI, certaines caractéristiques communes sont régulièrement partagées par les experts. De manière globale, une AGI peut se définir par un système d'intelligence artificielle avec des capacités supérieures à celle d'un cerveau humain.
"L'AGI représente une évolution significative par rapport aux systèmes d'IA traditionnels. Historiquement, l'IA était très spécialisée, excellant dans des tâches spécifiques mais limitées. L'arrivée des grands modèles de langage a marqué un tournant vers une intelligence plus générale. Contrairement aux systèmes précédents qui dépendaient fortement de données annotées dans des domaines spécifiques, les LLM développent une compréhension plus large et moins restreinte", rappelle Abdel Labbi, responsable du programme Data & IA au sein du laboratoire de recherche d'IBM à Zurich. Pour ce dernier, l'AGI pourrait se traduire par un système d'IA en capacité de comprendre le monde grâce à une analyse fine d'une multitude de modalités au sein du même réseau neuronal.
"L'idée est de créer des systèmes d'IA capables de surpasser les humains dans une très large gamme de tâches, voire dans toutes les tâches imaginables", précise Laurent Daudet directeur général et co-fondateur de LightOn. La principale difficulté reste la manière de définir clairement, avec des chiffres, un système d'AGI. "Il existe certains tests de raisonnement, similaires à des tests de QI, qui sont utilisés comme points de référence pour évaluer les capacités de raisonnement des modèles d'IA. Mais ces tests restent arbitraires et conçus par des humains, ce qui limite leur portée", explique encore le spécialiste français.
Bien qu'il n'existe, officiellement, encore aucun test pour mesurer le taux d'AGI d'une IA, certains benchmarks tendent vers de premiers résultats. "On voit apparaître des benchmarks comme HELM de Stanford (Human Holistic Evaluation of Large Language Models) ou MLLM. D'ailleurs, la prolifération de ces benchmarks pose problème car il n'y a pas de standardisation. Il reste encore beaucoup de chemin à parcourir avant d'arriver à un point où l'on pourrait dire : 'Si vous réussissez ce test, alors vous êtes capables d'AGI'", note Abdel Labbi.
Des actions concrètes dans le monde réel
Que permettront vraiment de réaliser les systèmes d'AGI ? Pour l'heure, les scientifiques s'accordent sur deux capacités phares : l'apprentissage de nouvelles modalités et la réalisation d'actions dans le monde réel. Des capacités qui nécessiteront un élément clé : la compréhension réelle et globale du monde. "Ce qui va vraiment changer la donne, c'est le développement des modèles multimodaux et des modèles d'agents. Ces derniers, qu'on appelle aussi "large agent models" ou "agentic models", représentent la prochaine étape. Dans les modèles autorégressifs actuels, on cache une partie de la phrase et on demande au modèle de la compléter. Mais avec les modèles d'agents, on commence à entraîner des systèmes capables de générer des séquences d'actions. Cela ouvre la porte à des cas d'usage beaucoup plus larges, notamment ceux qui nécessitent du raisonnement et de la planification. Les cas d'usage de la prochaine génération ne se limiteront pas à des actions simples comme classifier, prédire, ranger, générer un mot, traduire ou résumer. Il s'agira plutôt de résoudre des problèmes plus complexes", analyse le spécialiste d'IBM.
Des avancées cognitives qui pourraient profiter directement à la robotique par exemple. "Vous pourriez demander à votre robot de préparer votre omelette préférée le dimanche. Il devra alors comprendre ce que cela implique, prendre le temps de réfléchir, planifier la séquence d'actions, identifier les outils nécessaires, etc. pour accomplir cette mission. En somme, nous passerons de l'exécution de tâches simples à l'accomplissement de missions complexes", illustre encore Abdel Labbi.
Une controverse sur les moyens de parvenir à l'AGI
C'est certainement le sujet sur lequel la communauté scientifique de l'IA est la plus divisée. Certains estiment qu'il suffirait d'entrainer des LLM sur des quantités toujours plus importantes de données et de modalités pour parvenir à l'AGI. En résulte des modèles toujours plus gros. D'autres comme Yann Le Cun, père fondateur du deep learning, pensent qu'il faudra nécessairement de nouvelles percées dans le domaine, au-delà des LLM et des architectures transformers classiques. Une vision que partage assez largement Laurent Daudet : "Ce n'est pas simplement en améliorant les LLM existants qu'on atteindra l'AGI. Il faudra des changements radicaux d'architecture pour y parvenir. Des modifications superficielles comme l'ajout de plus de données ou l'augmentation de la taille des modèles ne suffiront pas. Cela améliorera certes les performances, mais ne provoquera pas la rupture que suppose l'AGI."
L'une des pistes évoquée par le cofondateur de LightOn est de se tourner vers le grounding. Le but étant de que les systèmes d'IA établissent des connexions significatives entre leurs représentations abstraites et le monde réel. L'approche vise à ancrer les connaissances et le raisonnement de l'IA dans des expériences concrètes et des interactions avec l'environnement physique. "Par exemple, le mot "tasse" ne serait pas qu'une suite de lettres, mais serait associé à l'image réelle d'une tasse que la machine pourrait voir", explique-t-il encore.
Une autre approche, complémentaire, vise à explorer l'utilisation de mécanismes d'attention avec de la mémoire. L'attention permet au système de se concentrer sélectivement sur les informations les plus pertinentes, tout en ignorant les éléments moins importants. Lorsque l'attention est couplée à des mécanismes de mémoire, le système peut alors conserver et réutiliser les connaissances acquises précédemment. Cela lui permet d'apprendre de manière cumulative, en construisant sur ses expériences passées. Or l'un des enjeux clés dans la conception d'une AGI est de développer des systèmes capables d'apprendre de manière autonome. "L'objectif est de construire des systèmes experts qui n'auraient pas besoin d'énormes contextes ni de jeux de données toujours plus volumineux", détaille Abdel Labbi. Des expérimentations de ce type sont en cours au sein d'IBM et dans d'autres laboratoires.
Faut-il avoir peur de l'AGI ?
Dans une lettre ouverte publiée en juin dernier, plusieurs chercheurs d'OpenAI et de DeepMind ont alerté la communauté contre les risques liés au développement de l'AGI. Ces risques vont de l'aggravation des inégalités existantes à la manipulation et la désinformation, jusqu'à la possibilité alarmante de perdre le contrôle des systèmes d'IA autonomes, ce qui pourrait potentiellement mener à l'extinction de l'humanité. Alors ces risques sont-ils fondés ?
Pour Laurent Daudet, l'AGI présente des risques déjà identifiés (perte de certains emplois, fausses informations…). En revanche le risque d'une IA qui se désalignerait et deviendrait incontrôlable relèverait davantage du fantasme. "C'est extrêmement peu probable. Cependant, comme pour le risque d'accident nucléaire, même si la probabilité est faible, les conséquences potentielles sont tellement importantes qu'il peut être justifié de s'y intéresser", juge le co-CEO de LightOn.
Pour Abdel Labbi, les craintes exprimées par les chercheurs sont légitimes. "La crainte vient du fait qu'il y a énormément d'efforts consacrés à faire toujours plus gros, plus grands et infiniment moins d'efforts pour essayer de comprendre l'impact de ce que l'on fait. Vous savez bien que l'essentiel de l'investissement (dans les laboratoires d'IA privés, ndlr) va plutôt dans la création de nouvelles capacités que dans la vérification de la fiabilité de ce que l'on a déjà." Et de conclure : "C'est peut-être moins une question d'être gouverné par des robots, et plus une question de développer des choses sans prendre le temps de bien les comprendre. C'est comme si nous vivions au 18e siècle et qu'une déferlante de technologies nous tombait dessus d'un coup : Internet, les voitures autonomes, etc. C'est formidable, mais il faut considérer les pour et les contre de ce genre de choses."