À l’approche de la WWDC, les chercheurs d’Apple remettent en question des affirmations récentes concernant les modèles d’intelligence artificielle. Leur étude révèle que les Large Reasoning Models (LRMs) ne parviennent pas à un raisonnement efficace, remettant ainsi en cause les espoirs d’évolution vers l’intelligence générale artificielle.
Approche de la WWDC : Les chercheurs d’Apple contestent les affirmations selon lesquelles l’IA est capable de raisonner
Les recherches d’Apple face à l’IA
Apple, malgré un certain retard en matière de fonctionnalités d’intelligence artificielle par rapport à d’autres entreprises, continue d’avancer à la pointe de la recherche sur le sujet. Ses chercheurs ont récemment publié un article qui remet en question les affirmations selon lesquelles certains des nouveaux modèles d’IA, souvent désignés comme des Large Reasoning Models (LRM), seraient capables de raisonnement étape par étape.
Mythes sur les modèles d’IA
On s’accorde généralement à dire que les modèles d’IA générative conventionnels, également appelés Large Language Models (LLMs), manquent de la capacité de raisonnement. Toutefois, certaines entreprises d’IA affirment que la génération actuelle de modèles peut atteindre des niveaux supérieurs de raisonnement, grâce à une nouvelle approche visant à inciter les LLM à "montrer leur travail". Cela signifie qu’on demande à l’IA de décrire les étapes individuelles pour arriver à une conclusion.
Illusion de la pensée
Les chercheurs d’Apple qualifient cette approche d’"illusion de la pensée". Ils affirment que des tests sur une série de LRM montrent que leur faculté de raisonnement se désintègre rapidement, même devant des défis logiques relativement simples. Par exemple, le célèbre puzzle de la Tour de Hanoï, qui consiste à déplacer des disques d’un piquet à un autre en respectant certaines règles, démontre clairement cette limitation.
Description du puzzle
Le puzzle de la Tour de Hanoï se compose de trois piquets et de n disques de tailles différentes empilés sur le premier piquet. L’objectif est de transférer tous les disques du premier piquet au troisième. Les mouvements valides permettent de déplacer un seul disque à la fois, en prenant uniquement le disque supérieur d’un piquet, et interdisent de placer un disque plus grand sur un plus petit.
Résultats des recherches d’Apple
Les conclusions des chercheurs sont frappantes : les LRM se révèlent en réalité moins performants que les LLM pour les versions les plus simples du puzzle. Bien qu’ils montrent une légère amélioration avec un nombre accru de disques, leur performance est catastrophique avec plus de huit disques. Les résultats indiquent que :
- Les problèmes simples (N=1 à 3) montrent une baisse de précision au fil du temps due à un "sur-résonnement".
- Les problèmes modérés (N=4 à 7) révèlent une légère amélioration de la précision avec un raisonnement prolongé.
- Les problèmes complexes (N≥8) affichent une précision proche de zéro, témoignant d’un échec total du raisonnement.
Démonstration de l’échec des LRM
Les chercheurs ont également démontré que les LRM échouent même quand on leur fournit l’algorithme nécessaire pour résoudre le puzzle. Ces résultats remettent en question les affirmations concernant les capacités des nouveaux modèles d’IA, soulignant des limites fondamentales dans leur développement.
Réactions des experts en neurosciences
Le professeur émérite de psychologie et neurosciences à l’Université de New York, Gary Marcus, a affirmé que ces découvertes montrent que l’espoir de voir des LLM de plus en plus performants mener à une forme d’intelligence générale est illusoire. Il a ajouté :
"Quiconque pense que les LLM sont un chemin direct vers une AGI capable de transformer fondamentalement la société se berce d’illusions. Cela ne signifie pas que le domaine des réseaux neuronaux est en déclin, ou que l’apprentissage profond est obsolète. Les LLM ne sont qu’une forme de l’apprentissage profond, et d’autres formes pourraient éventuellement mieux réussir."
En résumé
Les recherches menées par Apple montrent clairement que les modèles d’IA actuels, même ceux qui prétendent avoir des capacités de raisonnement, présentent des limitations évidentes. Cette situation soulève des questions sur la direction future de la recherche en IA et sur la viabilité des LRM en tant qu’outils de raisonnement efficaces.
Mon avis :
Les chercheurs d’Apple remettent en question l’idée que certains modèles d’intelligence artificielle (IA) récents, appelés modèles de raisonnement large (LRM), possèdent des capacités de raisonnement. Leurs tests ont révélé que ces modèles échouent même dans des tâches logiques simples, soulignant ainsi les limites persistantes des approches actuelles, malgré les affirmations optimistes sur leur potentiel.
Les questions fréquentes :
Quelles sont les principales conclusions des chercheurs d’Apple concernant les modèles d’IA ?
Les chercheurs d’Apple remettent en question l’affirmation selon laquelle les nouveaux modèles d’IA, appelés Modèles de Raisonnement Large (LRMs), sont capables de penser logiquement. Leur étude révèle que, même avec des défis de logique simples, ces modèles échouent, ce qui les rend moins efficaces que les modèles génératifs classiques (LLMs).
Pour convertir les prix de dollars en euros, nous utilisons le taux de change actuel de 1 USD = 0,9261 EUR (wise.com). Voici le titre SEO révisé avec des mots-clés pertinents et les prix convertis :
"Les meilleurs équipements HomeKit pour la saison estivale : des accessoires intelligents pour votre maison"
Ce titre met en avant les équipements HomeKit adaptés à l'été, en intégrant des mots-clés tels que "équipements HomeKit", "saison estivale", "accessoires intelligents" et "maison".
Pourquoi les LRM échouent-ils dans des tâches logiques simples ?
Les tests montrent que les LRMs rencontrent des difficultés avec des problèmes simples, comme le puzzle de la Tour de Hanoï. Même lorsqu’on leur fournit l’algorithme nécessaire pour résoudre le problème, ils ne parviennent pas à générer des solutions correctes, ce qui remet en question leur capacité à raisonner.
Quelles implications présentent ces résultats pour l’avenir des IA ?
Ces résultats suggèrent que, malgré des mécanismes de réflexion sophistiqués, les modèles d’IA actuels ont des limitations fondamentales en matière de raisonnement. Les chercheurs estiment qu’il est illusoire de penser que l’amélioration des LLMs mènera inévitablement à une intelligence générale artificielle (AGI) capable de transformer la société.
Que doit-on attendre des futurs développements en IA ?
Selon des experts comme le professeur Gary Marcus, il est nécessaire de dépasser l’espoir que des modèles de plus en plus puissants puissent aboutir à une AGI. D’autres approches, notamment celles qui intègrent mieux les symboles, pourraient être plus prometteuses à l’avenir, mais les limitations des modèles actuels deviennent de plus en plus évidentes.