Investing.com- Apple Inc a publié ce week-end une étude affirmant que les modèles d’intelligence artificielle axés sur le raisonnement avaient des capacités limitées et ne parvenaient pas à générer des résultats précis au-delà d’un certain niveau de complexité.
Dans un document intitulé "L’illusion de la pensée : comprendre la force et les limites des modèles de raisonnement à travers le prisme de la complexité des problèmes", les chercheurs d’Apple (NASDAQ:AAPL) ont affirmé que les grands modèles de raisonnement (LRM) présentaient des lacunes évidentes dans la qualité de leur raisonnement et ne parvenaient pas à développer des capacités générales de résolution de problèmes.
Les chercheurs ont testé des LRM tels que O1/o3 d’OpenAI, DeepSeek-R1, Claude 3.7 Sonnet Thinking et Gemini Thinking à travers des problèmes de plus en plus complexes qui s’écartaient également des références standard de test d’IA.
Les chercheurs d’Apple ont utilisé des "environnements de puzzle contrôlables" pour tester les modèles et ont constaté que les performances des LRM se détérioraient, atteignant finalement zéro face à une complexité croissante.
"Nous montrons que les LRM les plus avancés (par exemple, o3-mini, DeepSeek-R1, Claude-3.7-Sonnet-Thinking) ne parviennent toujours pas à développer des capacités généralisables de résolution de problèmes, avec une précision qui s’effondre finalement à zéro au-delà de certaines complexités dans différents environnements", ont écrit les chercheurs d’Apple dans le document.
Les chercheurs ont déclaré que les tests montraient que les LRM présentaient des "inefficacités fondamentales" et des limites claires à leurs capacités d’évolution. Les chercheurs ont également remis en question les méthodes d’évaluation actuelles des LRM basées sur des références mathématiques établies, et ont déclaré avoir conçu une méthode expérimentale plus contrôlée en utilisant des environnements de puzzle algorithmiques.
Les chercheurs d’Apple ont remis en question les affirmations selon lesquelles les LRM constitueraient une avancée significative vers l’IA générale – une forme théorique d’IA capable d’émuler le large éventail de capacités cognitives et de compétences de résolution de problèmes dont font preuve les humains.
L’IA générale est depuis longtemps présentée comme un objectif éventuel par les principaux développeurs, bien qu’elle reste encore très théorique par nature. Les modèles d’IA actuels, en particulier les grands modèles de langage, utilisent la reconnaissance de modèles pour prédire le mot suivant dans une séquence afin de générer un nouveau texte, ce qui les rend toujours sujets à une marge d’erreur élevée et limite leurs capacités de raisonnement.
L’étude d’Apple intervient quelques jours avant la Worldwide Developers Conference de l’entreprise le 9 juin, avec des attentes faibles après que les efforts d’IA de l’entreprise aient largement pris du retard par rapport à leurs concurrents.
Apple a du mal à déployer les fonctionnalités promises dans le cadre de son offre d’IA – Apple Intelligence – malgré son partenariat avec OpenAI pour permettre des fonctionnalités d’IA dans ses appareils phares.
Cet article a été généré et traduit avec l’aide de l’IA et revu par un rédacteur. Pour plus d’informations, consultez nos T&C.