Alors que l'intelligence artificielle (IA) atteint les limites des modèles de langage actuels, des entreprises comme OpenAI explorent de nouvelles techniques d'entraînement qui imitent les processus de pensée humains. Ces méthodes, qui ont été intégrées dans le dernier modèle o1 d'OpenAI, devraient redéfinir le paysage de l'IA et influencer la demande de ressources, de l'énergie aux types de puces.
Les scientifiques, chercheurs et investisseurs en IA ont identifié que l'approche traditionnelle consistant à augmenter l'échelle des modèles d'IA en ajoutant plus de données et de puissance de calcul a atteint un plateau.
Ilya Sutskever, co-fondateur de Safe Superintelligence (SSI) et ancien dirigeant d'OpenAI, a reconnu la nécessité d'un changement de stratégie, soulignant que "mettre à l'échelle la bonne chose est plus important que jamais".
Les chercheurs se concentrent désormais sur le "test-time compute", une technique qui améliore les modèles d'IA pendant la phase d'inférence. Cette méthode permet aux modèles d'IA de traiter des tâches complexes plus efficacement en générant et en évaluant plusieurs possibilités avant de sélectionner la solution la plus appropriée.
Noam Brown, chercheur chez OpenAI, a souligné l'efficacité de cette approche, affirmant que permettre à un bot de "réfléchir" pendant 20 secondes pourrait égaler les gains de performance d'une mise à l'échelle multipliée par 100.000.
Le modèle o1 d'OpenAI, précédemment connu sous le nom de Q* et Strawberry, utilise cette technique innovante, lui permettant de résoudre des problèmes par un raisonnement en plusieurs étapes similaire à celui des humains. Le modèle bénéficie également de données sélectionnées et de retours fournis par des docteurs et des experts de l'industrie.
D'autres laboratoires d'IA, dont Anthropic, xAI, et NASDAQ:GOOGL DeepMind, développent également leurs propres versions de cette technique, visant à améliorer leurs capacités d'IA.
Le passage au test-time compute et à des techniques d'inférence plus efficaces pourrait avoir un impact sur le paysage concurrentiel du matériel d'IA. Nvidia (NASDAQ:NVDA), un fournisseur leader de puces d'IA, a vu ses produits très demandés, son PDG Jensen Huang discutant de l'importance des techniques d'inférence et de la forte demande pour leur dernière puce d'IA, Blackwell.
Cette transition des clusters de pré-entraînement massifs vers des nuages d'inférence pourrait remodeler le marché, Sonya Huang de Sequoia Capital notant le potentiel de déplacement vers des serveurs distribués basés sur le cloud pour l'inférence.
Alors que l'industrie de l'IA évolue, des entreprises comme OpenAI sont en mesure de maintenir un avantage concurrentiel en innovant continuellement et en restant plusieurs étapes en avance sur leurs pairs.
Reuters a contribué à cet article.
Cet article a été généré et traduit avec l'aide de l'IA et revu par un rédacteur. Pour plus d'informations, consultez nos T&C.