En 2023, l'utilisation de la technologie de l'intelligence artificielle (IA) a connu une augmentation significative, avec un enthousiasme croissant pour ses capacités avancées de création de contenu.
Avec cette expansion rapide, les professionnels ont rencontré divers défis avec les systèmes d'IA, en particulier le problème de "l'hallucination" - où les systèmes produisent des informations incorrectes ou inventées, ce qui a entravé leur application plus large.
Toutefois, les entreprises qui ont créé ces systèmes d'IA ont rapidement relevé ces défis. Elles ont découvert que la fourniture d'un "contexte" aux systèmes, généralement sous la forme de données vectorielles utilisées au cours du processus de génération de réponses, permet de lutter efficacement contre l'hallucination, comme le décrivent les analystes de JPMorgan dans un récent rapport destiné à leurs clients.
"La génération augmentée par récupération (RAG) est devenue une technique cruciale pour améliorer les performances des grands modèles de langage (LLM) en leur donnant le contexte nécessaire à utiliser, réduisant ainsi l'hallucination et garantissant que les réponses sont pertinentes par rapport à la question posée, sur la base de données actualisées ou exclusives qui n'ont pas été incluses dans la formation initiale", ont déclaré les analystes.
Les analystes ont également observé qu'OpenAI conseille l'utilisation de modèles plus petits et plus rapides tels que "textembedding-003", qui réduit le coût de 95 % pour les modèles d'intégration.
Cette stratégie consiste à transformer et à compresser de grands ensembles de données textuelles afin de faciliter leur examen et leur organisation dans des bases de données conçues pour des applications d'IA telles que la réponse à des questions, la recherche et l'analyse de données.
"Par exemple, ce projet de Microsoft (NASDAQ:MSFT) montre comment les embeddings de mots issus des LLM peuvent être intégrés à Azure Cognitive Search pour développer des fonctionnalités de recherche capables de discerner les relations entre les termes d'une requête de recherche et les éléments d'une base de données", ajoutent les analystes.
En outre, d'autres grandes entreprises technologiques ont fait progresser leurs initiatives en matière d'IA.
Google (NASDAQ:GOOGL), par exemple, a changé le nom de Bard en Gemini et a introduit le modèle Ultra 1.0, qui est disponible pour les utilisateurs d'applications qui prennent en charge plusieurs types de médias, moyennant un abonnement mensuel de 20 dollars.
Anthropic a également présenté Claue 2.1, qui offre une précision accrue, moins d'hallucinations, la possibilité de tenir compte d'un plus grand nombre de contextes et un meilleur rapport coût-efficacité.
Apple (NASDAQ:AAPL) est également entré dans la compétition en lançant des modèles nommés 4M et Ferret, qui sont plus performants que ChatGPT-Vision en matière d'apprentissage à partir du contexte fourni.
Cet article a été produit et traduit avec l'aide de l'IA et examiné par un rédacteur. Pour plus de détails, veuillez consulter nos conditions générales.