ARMONK, N.Y. - IBM (NYSE:IBM) a élargi son offre en matière d'intelligence artificielle en intégrant le grand modèle linguistique Mixtral-8x7B (LLM) à sa plateforme d'IA et de données watsonx. Ce modèle, développé par Mistral AI et désormais optimisé par IBM, réduirait potentiellement la latence de 35 à 75 %, en fonction de la taille du lot, et augmenterait le débit de traitement des données de 50 % par rapport à la version standard.
L'amélioration des performances est attribuée à la quantification, un processus qui réduit la taille du modèle et les besoins en mémoire, ce qui peut accélérer les vitesses de traitement. Cette amélioration devrait permettre de réduire les coûts et la consommation d'énergie des entreprises qui utilisent le modèle.
L'intégration de Mixtral-8x7B par IBM souligne son engagement à fournir une gamme diversifiée de modèles d'IA, y compris ceux développés en interne, par des tiers, et des options open-source. La stratégie multi-modèle de l'entreprise vise à répondre aux besoins variés des clients, en leur offrant la flexibilité d'adapter les solutions d'IA aux différentes fonctions de l'entreprise.
Mixtral-8x7B utilise la modélisation Sparse et la technique du mélange d'experts pour traiter et analyser efficacement de grands ensembles de données et fournir des informations pertinentes en fonction du contexte. Ce modèle fait partie d'une initiative plus large d'IBM visant à fournir des modèles de base prêts pour l'entreprise qui permettent aux clients d'exploiter l'IA générative pour l'innovation et l'amélioration des résultats commerciaux.
Kareem Yusuf, Ph.D., Senior Vice President of Product Management & Growth chez IBM Software, a souligné l'importance du choix et de la flexibilité pour les clients qui déploient des modèles d'IA adaptés à leurs besoins commerciaux spécifiques. La plateforme watsonx est conçue pour soutenir un écosystème solide de développeurs d'IA et de chefs d'entreprise dans divers secteurs.
En outre, IBM a annoncé cette semaine la disponibilité de ELYZA-japanese-Llama-2-7b, un modèle LLM japonais d'ELYZA Corporation, sur watsonx. La plateforme héberge également les modèles open-source de Meta et d'autres modèles de tiers, et d'autres devraient être ajoutés dans les mois à venir.
Les informations contenues dans cet article sont basées sur un communiqué de presse.
Cet article a été généré et traduit avec l'aide de l'IA et revu par un rédacteur. Pour plus d'informations, consultez nos T&C.