Renault dévisse après un sévère avertissement sur ses bénéfices : que faire ?
Investing.com -- Alibaba (NYSE:BABA) a lancé les séries Qwen3-Embedding et Qwen3-Reranker, établissant de nouvelles références en matière d’intégration de texte multilingue et de classement par pertinence. Ces séries, qui comprennent des modèles conçus pour l’intégration de texte, la récupération et les tâches de reclassement, prennent en charge 119 langues et sont disponibles en versions 0,6B, 4B et 8B.
Les séries Qwen3-Embedding et Qwen3-Reranker sont construites sur le modèle fondamental Qwen3, qui se vante de solides capacités de compréhension de texte multilingue. Ces nouveaux modèles ont atteint des performances de pointe dans plusieurs benchmarks pour les tâches d’intégration de texte et de reclassement. Ils sont disponibles en open source sous la licence Apache 2.0 sur Hugging Face, GitHub et ModelScope, et peuvent être utilisés via API sur Alibaba Cloud.
La série Qwen3-Embedding offre une gamme de tailles pour les modèles d’intégration et de reclassement, répondant à divers cas d’utilisation qui privilégient l’efficacité et l’efficience. Le modèle d’intégration de taille 8B se classe n°1 dans le classement multilingue MTEB au 5 juin 2025, avec un score de 70,58. Les modèles de reclassement excellent dans les scénarios de récupération de texte, améliorant considérablement la pertinence des recherches.
La série Qwen3-Embedding prend en charge plus de 100 langues, y compris divers langages de programmation, et fournit de solides capacités de récupération multilingue, interlingue et de code. Les modèles sont conçus en utilisant des architectures à double encodeur et à encodeur croisé et visent à préserver et à améliorer pleinement les capacités de compréhension de texte du modèle de base.
Le cadre de formation pour la série Qwen3-Embedding suit le paradigme de formation en plusieurs étapes établi par la série GTE-Qwen. Cela comprend une structure de formation en trois étapes pour le modèle d’intégration et une utilisation directe de données étiquetées de haute qualité pour la formation supervisée du modèle de reclassement, améliorant l’efficacité de la formation.
Dans le cadre de ses travaux futurs, Alibaba prévoit d’optimiser davantage le modèle fondamental Qwen pour améliorer l’efficacité de la formation des intégrations de texte et des modèles de reclassement. Cela améliorera les performances de déploiement dans divers scénarios. De plus, l’entreprise prévoit d’étendre son système de représentation multimodale pour établir des capacités de compréhension sémantique intermodale.
Cet article a été généré et traduit avec l’aide de l’IA et revu par un rédacteur. Pour plus d’informations, consultez nos T&C.