Investing.com — OpenAI a considérablement réduit le temps et les ressources consacrés aux tests de sécurité de ses modèles d'intelligence artificielle, suscitant des inquiétudes quant aux garde-fous de sa technologie, selon un rapport du Financial Times publié vendredi.
Selon le rapport du FT, citant huit personnes familières avec le sujet, le personnel et les groupes qui évaluent les risques et les performances des modèles d'OpenAI n'ont récemment disposé que de quelques jours pour effectuer leurs évaluations.
Les processus de test de la start-up sont devenus moins rigoureux, avec moins de ressources et de temps consacrés à l'atténuation des risques, indique le rapport du FT.
Cette information survient alors qu'OpenAI s'efforce de lancer des modèles d'IA mis à jour et de maintenir son avantage concurrentiel, notamment face à une concurrence accrue de nouveaux acteurs chinois comme DeepSeek.
OpenAI se prépare à lancer son nouveau modèle o3 d'ici la semaine prochaine, bien qu'aucune date de sortie précise n'ait été déterminée. Cependant, cette course à la publication de modèles mis à jour pourrait compromettre les contrôles de sécurité de l'entreprise.
Néanmoins, ces informations sur la réduction des temps de test de sécurité interviennent également dans un contexte d'évolution de l'IA vers l'inférence - c'est-à-dire le traitement et la génération de nouvelles données - plutôt que l'entraînement, qui utilise des données existantes pour améliorer les capacités d'un modèle d'IA.
OpenAI a annoncé en avril avoir levé 40 milliards de dollars lors d'une levée de fonds menée par le groupe japonais SoftBank Group Corp. (TYO:9984), valorisant l'entreprise à 300 milliards de dollars.
Cet article a été généré et traduit avec l'aide de l'IA et revu par un rédacteur. Pour plus d'informations, consultez nos T&C.