Des rapports récents indiquent que le New York Times (NYT) a entamé une procédure judiciaire contre OpenAI, le créateur de ChatGPT, et Microsoft Corporation (NASDAQ:MSFT), les accusant de violation des droits d'auteur.
L'action en justice soutient que les modèles linguistiques étendus d'OpenAI, connus sous le nom de ChatGPT, utilisent sans autorisation des contenus protégés par le droit d'auteur. Le New York Times demande des dommages-intérêts, le retrait de tous les modèles de langage qui incluent du contenu du Times, une décision de justice durable pour interdire à Microsoft et à OpenAI de poursuivre les activités qui violent prétendument les droits d'auteur, ainsi que d'autres recours juridiques.
Ce type de contestation juridique n'est pas unique et s'est déjà produit dans différents secteurs, des artistes ayant intenté des actions en justice contre des entreprises produisant des modèles d'image génératifs. GitHub, une filiale de Microsoft, ainsi qu'OpenAI, sont défendus dans un procès collectif concernant l'incorporation de code de programmation dans le modèle Codex d'OpenAI, qui fait partie intégrante du fonctionnement du service GitHub Copilot de Microsoft.
Les entreprises qui fournissent des services d'intelligence artificielle soutiennent que les modèles de langage expansifs sont exempts de droits d'auteur en vertu de la doctrine de l'"utilisation équitable", affirmant que ces technologies créent un contenu original plutôt que de reproduire des œuvres protégées par le droit d'auteur.
Les analystes financiers de Bank of America ont estimé qu'il y aurait "un effet minime sur la progression du développement de Copilot", et ils prévoient également "un effet minime ou nul sur les revenus des services d'intelligence artificielle sur Azure dans l'avenir immédiat".
"Microsoft a formé un comité dédié à l'intelligence artificielle responsable qui se réunit régulièrement pour établir des lignes directrices sur la confidentialité des données et pour atténuer l'apparition d'erreurs et de biais dans les modèles de langage", comme le mentionne un rapport d'analyse financière.
"Prenons, par exemple, Security Copilot, qui est formé en utilisant les données propriétaires de Microsoft, y compris les menaces de sécurité pour ses centres de données, qui se classent au deuxième rang mondial. Dans le même ordre d'idées, GitHub Copilot s'appuie sur le modèle OpenAI Codex, bien que les données utilisées pour former Codex pour GitHub Copilot soient vraisemblablement limitées au code de programmation propriétaire de Microsoft, qui est utilisé dans le développement de la vaste gamme de services Azure et d'autres produits Microsoft."
Entre-temps, on s'attend à ce que d'autres créateurs de contenu intentent des actions en justice similaires contre les entreprises qui développent des modèles de langage.
"Nous prévoyons une augmentation des poursuites en matière de droits d'auteur à l'encontre d'OpenAI, de Microsoft et d'autres développeurs d'intelligence artificielle générative, à mesure que le système judiciaire traitera les affaires existantes initiées par les propriétaires de contenu. Nous estimons que Microsoft est bien positionné pour gérer ces défis juridiques et ceux à venir", selon une note des analystes financiers de Macquarie.
En ce qui concerne le New York Times, les analystes financiers d'Evercore ISI ont noté que l'intelligence artificielle, autrefois perçue comme une menace concurrentielle, est désormais reconnue comme une voie de croissance potentielle.
"Nous nous attendons à ce que le New York Times conclue de multiples accords de licence d'intelligence artificielle dans les années à venir, chacun pouvant générer des revenus de l'ordre de quelques dizaines de millions de dollars par an, dont une partie substantielle contribuera au bénéfice d'exploitation de l'entreprise", prévoient les analystes.
Les actions du New York Times ont clôturé en hausse de 2,8 % hier.
Cet article a été créé et traduit avec l'aide de l'intelligence artificielle et a été revu par un rédacteur. Pour plus de détails, veuillez consulter nos conditions générales.