Investing.com — Le groupe de travail du gouverneur sur les modèles d’IA frontière en Californie a publié un rapport préliminaire cette semaine, qui a reçu une réponse positive de la part d’Anthropic, une entreprise d’IA. L’accent mis par le rapport sur la transparence, les normes objectives et les orientations politiques fondées sur des preuves pour l’environnement politique de l’IA a été particulièrement bien accueilli.
La transparence, lorsqu’elle est appliquée de manière réfléchie, peut être un moyen rentable et efficace d’élargir la base de preuves concernant les nouvelles technologies, selon l’entreprise d’IA. Elle peut également accroître la confiance des consommateurs et encourager les entreprises à s’engager dans des compétitions bénéfiques. Un aspect clé du rapport qu’Anthropic a apprécié était l’appel aux laboratoires d’IA à divulguer leurs mesures pour protéger leurs modèles contre le vol et les tester pour d’éventuels risques de sécurité nationale.
Les recommandations du rapport sont largement conformes aux meilleures pratiques de l’industrie, qu’Anthropic suit déjà. Par exemple, la politique de mise à l’échelle responsable de l’entreprise, qui est accessible au public, décrit comment ils évaluent leurs modèles pour une utilisation abusive, les risques d’autonomie et les seuils qui déclenchent des mesures accrues de sécurité. Les résultats de leurs tests de sécurité sont également divulgués publiquement à chaque lancement majeur de modèle. Ils effectuent même des tests par des tiers pour compléter leurs tests internes, une pratique également suivie par de nombreuses autres entreprises d’IA frontière.
Anthropic estime que les gouvernements peuvent jouer un rôle positif dans l’amélioration de la transparence concernant les pratiques de sécurité des entreprises d’IA, comme le suggère le rapport. Actuellement, les entreprises d’IA frontière ne sont pas légalement tenues d’avoir une politique de sécurité, de la décrire publiquement ou de documenter leurs tests publiquement. Anthropic estime que cela peut être résolu sans entraver l’innovation. L’entreprise a récemment suggéré à la Maison Blanche que des systèmes d’IA puissants pourraient émerger dès la fin de 2026. Il est donc crucial d’établir un régime politique qui favorise la transparence sur les protocoles de sécurité de la construction des systèmes d’IA.
Le rapport du groupe de travail a également mis en évidence des domaines comme les impacts économiques de l’IA, où davantage d’attention sera nécessaire de la part du monde universitaire, de la société civile et de l’industrie. Anthropic contribue actuellement à ce domaine grâce à son indice économique. L’entreprise est désireuse de fournir d’autres commentaires au groupe de travail pour aider à finaliser le rapport et félicite le gouverneur d’avoir initié cette conversation. Anthropic est désireuse d’aider à façonner l’approche de la Californie en matière de sécurité des modèles frontières à l’avenir.
Cet article a été généré et traduit avec l’aide de l’IA et revu par un rédacteur. Pour plus d’informations, consultez nos T&C.