Par Vlad Schepkov
Plusieurs médias rapportent que le gouvernement chinois envisage d'introduire de nouveaux contrôles de sécurité pour les services d'intelligence artificielle (IA), y compris les modèles de traitement du langage naturel (NLP) comme ChatGPT.
Les examens proposés exigeraient des fournisseurs de services d'IA qu'ils se soumettent à des examens approfondis de leur technologie et de leurs pratiques de gestion des données afin de s'assurer qu'ils respectent les normes de sécurité. Les entreprises qui ne passeraient pas cet examen pourraient se voir infliger des sanctions, notamment des amendes et des restrictions d'activité. Des sources familières avec la question affirment que cette mesure s'inscrit dans le cadre d'un effort plus large du gouvernement chinois pour renforcer les mesures de cybersécurité dans le pays.
À ce stade, on ne sait pas exactement quand les examens de sécurité proposés seront introduits, ni quelles exigences spécifiques les entreprises devront remplir pour les réussir.
Si elles sont adoptées, les révisions pourraient toutefois créer des difficultés supplémentaires pour les acteurs chinois de l'IA tels que Baidu (NASDAQ:BIDU), Alibaba (NYSE:BABA) et Tencent (HK : 0700), ainsi que leurs homologues internationaux comme OpenAI/Microsoft (NASDAQ:MSFT) et Google (NASDAQ:GOOGL) qui sont actifs sur le marché chinois.
Ces rapports interviennent alors que l'industrie de l'IA fait l'objet d'une surveillance accrue à tous les niveaux. Récemment, une lettre ouverte signée par plus de 1 100 chercheurs, dont Elon Musk et Steve Wozniak, a appelé à une interdiction de six mois de la recherche sur l'IA et à une réglementation internationale de la technologie.