Mercredi, les membres du Parlement européen ont voté en faveur de l'adoption d'un nouveau cadre réglementaire pour l'intelligence artificielle.
L'Union européenne adopte une approche stratifiée de la gouvernance de l'IA, la loi sur l'IA de l'UE établissant que plus l'impact potentiel d'un système d'IA est important, plus il fera l'objet d'un examen réglementaire.
La législation sera promulguée après avoir été approuvée par les pays membres, une étape qui est généralement de nature procédurale. Elle doit également être publiée au Journal officiel de l'Union européenne, ce qui, selon JPMorgan (NYSE:JPM), devrait avoir lieu entre mai et juin. La réglementation devrait être pleinement applicable 24 mois après son entrée en vigueur.
Les systèmes d'IA seront classés en quatre groupes en fonction du niveau de risque sociétal qu'ils présentent. Par exemple, les systèmes d'IA qui font partie intégrante des infrastructures critiques et ceux qui sont intégrés dans les dispositifs de soins de santé seront considérés comme présentant un risque élevé. Néanmoins, l'Union européenne prévoit que la majorité des applications d'IA seront classées comme présentant un risque faible.
Dans la grande majorité des scénarios, les entreprises doivent divulguer explicitement leur déploiement de technologies d'IA, tandis que les entités associées à des catégories de risques plus élevés auront l'obligation de fournir des informations transparentes à leurs utilisateurs. En outre, les applications d'IA jugées excessivement dangereuses seront interdites.
Les analystes du marché ont fait remarquer vendredi que certaines applications, comme les systèmes de crédit social, seront interdites.
En se concentrant sur les implications pour le marché, les analystes ont observé : "Les réglementations relatives aux systèmes d'"IA à usage général", qui englobent des modèles d'IA génératifs étendus, devraient susciter un intérêt significatif de la part des investisseurs, reflétant ainsi la dynamique actuelle du marché."
Ils poursuivent : "La législation impose des obligations de transparence et le respect des lois sur les droits d'auteur pendant la formation des modèles. Les modèles qui présentent des "risques systémiques", en particulier ceux qui ont une capacité de calcul exceptionnelle (supérieure à 10^25 opérations en virgule flottante par seconde - on suppose qu'il s'agit du ChatGPT 4 d'OpenAI et du Gemini de Google (NASDAQ:GOOGL)), seront tenus d'évaluer et d'atténuer les risques, de signaler les incidents importants, d'effectuer des tests de pointe et des évaluations de modèles, de maintenir la cybersécurité et de divulguer des informations concernant leur consommation d'énergie."
D'un point de vue financier, les analystes ont souligné que les sanctions peuvent s'élever jusqu'à 7 % du chiffre d'affaires annuel mondial ou 35 millions d'euros pour les infractions impliquant des activités d'IA interdites, et jusqu'à 3 % du chiffre d'affaires annuel mondial ou 15 millions d'euros pour la plupart des autres infractions.
La banque d'investissement estime que la ratification de cette loi pourrait détourner l'attention de la protection des données et de la vie privée vers un éventail plus large de questions, telles que l'étiquetage des produits et le respect des droits d'auteur, ainsi que des considérations éthiques et environnementales plus générales.
Cet article a été créé et traduit avec l'aide d'AI et a été examiné par un rédacteur. Pour plus d'informations, veuillez consulter nos conditions générales.