Investing.com - Alors que le développement de solutions avancées d'intelligence artificielle (IA) telles que ChatGPT se poursuit à un rythme rapide, les régulateurs tentent de suivre le mouvement en utilisant les lois existantes pour régir l'impact potentiel de la technologie sur la société et les entreprises. L'Union européenne a pris les devants en créant de nouvelles réglementations spécialement conçues pour l'IA, afin de répondre aux préoccupations en matière de protection de la vie privée et de sécurité soulevées par les technologies génératives telles que le ChatGPT d'OpenAI.
Cependant, il faudra des années avant que ces nouvelles règles puissent être appliquées. En attendant, les gouvernements doivent appliquer la législation en vigueur lorsqu'ils traitent de questions liées à la protection des données personnelles ou à des menaces pour la sécurité publique.
Les organismes européens de surveillance de la vie privée ont formé un groupe de travail au début de l'année après que le régulateur italien Garante a accusé OpenAI d'avoir violé les règles de protection des données de l'UE dans le cadre du GDPR et a fait retirer temporairement son service ChatGPT. Le service a repris après qu'OpenAI a mis en œuvre des mesures de vérification de l'âge et a permis aux utilisateurs européens de mieux contrôler les informations utilisées pour former le modèle d'IA.
Les modèles d'IA générative ont acquis une certaine notoriété en raison de leurs inexactitudes ou de leurs "hallucinations", ce qui pourrait avoir des conséquences importantes s'ils étaient intégrés dans les processus de prise de décision au sein des banques ou des administrations. En conséquence, les régulateurs se concentrent à la fois sur les sources de données d'entrée et sur le contenu généré, tout en examinant comment les lois existantes sur le droit d'auteur et la confidentialité des données peuvent être appliquées.
En plus de clarifier leurs mandats concernant les enquêtes sur la discrimination algorithmique, les agences à travers l'Europe et les États-Unis examinent également comment les documents protégés par le droit d'auteur peuvent être pris en compte dans les actions en justice contre des entreprises comme OpenAI qui les utilisent pour entraîner leurs modèles.
De son côté, la CNIL, l'autorité française de régulation des données, a commencé à explorer des applications créatives des lois actuelles concernant l'utilisation de la technologie de l'IA, tout en continuant à travailler avec d'autres organismes de régulation dans le monde entier. Cette collaboration vise à trouver des moyens d'équilibrer les protections des consommateurs et les opportunités de croissance des entreprises sans étouffer l'innovation.
En fin de compte, il sera essentiel d'impliquer les chefs d'entreprise et les experts dans l'élaboration des réglementations relatives à l'IA pour trouver cet équilibre, en veillant à ce que la protection des consommateurs et la croissance des entreprises puissent coexister harmonieusement à mesure que l'intelligence artificielle continue d'évoluer.