

Merci d'essayer une autre recherche
Investing.com – Une fois de plus, un groupe d'experts et de leaders de l'industrie technologique a mis en garde contre les dangers potentiels de l'IA dans une lettre ouverte hier, allant jusqu'à prévenir que l'intelligence artificielle pourrait conduire à l'extinction de l'humanité.
Ils ont par ailleurs jugé que la maitrise et la réduction des risques associés à cette technologie devrait être une priorité mondiale.
"L'atténuation du risque d'extinction lié à l'IA devrait être une priorité mondiale au même titre que d'autres risques à l'échelle de la société tels que les pandémies et les guerres nucléaires", peut-on lire dans la déclaration publiée mardi.
Cette lettre a été signée par Sam Altman, PDG de l'éditeur de ChatGPT, OpenAI, ainsi que par des cadres de DeepMind, la branche IA de Google (NASDAQ:GOOGL) et des responsables de Microsoft (NASDAQ:MSFT), regroupe sous le nom de “centre pour la sécurité de l'IA”.
Rappelons que la technologie IA s'est accélérée au cours des derniers mois, après que le chatbot ChatGPT a été mis à la disposition du public en novembre. Deux mois seulement après son lancement, il a atteint 100 millions d'utilisateurs, après avoir étonné les chercheurs et le grand public par sa capacité à générer des réponses semblables à celles des humains.
La déclaration de mardi indique qu'il y a eu de plus en plus de discussions sur un "large éventail de risques importants et urgents liés à l'IA".
La technologie s'est accélérée au cours des derniers mois, après que le chatbot ChatGPT a été mis à la disposition du public en novembre et qu'il est devenu viral. Deux mois seulement après son lancement, il a atteint 100 millions d'utilisateurs.
ChatGPT a étonné les chercheurs et le grand public par son habileté à générer des réponses similaires à celles des humains aux questions posées par les utilisateurs, suggérant que l'IA pourrait remplacer des emplois et imiter les humains.
Le communiqué de mardi indique que l'on discute de plus en plus d'un "large éventail de risques importants et urgents liés à l'IA".
La lettre déplore cependant qu'il soit "difficile d'exprimer des inquiétudes sur certains des risques les plus graves de l'IA avancée" et souligne que l'objectif est de surmonter cet obstacle et d'ouvrir les discussions.
Rappelons que Altman, le PDG d'OpenAI, a admis en mars qu'il avait "un peu peur" de l'IA, car il craint que des gouvernements autoritaires ne se servent cette technologie.
Au début du mois, il a par ailleurs témoigné devant le Congrès, passant la majeure partie de son temps à exhorter les législateurs à réglementer son secteur d'activité.
D'autres leaders technologiques, tels qu'Elon Musk, de Tesla (NASDAQ:TSLA), et Eric Schmidt, ancien PDG de Google, ou encore Steve Wozniak, cofondateur d'Apple (NASDAQ:AAPL), ont mis en garde contre les risques que l'IA fait peser sur la société.
Avec d'autres personnalités du monde de la technologie, ils avaient d'ailleurs au mois de mars déjà exhorté les laboratoires d'IA à cesser de former des systèmes plus puissants que GPT-4, appelant à une pause de 6 mois.
Voulez-vous vraiment bloquer %USER_NAME% ?
Si vous continuez, vous et %USER_NAME% ne verrez plus vos publications Investing.com mutuelles.
%USER_NAME% a bien été ajouté à votre Liste d’utilisateurs bloqués
Vous venez de débloquer cette personne et devrez attendre 48 heures avant de la bloquer de nouveau.
Je souhaite signaler ce commentaire comme:
Merci
Le commentaire signalé sera révisé par nos modérateurs
Ajouter un commentaire
Nous vous encourageons à utiliser les commentaires pour engager le dialogue avec les autres utilisateurs, partager votre point de vue et poser des questions aux auteurs et utilisateurs. Toutefois, afin de maintenir un niveau de dialogue de qualité, veuillez garder à l'esprit les éléments suivants:
Les auteurs de spam ou d'abus seront supprimés du site et interdits d'inscription à la discrétion de Investing.com.