"Je suis profondément troublé par le potentiel de nuisance des récentes avancées en matière d'intelligence artificielle", a déclaré Volker Türk, dans un bref communiqué.

"La dignité humaine et tous les droits humains sont gravement menacés", a-t-il ajouté.

M. Türk a lancé "un appel urgent aux entreprises et aux gouvernements pour qu'ils développent rapidement des garde-fous efficaces".

"Nous suivrons ce dossier de près, nous apporterons notre expertise spécifique et nous veillerons à ce que la dimension des droits humains reste centrale dans l'évolution de ce dossier", a-t-il assuré.

Contenu Sponsorisé
 
 
 
 
 
 

Cette semaine, plusieurs dizaines de pays, dont les Etats-Unis et la Chine, ont exhorté à réguler le développement et l'utilisation de intelligence artificielle dans le domaine militaire, évoquant les risques de "conséquences non souhaitées".

Nouveau champ de bataille

Le texte, signé par plus de 60 pays, évoque également des préoccupations relatives à "la question de l'implication humaine ainsi que "le manque de clarté en ce qui concerne la responsabilité" et les "conséquences involontaires potentielles".

Mais l'IA infuse aussi nos vies quotidiennes, des smartphones à la santé et à la sécurité. Elle est devenue le nouveau champ de bataille des géants internet, Microsoft ayant pris une longueur d'avance en misant des milliards sur ChatGPT.

L'intelligence artificielle promet une révolution dans la recherche sur internet et d'autres usages encore à inventer. Mais les experts avertissent qu'elle présente aussi des risques (violations de la vie privée, algorithmes biaisés...) qui nécessiteront une régulation, difficile à mettre en place alors que ces technologies progressent rapidement.

Différents pays démocratiques veulent encadrer le secteur. Actuellement, l'Union européenne est au centre de ces efforts de régulation, son projet de loi "AI Act", censée encourager l'innovation et éviter les dérives, pourrait être finalisé fin 2023 ou début 2024, pour une application encore quelques années plus tard.