C’est une pétition qui n’est pas passée inaperçue. Le 30 mai 2023, 350 personnalités du secteur de l’intelligence artificielle ont lancé une pétition au ton alarmiste, portée par l’ONG Center for AI Safety, à San Francisco : « Limiter les risques d’extinction [de l’humanité] posés par l’intelligence artificielle devrait être une priorité mondiale, aux côtés d’autres risques de grande ampleur, comme les pandémies ou la guerre nucléaire. » Au-delà de la force du message véhiculé, ce qui frappe, ce sont les noms des personnes qui ont signé cette pétition. Parmi eux, on retrouve notamment Sam Altman, PDG d’OpenAI, créateur de ChatGPT, mais aussi James Manyika, vice-président principal chargé des questions de régulation et d’éthique de l’IA chez Google, ou encore Demis Hassabis, PDG de Google-DeepMind. Les professionnels du secteur, eux-mêmes, semblent inquiets. Et ce n’est pas une première. Ce mouvement fait écho à une lettre ouverte, en date du 28 mars 2023, signée par plus d’un millier de personnalités, dont le patron de Tesla, Elon Musk. Cette lettre demande à ce qu’une « pause » soit faite dans la recherche concernant l’IA. Une « pause » pour permettre de réfléchir à la gouvernance et à la régulation mondiale de l’intelligence artificielle, afin d’éviter des dérapages, qui pourraient s’avérer lourds de conséquences, selon les secteurs d’activité concernés. Certains plaident pour que les gouvernements créent une structure qui intègrerait les entreprises du secteur de l’intelligence artificielle. Le modèle de la régulation du nucléaire est parfois mis en avant. On pense notamment au Conseil européen pour la recherche nucléaire (Cern). Créé le 29 septembre 1954 en Suisse par 23 pays, le Cern s’est ainsi imposé comme le plus vaste centre de physique des particules du monde. Sam Altman a avancé l’idée de contrôles qui seraient réalisés par une entité qui pourrait ressembler à l’Agence internationale de l’énergie atomique, qui a pour mission de contrôler les installations nucléaires. Mais il n’y a pas que les questions de long terme. Il y a aussi le présent. Des ONG estiment d’ailleurs que c’est immédiatement qu’il faut agir. Interrogée par NBC News après la publication de la lettre du 28 mars 2023, la dirigeante d’AI Now Institute, Sarah Myers West, a estimé qu’en « se centrant sur des risques hypothétiques et à long terme, on éloigne la conversation du débat sur la régulation nécessaire contre les risques que nous voyons aujourd’hui et maintenant ». Risques de discriminations, respect de la vie privée, atteintes aux libertés, violation du droit d’auteur… Pour tenter de faire face, un règlement européen, l’AI Act, est actuellement discuté. Entre innovation et régulation, où faut-il placer le curseur ? Cette semaine, la rédaction de Monaco Hebdo donne la parole à des experts, pour mesurer les différents enjeux. « L’intelligence artificielle est à la fois porteuse de progrès et de risques », résume la directrice de l’éducation nationale, de la jeunesse et des sports, Isabelle Bonnal. Tout le débat est là, et il ne sera pas simple de le trancher.




