Des responsables politiques aux concepteurs de la technologie eux-même, un consensus mondial émerge sur le besoin d'encadrer - plus ou moins librement - une technologie aux effets révolutionnaires mais aux risques élevés de dérapage.
Après une réunion de haut niveau dans le nord de la Suède, le chef de la diplomatie américaine Antony Blinken a affirmé que les Occidentaux ressentaient "l'urgence féroce" d'agir du fait de l'irruption sur le devant de la scène de la technologie, symbolisée par des outils révolutionnaires comme le robot conversationnel ChatGPT.
Le code de conduite annoncé mercredi "serait ouvert à tous les pays partageant les mêmes idées", a-t-il dit lors d'une conférence de presse commune avec des poids lourds de Bruxelles.
Une version préliminaire
La vice-présidente de la Commission européenne chargée de la Concurrence, Margrethe Vestager, connue pour ses bras de fer avec les géants américains du Net, a indiqué qu'une version préliminaire serait présentée "dans les prochaines semaines".
"Nous pensons que c'est vraiment important que les citoyens puissent voir que les démocraties agissent", a dit la Danoise aux côtés d'Antony Blinken.
L'idée est d'aboutir "très, très bientôt" à une proposition finale, en espérant rallier "le cercle le plus large possible", a-t-elle dit, citant "nos amis au Canada, au Royaume-Uni, au Japon, en Inde".
La crainte d'un standard chinois
Américains et Européens craignent entre autres de voir des standards chinois s'imposer si l'Occident ne s'unit pas.
L'Union européenne prépare un cadre juridique complet et impératif qui s'appliquerait en matière d'IA dans quelques années - au plus tôt fin 2025 - mais le code de conduite conçu avec Washington sera lui d'application volontaire, a indiqué Mme Vestager.
Le monde a découvert avec stupéfaction ces derniers mois les capacités de cette technologie en phase de maturation, avec ses machines et logiciels capables d'apprendre à vitesse grand V pour améliorer leurs performances.
Une évolution rapide
Le secteur est dominé par des géants américains comme Microsoft - actionnaire principal d'OpenAI, la firme qui exploite ChatGPT - ou encore Meta ou Google.
Mais l'écosystème évolue très vite, notamment avec les plateformes de source ouverte capables de rivaliser, voire de prendre le devant technologique très rapidement.
La Computer & Communications Industry Association (CCIA), un lobby du secteur qui regroupe Amazon, Apple, Meta, Google ou encore Twitter, a salué "un engagement transatlantique accru et de pointe, en particulier à un moment où l'UE poursuit son ambitieux programme de réglementation numérique qui façonnera le marché pour les années à venir".
Un premier cadre juridique complet
L'Union européenne (UE) veut être la première au monde à se doter d'un cadre juridique complet et obligatoire pour limiter les dérives de l'intelligence artificielle, mais son entrée en vigueur, portée notamment par le commissaire Thierry Breton, prendra quelques années.
Bruxelles, avec le soutien de géants comme Google, pousse des règles volontaires.
La Chine a également des projets de régulation, notamment d'une "inspection de sécurité" des outils d'intelligence artificielle.
Côté américain, malgré de nombreuses discussions, aucun projet impératif n'est pour l'instant sur la table.
Un discours au Parlement rédigé par ChatGPT
L'UE et les Etats-Unis "partagent le point de vue commun que les technologies d'intelligence artificielle comportent de grandes opportunités mais présentent également des risques pour nos sociétés", ont déclaré les deux grandes puissances dans un communiqué final.
Comme un écho, la Première ministre danoise Mette Frederiksen a prononcé jeudi matin un discours au Parlement en partie rédigé par ChatGPT, pour en souligner les performances mais aussi les risques démocratiques.
"Même s'il n'a pas toujours mis dans le mille, tant sur les détails du programme de travail du gouvernement que sur la ponctuation (...) ce dont (ChatGPT) est capable est à la fois fascinant et terrifiant", a-t-elle dit aux députés danois.
>> Lire aussi : Une charte de bonne conduite sur l'intelligence artificielle, l'idée fait son chemin dans les partis
afp/miro
L'intelligence artificielle serait aussi dangereuse que les pandémies ou la guerre nucléaire
Mardi, une mise en garde a été lancée contre les dangers de l'intelligence artificielle. Sous forme de pétition, elle a été signée par 350 personnes, dont le leader du secteur, Sam Altmann, le créateur de ChatGPT.
Invitée dans l'émission de Forum, Laura Tocmacov, directrice d’impactIA, affirme que cette stratégie de la peur, mise en place par certains leaders du marché, est "une forme de manipulation pour détourner le regard du public des enjeux majeurs de l'IA, (...) de ce que pourrait en faire la société civile pour créer un bien commun et non pas un bien capitaliste."
Selon la spécialiste de l'intelligence artificielle, "les industriels visent à ce que la société leur laisse la gestion de cette régulation. Lorsqu'un groupe d'individus génère la peur, ce n'est pas par altruisme, mais pour vous diriger vers un endroit précis."