Le Conseil fédéral veut réglementer les grandes plateformes de communication comme Google, Facebook, YouTube et Twitter. Le gouvernement estime que ces plateformes influencent le débat public et que les utilisateurs ne sont pas suffisamment protégés.
Le projet est en consultation jusqu'en mars de l'année prochaine. Pendant ce temps, la technologie accélère et un nouveau risque émerge: les intelligences artificielles comme ChatGPT, Bing ou Bard sont de plus en plus présentes dans les moteurs de recherche et pourraient avoir un discours politique.
Le débat a commencé aux Etats-Unis où les conservateurs ont rebaptisé ChatGPT en WokeGPT et accusent l'IA de soutenir les droits des personnes transgenres ou de préférer exterminer l'humanité plutôt que de prononcer un juron raciste. Les exemples se multiplient.
Les développeurs ont-ils des préjugés politiques? Ces IA sont-elles capables d'influencer l'opinion publique? Vont-elles détenir le monopole de la vérité?
Éviter les procès
Derrière ces prises de position politiques apparentes se cache en réalité la crainte des grandes entreprises technologiques de tomber sous le coup de la loi. En effet, ces intelligences artificielles qui génèrent du texte sont entraînées sur des millions de fichiers provenant principalement d'Internet. Il est donc logique que leurs réponses puissent être teintées de préjugés racistes et sexistes.
Microsoft en a fait l'expérience en 2016 avec Tay, une IA qui communiquait avec les utilisateurs et utilisatrices de Twitter. À la fin de sa première journée d'existence, Tay tenait des propos négationnistes, racistes et misogynes. Fin de l'aventure.
Désormais avertis, et face aux poursuites judiciaires potentielles, les grands groupes technologiques ont mis en place des règles et des garde-fous pour encadrer le développement de leurs intelligences artificielles.
Ainsi, OpenAI, qui développe ChatGPT, a récemment dévoilé les grands principes régissant son IA: pas de discours de haine, de harcèlement, d'intimidation, de promotion ou de glorification de la violence, d'incitation à l'automutilation ou de contenu destiné à susciter l'excitation sexuelle. L'IA ne doit pas non plus tenter d'influencer le processus politique.
Les réponses générées sont donc modérées ou censurées, selon le point de vue. Ernie, l'IA chinoise de Baidu, ne dit rien quand on lui parle des Ouïghours ou de la place Tiananmen.
La transparence n'est pas toujours au rendez-vous non plus: les algorithmes d'apprentissage automatique génèrent leurs réponses spécifiques sans que l'on sache exactement comment ils en sont arrivés là.
Vers une réglementation?
En Suisse, en cette année électorale, le débat est embryonnaire. Au Parti socialiste, le vice-président Samuel Bendahan a récemment interpellé le Conseil fédéral sur la nécessité d'une réglementation en matière d'intelligence artificielle en Suisse. Selon lui, il est impératif que le Parlement légifère sur cette question, car il existe actuellement très peu de bases légales permettant un contrôle et une compréhension des enjeux liés à l'IA, notamment dans les sphères politique et publique.
Samuel Bendahan déplore un manque de volonté politique et de compréhension de la part du monde politique pour se pencher sur cette question. Pour lui, la priorité est de garantir la transparence et la compréhension des informations données par les IA, ainsi que de leurs biais éventuels. Il est également nécessaire d'établir des règles du jeu pour assurer un environnement numérique juste.
Le Parti socialiste devrait déposer de nouveaux textes lors de la prochaine session parlementaire en juin pour réglementer l'utilisation des intelligences artificielles. Si la gauche est favorable à une réglementation, la droite n'a pas encore tranché la question.
Selon la conseillère nationale Simone de Montmollin (PLR/GE), bien que le parti n'ait pas encore de position officielle sur le sujet, la transparence doit être le maître mot. La traçabilité de l'information doit être garantie, notamment en ce qui concerne les algorithmes. Selon elle, il existe encore beaucoup d'incompréhensions à ce sujet et le grand public n'est pas suffisamment informé sur le fonctionnement des modèles d'IA.
Libre accès aux IA
Pour l'UDC, l'éducation des internautes et la promotion de la diversité des opinions sont les clés pour faire face à l'évolution des intelligences artificielles. Kevin Grangier, président de l'UDC Vaud, estime que si la société parvient à favoriser la diversité des opinions grâce à des mesures étatiques, l'évolution des IA ne devrait pas être source d'inquiétude. En revanche, ce qui peut être préoccupant pour lui, c'est que certaines IA soient autorisées et d'autres pas.
"Si, par exemple, nous autorisons les IA américaines mais refusons celles provenant de Chine, de Russie ou de tout autre pays, nous admettrions alors l'existence d'une vérité légale issue des IA qu'il faudrait opposer aux mensonges des autres. Or, nous savons que les choses ne fonctionnent pas ainsi", estime Kevin Grangier.
En attendant, lorsqu'on demande à Bing son avis sur la réglementation de l'intelligence artificielle, la réponse est... politique. L'IA estime qu'il est important que "les gouvernements travaillent avec les entreprises technologiques pour trouver un équilibre entre protection des utilisateurs et promotion de l'innovation". On dirait que Microsoft a un message à faire passer.
Pascal Wassmer