Modifié

Les géants de l'IA doivent accepter que leurs employés expriment des doutes

Des employés d'OpenAI mettent en garde contre les dangers de l’intelligence artificielle dans une lettre ouverte
Des employés d'OpenAI mettent en garde contre les dangers de l’intelligence artificielle dans une lettre ouverte / Forum / 2 min. / le 5 juin 2024
Les entreprises les plus avancées dans le domaine de l'intelligence artificielle (IA) doivent accepter que leurs employés portent publiquement un regard critique sur leurs activités et les risques liés à l'IA, ont réclamé plusieurs salariés d'OpenAI sous couvert d'anonymat ainsi que des anciens de la start-up.

"Dans la mesure où ces sociétés ne sont pas soumises à la supervision des autorités, les employés actuels ou anciens font partie des rares personnes qui peuvent leur demander des comptes", expliquent les 13 signataires de la lettre ouverte, publiée mardi. Parmi eux figurent quatre employés d'OpenAI et sept anciens.

Ces signataires regrettent que "des clauses de confidentialité exhaustives les empêchent d'exprimer (leurs) préoccupations" publiquement.

Dans la mesure où les problèmes que souhaitent évoquer ces programmeurs ne relèvent pas d'activités illégales, ils ne peuvent bénéficier du statut de lanceur d'alerte, soulignent-ils.

"Certains d'entre nous craignent des représailles (au cas où ils communiqueraient ouvertement), compte tenu des précédents qui existent dans l'industrie", selon la lettre.

Potentiels risques d'extinction de l'humanité

Parmi les risques cités, "le renforcement des inégalités, la manipulation, la désinformation, en allant jusqu'à la perte de contrôle de systèmes d'IA autonomes qui pourraient entraîner l'extinction de l'humanité".

S'ils estiment que ces risques peuvent être limités "avec le concours de la communauté scientifique, des autorités et du public", "les entreprises de l'IA sont incitées financièrement à échapper à une supervision efficace".

Invité mercredi dans l'émission de Forum de la RTS, Jean-Gabriel Ganascia, professeur d’informatique à la faculté des sciences de Sorbonne Université, exprime son scepticisme. Pour lui, cette communauté scientifique qui met en garde contre les dangers de l’IA est comparable à des pompiers pyromanes. "Ceux qui mettent le feu vous expliquent que c’est dangereux et qu’ils vont l’éteindre", ajoute-t-il

Il rejette l’idée que l’IA s’accumulera jusqu’à nous échapper. "Ce sont des fables qui n’ont absolument aucun fondement. Ces grands industriels nous avertissent du danger, affirmant qu’ils en ont la connaissance alors que nous ne le savons pas. Et comme c’est très dangereux, dans leur grande générosité, ils nous demandent les clés de la maison pour nous sauver. Moi, en tant que scientifique et citoyen, je refuse, je dis non", conclut-il.

>> Ecouter l'intégralité des explications de Jean-Gabriel Ganascia dans l'émission de Forum :

L’intelligence artificielle est-elle un danger pour l’humanité? Interview de Jean-Gabriel Ganascia
L’intelligence artificielle est-elle un danger pour l’humanité? Interview de Jean-Gabriel Ganascia / Forum / 6 min. / le 5 juin 2024

Demandes des auteurs de la lettre

Les auteurs de la lettre demandent ainsi aux sociétés phares de l'IA de "soutenir une culture de la critique ouverte en permettant à leurs employés actuels et anciens de mettre en avant publiquement des inquiétudes liées à leurs technologies".

Ils encouragent aussi la création de canaux de signalement anonyme en interne pour mettre en garde contre certains risques.

Open AI s'est dit "fier" de posséder ce qu'il considère comme les systèmes d'IA "les plus puissants et les plus sûrs".

"Nous partageons l'idée selon laquelle un débat rigoureux est crucial vue la portée de cette technologie et nous allons continuer à échanger avec les gouvernements, la société civile et d'autres entités à travers le monde", a ajouté une porte-parole d'OpenAI.

Sujet radio et propos recueillis par Miruna Coca-Cozma/Mehmet Gultas

Adaptation web: Miroslav Mares et agences

Publié Modifié