Edward Snowden accuse OpenAI de se lancer dans une tentative d’espionnage généralisé
Le succès fulgurant de ChatGPT est accompagné de turbulences internes notables après le départ de l'un de ses fondateurs et de plusieurs cadres dirigeants, mécontents des priorités de l'entreprise.
Les critiques s'adressent directement à Sam Altman, l'actuel grand patron d'OpenAi, accusé de privilégier la rentabilité financière de ChatGPT au détriment de la sécurité de ses utilisateurs et utilisatrices.
Paul Nakasone, ex-dirigeant de la NSA, au conseil d'administration
Pour tenter de restaurer la confiance, OpenAI a récemment nommé un nouveau membre au conseil d'administration: le général Paul Nakasone, un ancien général de l'armée américaine.
Le général à la retraite est une figure éminente de la cybersécurité. Il aura pour tâche d’assurer la protection des ordinateurs qui permettent de développer les nouveaux modèles d’IA génératives, mais aussi de lutter contre le piratage de ChatGPT et de protéger les données confiées par les utilisateurs d’OpenAI.
Mais le général à la retraite est également le fondateur de l’US cyber command qui mène toutes les opérations de l’armée américaine dans le cyberespace. C'est également l’ancien chef de la NSA, l’agence nationale de la sécurité.
Edward Snowden se montre très critique
Or, l'arrivée d'un ancien chef de la NSA, proche de l'armée, au sein d'OpenAI a été vivement critiquée. A commencer par le lanceur d'alerte Edward Snowden, qui vit aujourd'hui en exil en Russie. Selon lui, on ne peut plus avoir confiance en OpenAI ou ses produits dérivés, comme ChatGPT.
"Ils ont complètement retiré leur masque: ne faites jamais confiance à OpenAI ou à ses produits", a-t-il notamment écrit sur son compte X. "Il n’y a qu’une seule raison pour nommer un directeur de la NSA au conseil d’administration: il s’agit d’une trahison délibérée et calculée des droits de chaque personne sur la planète", a-t-il ajouté.
Le lanceur d'alerte américain voit en l'évolution de cet outil une trahison délibérée et calculée des droits individuels, conduisant potentiellement à un outil de surveillance de masse.
Un outil digne de confiance?
Aujourd'hui, ChatGPT compte plusieurs dizaines de millions d'utilisateurs chaque jour et ceux-ci partagent une quantité considérable d'informations, parfois intimes et sensibles.
De plus, certaines entreprises traitent l'IA comme un employé à part entière, lui donnant accès à des données ultra-confidentielles.
Ces préoccupations surviennent dans un contexte où la transparence d'OpenAI est déjà mise en doute. On ignore en effet quelles données ont été utilisées pour entraîner ChatGPT et si elles ont été obtenues légalement.
Un changement de statut
La gouvernance de l'entreprise soulève également des interrogations: après avoir été brièvement évincé en novembre dernier, Sam Altman a été réintégré à la tête de l'entreprise et envisage de transformer OpenAI en société privée.
Initialement fondée comme une association visant à promouvoir et développer l'intelligence artificielle pour le bien de l'humanité, OpenAI a changé de statut en 2019 pour attirer les investisseurs. Mais cette transition vers une structure à but lucratif semble avoir altéré ses objectifs originaux.
>> Lire aussi : Sam Altman réintègre le conseil d'administration d'OpenAI
Sujet radio: Pascal Wassmer
Texte web: hkr