Les intelligences artificielles autonomes sont en train de révolutionner le monde des technologies génératives. Ces systèmes innovants sont capables de gérer de manière autonome des tâches complexes, ouvrant ainsi la voie à de nouvelles possibilités dans le domaine de l’IA.
Parmi les projets phares de cette tendance émergente, on trouve AutoGPT et BabyAGI. Leur principe est simple: imiter le raisonnement humain pour répondre à des questions ou résoudre des problèmes.
Par exemple, si vous cherchez le meilleur prix pour un ordinateur répondant à vos besoins, vous effectuez simplement une recherche sur Google. GPT-4 va lui vous trouver un site qui compare les prix.
AutoGPT, de son côté, va avoir son propre raisonnement. Il imite un humain. D'abord, il se renseigne sur les capacités des ordinateurs, ensuite, il cherche des prix, puis les compare et finalement, il vous livre un résumé complet de sa recherche. Un véritable assistant personnel à portée de main.
L'IA a automatisé toutes les étapes que les humains emprunteraient pour répondre à la question posée. Le système n'a pas besoin de supervision ni de données préalablement étiquetées. Il apprend par lui-même, en observant et en expérimentant. Ces projets ne sont pas encore aboutis, ils sont imparfaits et encore en développement. Mais ce n'est plus qu'une question de temps.
Bond impressionnant
Pour mesurer les progrès fulgurants de cette technologie, on peut poser la même question à la première version de ChatGPT et à la dernière en date, GPT-4 : "Combien de gouttes d'eau peut-on mettre dans un verre vide?"
La première version répond que cela dépend de la taille du verre et de la taille des gouttes, et qu’il n'y a pas de réponse précise à cette question. La dernière version, elle, rit et donne instantanément la bonne réponse: une seule goutte d'eau. Après avoir mis une goutte dans le verre, le verre n'est plus vide. Il n'y a que 4 mois d'écart entre les deux versions.
Ces intelligences artificielles autonomes sont impressionnantes, mais aussi inquiétantes. Le premier risque est qu'elles fassent n’importe quoi et qu'elles se perdent dans leurs propres recherches. C’est le cas de ChaosGPT, une IA qui cherche hypothétiquement à détruire l'humanité. Elle compile sans fin les possibles armes les plus meurtrières, sans se soucier des conséquences.
Le deuxième risque est qu'on ne sache plus ce que font les IA. En perdant la validation humaine, on perd du contrôle. C'est le concept de la boîte noire: les algorithmes sont devenus tellement compliqués que les humains ne les comprennent plus.
Mystère de la boîte noire
Un exemple concret illustre ce phénomène. Une IA expérimentale de Google a appris toute seule le bengali, une langue utilisée au Bangladesh et en Inde. Il a suffi de quelques commandes écrites en bengali pour que l'ordinateur apprenne tout seul cette langue. Et on ne sait pas pourquoi ni comment l'IA a fait. Les ingénieurs ont simplement constaté un résultat.
Sundar Pichai, le PDG de Google, a confié cette semaine à la chaîne américaine CBS qu'il y avait un mystère autour de l'IA. "Nous parlons tous, dans le domaine, de la boîte noire. C'est le fait que nous ne savons pas exactement et que nous ne pouvons pas expliquer pourquoi l'IA a donné telle ou telle réponse ou pourquoi elle s’est trompée. Nous avons quelques pistes et notre compréhension progresse avec le temps, mais c'est l'état actuel de la recherche".
Et pour se défendre de vouloir commercialiser un système qu'il ne comprend pas complètement, il a déclaré "je ne crois pas non plus que nous maîtrisons parfaitement le fonctionnement de l'esprit humain".
Régulation attendue
Même si ces IA nous faciliteront de plus en plus la vie, dans peu de temps, elles pourraient être hors de contrôle, capables d'envoyer des millions messages, d'inonder les réseaux sociaux, de faire de la surveillance de masse, d'être des outils de désinformation ou de créer de faux documents.
Face aux risques, à la puissance et au potentiel de cette dernière génération d'intelligence artificielle, une régulation mondiale se dessine lentement. Lundi, douze députés européens qui travaillent sur la régulation des IA ont appelé le président américain Joe Biden et la présidente de la Commission européenne Ursula von der Leyen à organiser rapidement un sommet mondial pour contrôler les IA très puissantes, selon Reuters.
Cette prise de position fait suite à la lettre publiée par l'organisation à but non lucratif Future of Life Institute et signée par plus de 1000 experts. Ils plaident pour une pause du développement des IA jusqu'à ce que des protocoles de sécurité communs soient élaborés, appliqués et supervisés par des experts indépendants.
>> Lire à ce sujet : Elon Musk et des centaines d'experts réclament une pause dans l'IA
Pascal Wassmer
Rome optimiste sur la levée du blocage du robot conversationnel ChatGPT
Le président de l'Autorité italienne de protection des données personnelles qui avait bloqué fin mars le robot d'intelligence artificielle ChatGPT, s'est déclaré prudemment optimiste mardi 18 avril quant à la levée le 30 avril de ce blocage.
"Nous sommes prêts à rouvrir ChatGPT le 30 avril s'il y a la volonté d'OpenAI", l'entreprise à l'origine de l'application, "de faire les pas nécessaires. Il me semble que la société y est prête, nous verrons", a déclaré dans une interview au Corriere della Sera Pasquale Stanzione, président de cette autorité indépendante.
L'Autorité italienne de protection des données personnelles avait bloqué fin mars "avec effet immédiat" ChatGPT, qu'elle accuse de ne pas respecter la réglementation européenne et de ne pas avoir de système pour vérifier l'âge des usagers mineurs.
L'Autorité reproche aussi à ChatGPT "l'absence d'une note d'information aux utilisateurs dont les données sont récoltées par OpenAI, mais surtout l'absence d'une base juridique justifiant le recueil et la conservation en masse des données personnelles, dans le but d''entraîner' les algorithmes faisant fonctionner la plateforme".
ATS
>> Lire à ce sujet : L'Italie bloque le robot ChatGPT pour protéger les données personnelles