Après plusieurs heures d'errements entre mardi et mercredi, ChatGPT fonctionne à nouveau normalement, a fait savoir OpenAI, la start-up qui a lancé le programme à la fin 2022. Elle a ensuite publié un bref communiqué d'explications sur le problème informatique responsable du problème, survenu à la suite d'une mise à jour.
De nombreux utilisateurs et utilisatrices ont mis en ligne des captures d'écran montrant des réponses erratiques ou incompréhensibles du modèle d'IA générative. Cette technique de pointe permet de produire toutes sortes de contenus (textes, sons, vidéos), d'ordinaire de qualité bluffante, sur simple requête en langage courant.
Des réponses sans queue ni tête
"L'argent pour le bit et la liste est l'un des étrangers et l'internet où la monnaie et la personne du coût est l'un des amis et la monnaie. La prochaine fois que vous regarderez le système, l'échange et le fait, n'oubliez pas de donner", avait par exemple répondu ChatGPT à une question d'un utilisateur.
J'ai l'impression que mon GPT est hanté
"Il génère des mots totalement inexistants, omet des mots et produit des séquences de petits mots-clés qui me sont inintelligibles, entre autres anomalies", a ainsi relaté un utilisateur sur un forum de développeurs qui se servent des outils d'OpenAI. "On pourrait penser que j'ai spécifié de telles instructions, mais ce n'est pas le cas. J'ai l'impression que mon GPT est hanté."
Une mise à jour en cause
OpenAI a expliqué qu'une "optimisation de l'expérience utilisateur" avait "introduit un bug dans la manière dont le modèle traite le langage". "Les modèles de langage génèrent des réponses en échantillonnant des mots de manière aléatoire, en partie sur la base de probabilités", a souligné l'entreprise, avant de donner plus détails techniques et de conclure que l'incident a été résolu après "l'installation d'un correctif".
L'incident rappelle que l'IA, même générative, n'a pas de conscience ni de compréhension de ce qu'elle "dit", contrairement à l'impression qu'elle peut donner lors des "conversations" avec les utilisateurs.
A leurs débuts il y a un an, des interfaces comme ChatGPT ou ses rivales de Google et Microsoft avaient régulièrement tendance à "halluciner", c'est-à-dire à inventer des faits ou même simuler des émotions.
afp/boi