L'avocat Steven Schwartz représente un client qui attaque la compagnie aérienne colombienne Avianca. Il demande réparation car il affirme avoir été blessé à la jambe par la chute d'une assiette en métal au cours d'un vol en août 2019.
La compagnie aérienne a demandé au tribunal de rejeter le dossier, mais l'avocat du passager a versé un mémoire citant plus d'une demi-douzaine de précédents judiciaires pour soutenir ses arguments. Des affaires intitulées "Petersen contre Iran Air", "Varghese contre China Southern Airlines" ou encore "Shaboon contre Egyptair".
Problème, ni la partie adverse ni le juge n'en ont retrouvé trace dans la jurisprudence. "Six des cas soumis semblent être de fausses décisions judiciaires avec de fausses citations", a ainsi constaté le juge. Et pour cause: ces affaires ont été inventées de toutes pièces par l'outil d'intelligence artificielle générative ChatGPT.
Pas voulu tromper le tribunal
"Je n'avais tout simplement aucune idée que ChatGPT était capable de fabriquer des citations entières d'affaires ou d'opinions juridiques, d'une manière qui semble authentique", a écrit Steven Schwartz dans un document versé au dossier.
Dans son mea-culpa, écrit alors que le juge l'a convoqué pour de possibles sanctions, l'avocat assure qu'il n'a pas voulu tromper le tribunal. "À l'époque où j'ai effectué les recherches juridiques dans cette affaire, je pensais que ChatGPT était un moteur de recherche fiable. Je sais maintenant que ce n'était pas le cas", a-t-il soutenu.
Promettant de ne plus recommencer, il a ajouté que l'affaire avait couvert son cabinet de ridicule depuis la parution d'un premier article du New York Times.
Symbole des nouvelles prouesses de l'intelligence artificielle, le robot conversationnel ChatGPT a connu ces derniers mois un succès et un retentissement médiatique fulgurants. Mais il suscite aussi une avalanche de craintes, notamment en termes de désinformation ou de destruction d'emplois.
ats/jop