Publié

Les moteurs de réponse IA, une révolution technologique avec des défis de fiabilité

Sam Altman est l'un des cofondateurs d'OpenAI. [Keystone - Sven Hoppe]
Le patron d'OpenAI Sam Altman était à Genève pour la conférence "AI for Good" / Tout un monde / 6 min. / le 5 juin 2024
Les géants technologiques comme Google et OpenAI se tournent vers les moteurs de réponse, une évolution majeure dans la manière dont nous utilisons internet. Bien que cette innovation puisse améliorer l'efficacité de la recherche d'informations, elle présente un risque majeur: la fiabilité des informations.

Après les moteurs de recherche, Google, Perplexity ou OpenAI proposent désormais des moteurs de réponse. Vous posez une question et l'IA scanne internet. Enfin, elle vous présente un résumé de ses recherches. Il n'est plus nécessaire de cliquer sur un lien.

Cette fonctionnalité est un Graal pour les grandes compagnies technologiques puisqu'elle pourrait leur permettre de prendre la place de Google en devenant la porte d’entrée vers internet. Microsoft, Perplexity, OpenAI et, évidemment, Google se sont donc lancés dans la course: l'internaute peut dorénavant poser ses questions à l'IA qui lui donne une réponse basée sur une sélection de sites de références.

"Je pense que la façon dont nous utilisons l'internet est susceptible de changer quelque peu, même si cela prendra beaucoup de temps. On le voit déjà un peu avec la manière dont certains utilisent ChatGPT. Parfois, on peut obtenir des informations plus efficacement qu'en cherchant quelque chose dans un moteur de recherche", commentait Sam Altman, patron d'OpenAi et créateur de ChatGPT, au micro de Nicholas Thompson, PDG du magazine "The Atlantic", en marge de la conférence annuelle "AI for Good" à Genève.

>> Lire aussi : L'intelligence artificielle fait proliférer la désinformation sur TikTok

Mélange d'informations

Cette avancée pose cependant des problèmes de fiabilité de l'information. Il arrive que les IA soient victimes d'"hallucinations" et inventent une partie de leurs réponses, rendant dangereuse leur utilisation les yeux fermés.

Par exemple, l'outil Perplexity, qui a été sollicité pour établir un résumé des périodes marquantes de la vie de l'auteur Paul Auster après sa mort, a indiqué qu'il avait été inculpé d’homicide involontaire sur son bébé. Quelques recherches suffisent pour prouver qu'il s'agit d'une fausse information. L'IA a lié l'histoire du fils de l'écrivain, Daniel Auster, à celle de son père. Heureusement, les réponses étaient données par écrit, ce qui a permis à l'internaute de cliquer sur les liens donnés par l'IA pour en savoir plus.

En revanche, dans une conversation orale, l'outil ne peut pas indiquer de liens, ce qui rend plus difficiles les recherches et qui fausse les réponses transmises. L'internaute doit donc faire appel à sa culture générale pour déceler les informations incorrectes ou inexactes. Utiliser l'IA pour obtenir des réponses est donc dangereux, car tout le monde ne dispose pas des capacités pour les vérifier.

>> Pour aller plus loin, écouter le sujet de Forum sur les dysfonctionnements de la nouvelle IA de Google qui propose une recette de pizza contenant de la colle :

La nouvelle IA de Google dysfonctionne et propose notamment une recette de pizza contenant de la colle
La nouvelle IA de Google dysfonctionne et propose notamment une recette de pizza contenant de la colle / Forum / 2 min. / le 27 mai 2024

>> Lire aussi : Mise à jour de l'algorithme Google: quels impacts sur les résultats?

De nombreuses inconnues, mais pas de souci pour Sam Altman

Les IA qui génèrent des réponses ont également besoin d’être modérées. Par exemple, elles savent tout sur la chimie et sur la fabrication d’armes chimiques. Elles doivent donc être bridées dans leurs réponses. Pourquoi ne pas les priver de la connaissance de la fabrication des armes chimiques? Le travail est en cours mais, pour l’instant, les ingénieurs n’en sont pas capables. Ils peuvent modérer l’interface avec l’utilisateur, la réponse donnée, mais pas le modèle en lui-même. Car on ne sait pas ce qu’il se passe dans les coulisses de ces grands modèles d’IA.

Pas de quoi freiner Sam Altman qui souhaite continuer à créer des outils plus puissants. Il se justifie simplement: il faut essayer pour savoir. C'est pourquoi il a mis ChatGPT sur le marché, en étant au fait de ces risques d'hallucinations.

"Nous ne comprenons pas encore tout ce qui se passe dans un cerveau (...) Pourtant, nous savons que vous pouvez suivre certaines règles (...) Il existe d'autres façons de comprendre le cerveau sans analyser chaque neurone", estime-t-il.

Et d'ajouter: "La société n'est pas une chose statique. Au fur et à mesure que vous mettez la technologie en place, la société change, la technologie aussi. Il y a une véritable coévolution. Donc, je pense que la bonne façon de découvrir ce que ça donnera, c'est (de l'analyser) empiriquement."

Pour Sam Altman, il faut continuer à lancer des prototypes pour regarder les effets, prendre les retours et recommencer dans une idée d'amélioration continue.

>> Lire également : Quand l'IA veut s'immiscer dans notre intimité pour devenir surpuissante

Sujet radio: Pascal Wassmer

Adaptation web: juma

Publié