Modifié

L'IA fait son apparition dans la recherche et l'industrie biomédicale... pour le meilleur?

Le directeur scientifique du produit Quentin Haas présente Protocol AI devant un parterre de représentants et représentantes de l'industrie pharmaceutique à Bâle, le 23.04.2024. [RTS - Pierrik Jordan]
Le développement de lʹintelligence artificielle dans la recherche biomédicale / CQFD / 10 min. / le 9 mai 2024
Lancé fin avril à Bâle par une startup suisse, un nouveau logiciel propose d'utiliser l'intelligence artificielle pour accélérer et optimiser le développement d'essais cliniques. Pleine de promesses, l'arrivée de ces technologies dans des domaines qui touchent notre santé pose néanmoins plusieurs questions éthiques.

L'IA promet de transformer de nombreux domaines d'activité ces prochaines années et le monde scientifique ne fait pas exception. Si l'IA générative et ses usages parfois impressionnants sont sur toutes les lèvres depuis le lancement de ChatGPT fin 2022, cela fait en réalité plusieurs années que le monde de la recherche tente d'en tirer le meilleur parti.

>> Lire : De nouvelles protéines découvertes grâce à l'intelligence artificielle

Le fait de pouvoir désormais communiquer avec ces logiciels dans un langage courant élargit encore le champ des possibles. C'était d'ailleurs l'objet d'une étude publiée en février par une équipe de l'EPFL, qui démontrait une utilisation très simple de GPT-3 dans la chimie.

"On a montré que cette approche était beaucoup plus simple (...) parce qu'on peut faire un modèle en cinq minutes. C'était une vraie surprise que ça marche aussi bien", explique Berend Smit, co-directeur de l'étude. "Ce n'est pas parfait, mais c'est très utile, parce qu'on n'a pas besoin de beaucoup de connaissances."

Apprendre des échecs autant que des succès

Selon ce professeur en génie chimique, il ne fait pas de doute que ces outils vont transformer la manière dont on pense la science, et tout particulièrement la manière de prendre en considération les données négatives. Car à l'instar de beaucoup de domaines, "la tradition en chimie, c'est de publier les résultats positifs, les recettes qui marchent", explique-t-il. "Mais avec cette méthode, on apprend aussi de toutes les choses qui ne marchent pas, ou pas totalement."

"Donc ça va changer complètement la façon dont les gens pensent les données", poursuit-il. "Tous les chimistes sont éduqués à ne publier que les choses qu'ils jugent importantes. Parce que si on publie tout, on est perdu dans les détails, on ne peut rien faire. Ça change complètement avec le machine learning. On doit publier toutes les données et laisser le programme décider si c'est important ou pas."

>> Écouter aussi cette interview de Berend Smit sur les enseignements des expériences ratées :

Des chercheurs de l’EPFL ont développé une méthode pour valoriser les expériences ratées.
LSMO
EPFL [EPFL - LSMO]EPFL - LSMO
Les riches enseignements des expériences ratées / CQFD / 11 min. / le 5 février 2019

Ces IA pourraient donc permettre aux scientifiques d'apprendre autant de leurs échecs que de leurs réussites. Une perspective réjouissante dans le domaine de la santé, où beaucoup de médicaments échouent à prouver leur efficacité.

Protocol AI, assistant de recherche 2.0

C'est en partie sur cette idée que se base Protocol AI, un logiciel lancé par la startup suisse Risklick qui permet d'agréger bien plus rapidement l'ensemble de la littérature scientifique, d'identifier différents paramètres et de rédiger, grâce au modèle de langage, des protocoles qui font parfois plusieurs centaines de pages. Des documents qui mettent souvent plus d'une année à être rédigés en temps normal.

"L'idée, c'est de fournir à l'utilisateur toutes les données historiques existantes. En gros, vous allez couper dans ces données avec différents paramètres. En faisant ça, vous allez trouver quelques centaines de protocoles-type qui ressemblent exactement à vos objectifs, et vous allez pouvoir étudier ce qu'ils ont réussi à faire, ce qu'ils ont échoué à faire et pourquoi", explique Quentin Haas, docteur en immunologie et directeur scientifique chez Risklick.

C'est un outil de pilotage. Et je ne pense pas que quand on a introduit les copilotes dans les avions, les aviateurs ont disparu

Quentin Haas, CSO Risklick

"L'IA va utiliser ces protocoles-type comme modèles pour vous proposer des alternatives qui semblent cohérentes par rapport à leur réussite ou non. Manuellement, il faudrait lire la totalité de la littérature, classer les documents… Vous en avez pour 10 ans, alors que l'IA le fait en quelques minutes", poursuit-il.

Le CEO de Riskclick a cherché à convaincre des investisseurs et autres représentants de l'industrie pharmaceutique lors du lancement officiel de Protocol AI mardi 23 avril à Bâle. [RTS - Pierrik Jordan]
Le CEO de Riskclick a cherché à convaincre des investisseurs et autres représentants de l'industrie pharmaceutique lors du lancement officiel de Protocol AI mardi 23 avril à Bâle. [RTS - Pierrik Jordan]

Cet outil pourrait donc permettre d'économiser énormément de temps et d'argent. Le chercheur insiste toutefois sur le fait qu'il n'est pas autonome. "C'est impératif qu'il y ait un humain derrière, une IA est incapable de gérer la stratégie d'un essai clinique", souligne-t-il. "Créer une échelle de temps, une échelle financière, une échelle de probabilité de succès, intégrer les bonnes personnes pour rendre les paramètres cohérents et applicables dans un hôpital… À moins d'une grande révolution prochainement, une IA n'en sera pas capable."

"Si vous donnez quelque chose de mauvais à une IA, il va en sortir quelque chose de mauvais", résume-t-il. "Le produit s'appelle 'copilote'. C'est un outil de pilotage. Et je ne pense pas que quand on a introduit les copilotes dans les avions, les aviateurs ont disparu."

Des enjeux éthiques et philosophiques

Risklick se targue de marquer "un tournant dans l'industrie pharmaceutique", une promesse qui a déjà convaincu l'entreprise romande Debiopharm. Et dans les mains d'une industrie essentielle à notre santé mais souvent pointée du doigt par ses détracteurs pour ses dérives mercantiles, l'usage de ces nouveaux algorithmes interpelle nécessairement.

>> Écouter l'interview de Cédric Odje, représentant du fonds d'investissement de Debiopharm :

L'entreprise romande Debiopharm, basée à Lausanne et à Martigny, a été la première pharma à signer un contrat avec Protocol AI. [Keystone - Laurent Gillieron]Keystone - Laurent Gillieron
Interview complète de Cédric Odje / CQFD / 1 min. / le 9 mai 2024

Si les spécialistes de l'éthique biomédicale ou de l'IA saluent l'essor d'un outil prometteur, ils et elles soulèvent des enjeux importants en termes de transparence, de traçabilité des connaissances, de responsabilité dans la prise de décision, de préservation des compétences humaines ou de régulation.

La transparence, condition non négociable

"Il y a une question de véracité dans l'attribution du crédit de la science. Il n'est pas question d'utiliser une intelligence artificielle sans le révéler", soulève Samia Hürst, bioéthicienne à l'Université de Genève et membre du Comité national d'éthique pour la médecine humaine.

"De plus en plus de journaux exigent que les contributions précises des différents auteurs ou autrices soient détaillées lors de la soumission d'un article. Si une IA fait certaines étapes, ça pourrait être assez simple d'avoir la même exigence", expose-t-elle. Avec toutefois un bémol: "Si vous attribuez mal des contributions au sein d'une équipe humaine, les personnes flouées peuvent se défendre, alors qu'une intelligence artificielle ne le fera pas. Donc il y aura besoin de nouveaux mécanismes pour garantir cette transparence."

Il y a un lien direct entre transparence et démocratie

Thomas Souverain, chercheur en philosophie de l'IA

La transparence est aussi le cheval de bataille de Thomas Souverain, doctorant en éthique et philosophie de l'IA à l'institut Jean Nicod de l'Ecole nationale supérieure (ENS) à Paris. Dans le cadre de sa thèse, il travaille sur les "boîtes noires" que constituent les intelligences artificielles aux yeux de leurs utilisateurs et du public.

"Présenter aux citoyens le fait que le processus de tests cliniques a été conduit à partir d'IA, ça va poser en soi un défi d'acceptation. Il y a un lien direct entre transparence et démocratie", estime-t-il.

>> Lire sur le même sujet : Asma Mhalla: "Les géants de la tech ont une aversion idéologique assez viscérale pour la démocratie"

Il note qu'à l'heure actuelle, la plupart des modèles sont pré-entraînés par une poignée d'entreprises, car cela demande une puissance de calcul énorme. "Il y a donc une première boîte noire introduite par le fait qu'on ne sait pas exactement sur quelles données ces premiers modèles ont été entraînés", prévient-il.

Et alors que ces données proviennent pour la plupart d'internet, "on peut se demander si la synthèse de ce qu'on trouve sur le net est une vérité. Pas forcément. Cette synthèse n'est jamais neutre, c'est une sorte de moyenne de ce que les humains y ont écrit jusqu'ici", souligne-t-il.

À ce sujet, Samia Hürst évoque par exemple la différence entre les hommes et les femmes dans la recherche médicale, un biais "qui est actuellement en train d'être lentement corrigé". "Une intelligence artificielle pourrait reproduire ce biais. Mais si ce type de problème est connu, on doit pouvoir le corriger lors de l'édition et la revue éthique", tempère-t-elle.

Choisir quelles connaissances préserver

Comme tous les nouveaux outils, l'IA soulève aussi le risque de voir certaines compétences humaines s'effriter. En l'occurrence, des connaissances ou savoir-faire scientifiques. "Il y a naturellement une profonde réorganisation des savoirs en marche au sein de la société", souligne Aïda Elamrani, elle aussi doctorante à l'institut Jean Nicod.

"L'important, c'est de ne pas complètement perdre ces savoir-faire et connaissances. C'est à nous de décider collectivement quels sont les connaissances et savoir-faire que nous voulons faire reconnaître pour les préserver."

>> Lire aussi : Aïda Elamrani: "L'avènement de l'IA amène des débats éthiques à l'échelle globale"

Les deux spécialistes des questions philosophiques autour de l'IA évoquent aussi le risque d'un "biais d'automatisation", qui consiste à reproduire aveuglément des biais algorithmiques en considérant que l'intelligence artificielle est plus objective et fiable que l'humain.

"C'est vrai qu'avec une industrie dans laquelle il y a des enjeux financiers très importants, il y a un risque de vouloir optimiser les coûts en disant qu'on a des protocoles plus neutres, et réduire le coût de surveillance", souligne Aïda Elamrani. "C'est une tendance générale de nos sociétés, surtout à l'ère du numérique, de substituer du capital au travail. Ce n'est pas un scoop, c'est un des principes du capitalisme."

Ne pas déresponsabiliser l'humain

De nombreux paramètres en amont peuvent ainsi biaiser les choix des IA. "Avoir l'IA la plus efficace possible n'exclut pas que quelqu'un doit être responsable de la décision qui est prise", note Thomas Souverain. Dans ces conditions, ces technologies ne sont pas intrinsèquement inquiétantes pour autant qu'elles s'accompagnent d'une surveillance.

>> Voir aussi notre série sur l'IA dans différents domaines : L'intelligence artificielle, un outil d'aide, mais qui ne remplace pas l'humain

Elles pourraient cependant pousser à créer de nouveaux mécanismes de contrôle. Samia Hürst évoque la création d'une instance internationale d'autorisation de mise sur le marché des logiciels, à l'image des instances d'autorisations des médicaments. "Il y a des logiciels qui peuvent beaucoup nous aider et d'autres qui peuvent nous faire beaucoup de mal. On ne peut pas laisser simplement carte blanche", dit-elle. "L'IA, c'est comme les substances chimiques: il y en a qui sont géniales et d'autres qui sont affreuses. Donc on a besoin de personnes qui s'y connaissent pour faire le tri."

Un bilan globalement optimiste

Et si ces garde-fous sont respectés, l'intelligence artificielle peut s'avérer pleine de promesses dans le domaine de la recherche clinique. Outre les revues de littérature et le copilotage d'essais cliniques, les modèles de langages pourraient aider à mieux vulgariser des concepts complexes, notamment pour les personnes qui participent à des essais médicaux. À l'inverse de susciter davantage de défiance, l'IA pourrait ainsi participer à mieux faire accepter la science.

>> Les explications de Samia Hürst sur le consentement éclairé :

Samia Hürst, médecin, bioéthicienne, consultante du Conseil d'éthique clinique des Hôpitaux Universitaires de Genève. [RTS]RTS
Samia Hürst consentement éclairé / Le Journal horaire / 1 min. / le 11 mai 2024

Enfin, Aïda Elamrani rappelle aussi que la délégation de tâches répétitives à des machines signifie aussi de dégager davantage de temps libre pour des activités purement humaines, souvent moins pénibles ou aliénantes.

Pierrik Jordan

Publié Modifié

Des problèmes liés à l'industrie pharmaceutique elle-même?

L'usage de l'intelligence artificielle dans la recherche, en rendant bien plus rapides et moins coûteux certains processus, peut faire craindre un risque d'inflation des publications scientifiques, avec notamment la pratique du "p-hacking", soit le fait de faire des tests à la chaîne et de miser sur des effets statistiques pour obtenir des résultats positifs.

"L'inflation des productions scientifiques précède l'arrivée de l'IA. C'est un sujet à part et c'est un réel défi pour la communauté scientifique", souligne toutefois Aïda Elamrani. "Nous connaissons les problèmes : plagiat, reproductibilité, pressions liées aux classements mondiaux, frais exorbitants pour publier dans des grands journaux... L'arrivée de l'IA n’est pas la première étape mais elle amène nécessairement à nous questionner sur les bons usages et la détection d'abus. Il va falloir du temps pour changer les pratiques et les dynamiques de ce vieux système", admet-elle.

Un impact sur le prix des médicaments?

Pour Samia Hürst, tout se joue dans l'usage de ces IA: "Si vous augmentez les essais réalisés sur des questions utiles au bien commun, il n'y a pas de problème, au contraire. Mais si vous choisissez des recherches qui sont lucratives avant d'être utiles, en développant par exemple des médicaments à faible valeur ajoutée que vous espérez vendre très cher, c'est plus embêtant. Mais ça ne sera pas directement la faute de l'IA. La question, c'est le profit, et elle est déjà présente, peu importe l'outil."

Citant une prise de position de la Commission nationale d'éthique publiée en 2020, la spécialiste du monde biomédical souligne qu'il y a actuellement "une urgence grandissante à scruter de manière plus stricte" ce type de médicaments. "On veut que les prix incitent à l'innovation, mais on veut aussi qu'ils permettent aux médicaments d'être accessibles. On veut tout à la fois. Donc on devrait se presser d'avoir une discussion de société, mais on tend à ne pas se presser", déplore-t-elle.

À l'inverse, elle juge très improbable qu'une baisse des coûts de la recherche se répercute sur le prix des médicaments. "Ça fait longtemps que les coûts de production et de développement ne sont plus si directement associés aux prix. Il y a une guerre des chiffres entre l'industrie pharmaceutique et ses critiques sur ce sujet, mais il y a des données très crédibles qui montrent qu'elle surestime très régulièrement le prix de développement en incluant parfois des frais qu'elle n'a pas couverts elle-même, notamment des financements publics de la recherche universitaire. C'est vraiment un sujet important."