Aïda Elamrani: "L'avènement de l'IA amène des débats éthiques à l'échelle globale"
ChatGPT a été le terme le plus recherché par les internautes suisses en 2023. Aïda Elamrani, doctorante en philosophie à l'institut Jean Nicod à Paris, n'est pas étonnée. "L'IA doit être notre première priorité, c'est en train de bouleverser tous les aspects de notre vie, de l'organisation humaine en général sur la planète. C'est de loin l'outil le plus puissant qu'on ait jamais développé et c'est extrêmement important que tout le monde se saisisse du sujet aujourd'hui, parce que cela nous concerne tous."
>> Lire également : "ChatGPT" a été le terme le plus recherché par les internautes suisses en 2023
La chargée d'études au sein du "Artificial Intelligence Research Institute" explique qu'il y a plusieurs problèmes éthiques à résoudre. "Outre la problématique des changements dans le monde du travail, il y a notamment la question des biais. C'est une question qui revient depuis longtemps. Il y a eu des scandales sur des cas d'utilisation d'IA qui se basaient sur des données biaisées qui ont ensuite été reproduites à des échelles massives."
Voir l'IA comme un enfant
Aïda Elamrani rappelle que ces biais ne viennent pas de nulle part." Les biais sont appris des données, ce qui pose un problème technique. Il faudra savoir débiaiser ces données. Mais ce n'est pas le seul problème. Ces biais existent aussi au sein de notre société et il faudra débattre pour savoir dans quelle direction on veut entraîner ces algorithmes. On peut les penser comme des enfants dont on est tous les parents et se demander quels comportements on veut leur apprendre."
Les IA apprennent notamment de Twitter, et lorsqu'on sait ce qu'on peut trouver dessus, on ne s'étonne pas qu'elles puissent voir des biais assez choquants
Dès lors, la philosophe appelle à porter une attention particulière à la qualité des données dont se nourrissent les intelligences artificielles: "Il faut leur fournir des données de qualité. A l'heure actuelle, ces algorithmes apprennent absolument tout ce qu'ils trouvent sur internet. Ils apprennent notamment de Twitter et lorsqu'on sait ce qu'on peut trouver dessus, on ne s'étonne pas que les algorithmes puissent voir des biais assez choquants."
>> Lire à ce propos : Rachid Guerraoui: "ChatGPT dit parfois n'importe quoi, parce qu'il ne s'est pas assez méfié des données"
Aïda Elamrani propose d'agir directement sur les bases de données. "On peut décider d'affiner techniquement ces biais. On peut par exemple décider d'augmenter la représentation des femmes sur tel ou tel aspect dans notre ensemble de données. Le problème est de se mettre d'accord sur la façon dont on va influencer ces données. C'est très nouveau à l'échelle de l'humanité. L'informatique amène des débats éthiques à l'échelle globale, ce qui est nouveau et assez bénéfique."
Une question de propriété intellectuelle
La chercheuse veut également attirer l'attention sur la problématique de l'opacité de ces systèmes. "OpenAI ne nous révèle pas l'ensemble des données sur lesquelles ses algorithmes sont entraînés. Ce qui pose aussi des problèmes de propriété intellectuelle. Supposons qu'ils soient entraînés par des livres qui sont encore protégés par des droits d'auteur, ils sont ensuite capables de générer des résultats qui imitent des auteurs vivants."
Début décembre, le Parlement européen et le Conseil de l'Union européenne ont trouvé un accord sur un texte qui sera la première loi sur l'intelligence artificielle dans le monde. Aïda Elamrani s'en réjouit, mais y voit une limite: "L'un des problèmes est la façon dont on va définir ces systèmes, sachant que ce sont des systèmes qui évoluent en permanence et qu'une définition qu'on donne aujourd'hui ne sera sans doute plus valable dans six mois."
Propos recueillis par Aleksandra Planinic/asch