Modifié

Montre-moi tes données Google et je te dirai qui tu es

Une comédienne se met dans la peau d'une jeune femme sans la connaître en se basant uniquement sur ses recherches faites sur Google pendant 5 ans. Son appartement et son lieu de travail sont recréés. Les évènements les plus intimes de sa vie sont mis en scène. Vous n'utiliserez plus le célèbre moteur de recherche avec la même insouciance après avoir vu le documentaire "Google connaît toute ma vie". En ligne sur le Play RTS jusqu'au 22 mai et en version interactive.

Parce qu’elles sont faites sans réfléchir ni volonté d’impressionner quelqu’un, nos recherches Google sont beaucoup plus intimes qu’on ne le croit.

Voir le webdocumentaire interactif

Qu’est-ce que j’ai à cacher ?

Lisa, participante à l’expérience

"Je me suis dit: qu’est-ce que j’ai à cacher ?", explique Lisa, candidate volontaire à cette expérience. Elle n’avait alors pas imaginé que l’expérience la confronterait à des épisodes très intimes et sombres de sa vie. A un certain stade de la rencontre avec son double, Lisa va même demander une pause de l’enregistrement pour encaisser le choc de son intimité mise en lumière. "Voir à quel point on est transparent, c’est dur à avaler. J'ai presque le sentiment d'avoir été mise sur écoute," avoue la jeune Autrichienne.

Google connaît toute ma vie

Nous pouvons reconstruire la vie des gens de manière incroyablement complète et précise.

Sandra Matz, experte en ciblage psychologique

Pour reconstituer la vie de Lisa, les auteurs du documentaire se sont entourés des mêmes profils d’experts qui analysent et observent comment Google et d´autres plateformes interprètent nos données numériques. "Nous pouvons reconstituer la vie des gens de manière incroyablement complète et précise juste sur la base de leurs empreintes numériques", explique Sandra Matz, experte en ciblage psychologique.

Lorsqu’on parle de données numériques, on pense généralement à celles qu’on partage consciemment: une photo postée, un tweet envoyé, une demande sur LinkedIn. "C’est la manière dont je veux être vue par les autres. Mais il y a les empreintes numériques qu’on laisse involontairement derrière nous et qu’on pourrait appeler les sous-produits de notre comportement. Ils sont beaucoup plus subtils et anodins, c’est pourquoi on les sous-estime souvent", poursuit l’experte en ciblage psychologique.

Cancer, dépression, jeux de hasard: il existe 1600 codes de profilage

Johnny Ryan, expert en données personnelles de l’ONG Irish Council for Civil Liberties à Dublin

Ces données personnelles sont vendues à toutes sortes de sociétés. Il s’agit d’un juteux business dont on peine à mesurer l’impact. "Dans notre dos, une industrie qui pèse plusieurs milliards vend et achète nos secrets les plus intimes. Ces entreprises sont des courtiers en données. Pour nous profiler, elles travaillent selon des codes précis qui comportent 1600 caractéristiques très intimes. Certaines peuvent sembler banales mais d’autres sont très sensibles: il existe un code pour savoir si vous êtes intéressés aux jeux de hasard, un code pour l’endettement, des codes sur la santé: cancer, dépression, MST, etc…", révèle Johnny Ryan, expert en données personnelles au Conseil irlandais pour les libertés civiles à Dublin.

Troubles alimentaires et publicité ciblée

A travers l’histoire de Lisa présentée dans le documentaire, l’exploitation de ces données prend une forme très concrète. Son double aborde un des épisodes difficiles de sa vie en (lui) disant : "Quand j’étais assise, je sentais les os de mes fesses. Pourtant, je voulais perdre plus de poids." Lisa acquiesce, mal à l’aise. Pendant des années, elle s’est battue contre des troubles du comportement alimentaire.

"J’ai fait des recherches sur tout ce qui était lié aux régimes, aux calories. Ces mots clés fonctionnent comme des appâts pour des publicités, des diètes ou encore des compléments alimentaires. Le fait est que ces publicités et les contenus sur le sujet sont proposés aux personnes pour qui elles sont les plus dangereuses. Maintenant que je suis guérie, j’arrive à gérer car ça n’est plus un élément déclencheur. Mais en plein processus de guérison, ça devrait être interdit de recevoir encore et toujours ce type de contenus et publicités", constate Lisa.

Les régimes extrêmes sont massivement recommandés sur YouTube et Instagram. Tik Tok cible même les enfants.

Guillaume Chaslot, ancien ingénieur chez Google

"Les régimes extrêmes sont massivement recommandés sur YouTube et Instagram. Tik Tok cible même les enfants", explique Guillaume Chaslot, ancien ingénieur chez Google. C’est une spirale infernale qui s’enclenche alors. "Si vous aimez des vidéos de régime, on vous proposera de plus en plus de vidéos de ce genre qui vous diront que vous devez maigrir, que vous devez vous faire vomir régulièrement, des choses comme ça."

Recherches Google: rien à cacher, vraiment ?
Trailer du documentaire "Google connaît toute ma vie" / Les Documentaires de la RTS / 1 min. / le 16 mars 2022

"On imagine mal de tels contenus sur une affiche publicitaire ou présentés lors d’une conférence publique. Mais parce que c’est en ligne, c’est comme si c’était moins grave. Et en plus on peut le monétiser, donc on laisse faire", constate Sylvain Métille, spécialiste de la protection des données à Lausanne, après avoir visionné le documentaire. "Les publicités mais aussi tous ces contenus à mi-chemin entre publicité et information que des entreprises paient brouillent les pistes. La liberté d’expression permet de propager beaucoup d’informations, y compris fausses et à but commercial. Et on le constate, cela devient très délicat selon quelle information est donnée et à qui."

La haine ou la colère pour attirer les internautes

Mis au point par Google, l’algorithme de YouTube enregistre nos centres d’intérêts et le temps que nous passons à visionner une vidéo. Il nous recommande ensuite des contenus pour nous maintenir sur la plateforme: plus le temps de visionnement est long, plus l’espace publicitaire est important et plus YouTube et Google gagnent de l’argent. Et cela n’influence pas seulement ce que des milliards de personnes regardent mais également le type de contenus créés. "Des contenus intenses, qui suscitent la colère ou la haine ont été identifiés comme plus addictifs par Facebook (Révélations Facebook Files). En 2018, l’entreprise a modifié son algorithme pour recommander plus de contenus de ce type et obtenir davantage d’engagement de son public, afin de vendre plus de publicité", rappelle Lê Hoang Nguyen, chercheur et spécialiste de la sécurité des algorithmes à l’EPFL, Lausanne.

Lisa a mis plusieurs années à se débarrasser de ses troubles alimentaires. Elle a évidemment connu d’autres évènements sensibles dans sa vie. La plupart ont été ponctués de recherches Google. A chaque fois, l’algorithme l’a mise en lien avec un produit: cure anti-déprime, remède alternatif dangereux, etc…

Ces entreprises sélectionnent l’information que nous voyons, pas nécessairement parce que c’est leur but premier, mais parce que cela leur permet de vendre plus cher l’affichage de contenu.

Sylvain Métille, avocat spécialiste de la protection des données

"On oublie trop souvent que les grandes plateformes comme Google et Facebook ne sont ni des entreprises de service public, ni des collectivités à but non lucratif." Si leurs services sont gratuits, c’est grâce à la monétisation de nos données. "Elles vendent des espaces publicitaires. Ces entreprises sélectionnent l’information que nous voyons, pas nécessairement parce que c’est leur but premier, mais parce que cela leur permet de vendre plus, et plus cher, l’affichage de contenu. Elles gagnent ainsi plus d’argent et leurs clients peuvent mieux nous cibler, dans leur propre intérêt", rappelle encore Sylvain Métille.

L’influence de quelques entreprises sur des milliards d’êtres humains

Le documentaire pose la question d’un algorithme qui serait programmé pour diffuser des contenus d’utilité publique, voire préventifs. Mais qui déciderait alors de la pertinence d’une information, à qui la transmettre et à quel moment ? Ces questions divisent mais doivent être débattues car le constat s’impose: aujourd’hui, ce sont les plateformes, via leurs algorithmes, qui décident quels contenus nous parviennent, à quel moment et sur quel sujet. Laisser faire, c’est accepter qu’un tout petit nombre d’entreprises détienne une énorme capacité d’influence sur des milliards d’êtres humains.

Les Documentaires RTS - Muriel Reichenbach

"Google connaît toute ma vie" un documentaire de Cosima Terrasse, Moritz Riesewieck et Hans Block
Voir le webdocumentaire interactif

Publié Modifié

Docu Réactions

Sylvain Métille et Lê Nguyen réagissent à trois extraits du documentaire "Google connaît toute ma vie".

Enregistrement réalisé le 14 février 2022

Google connaît toute ma vie
Docu réactions "Google connaît toute ma vie" / Docu réactions / 4 min. / le 22 juin 2022

L'avis de Sylvain Métille, spécialiste de la protection des données

Pour un internaute, il est très difficile de savoir que ses données permettent de l'identifier.

Sylvain Métille, professeur à l'Université de Lausanne, avocat et spécialiste de la protection des données

Ces informations, souvent très précises voire intimes, ne sont-elles pas des données personnelles ?

Les données personnelles ne doivent pas obligatoirement être liées au nom d’une personne. Lorsqu’une entreprise possède un grand nombre de données au sujet d’une même personne, elle devient progressivement identifiable. Ce sont des données personnelles protégées par les lois en vigueur. Le problème, c’est que chacun d’entre nous, en tant que "petit internaute", nous n’avons pas les moyens de savoir que nos données sont identifiables et avec quelles données elles sont croisées. Même si on le sent, on le devine, on peut difficilement le démontrer. Les entreprises qui les utilisent ont alors beau jeu d’expliquer que les contenus que nous recevons sont le fruit du hasard ou de traitement de données anonymes.

Le monde virtuel est-il au-dessus des lois ?

Nous avons du retard dans l’application de la loi sous l’angle des données personnelles. C’est clairement une question de rapport de force. Aujourd’hui, les autorités de contrôle ne font pas le poids face aux géants du numérique. D’un côté, les plateformes diffusent toujours plus de contenus avec de puissants algorithmes programmés pour garder captifs les internautes. De l’autre, le Préposé fédéral à la protection des données emploie une trentaine de personnes. En comparaison c’est plus de 500 pour la FINMA, l'Autorité de surveillance des marchés financiers.

Au niveau de l’Union européenne, il existe plusieurs projets de règlement visant à mieux encadrer les plateformes numériques, car on se rend compte qu’on ne peut plus juste laisser faire. D’autres domaines juridiques commencent aussi à regarder ce qui se passe dans le monde virtuel, comme le droit de la concurrence. Le législateur se rend aussi compte que la démocratie et le bon fonctionnement de la sphère publique sont en danger. Des outils sont nécessaires pour contrôler les plateformes lorsqu’elles diffusent des contenus qui mettent en danger le fonctionnement démocratique.

Dans d’autres domaines, l’approche juridique est plus simple: l’interdiction des contenus pédopornographiques, les atteintes à l’honneur ou encore les agressions en ligne peuvent être punies. L’internaute a les outils légaux pour se défendre. C’est encore perfectible mais cela fonctionne.

L'avis de Lê Hoang Nguyen, spécialiste de la sécurité des algorithmes

Si un algorithme aggrave des problèmes de santé, le fournisseur devrait être sanctionné. Au même titre qu'un fabricant d'avion lors d'un crash.

Lê Hoang, chercheur, médiateur scientifique et spécialiste de la sécurité des algorithmes à l’EPFL, Lausanne

Les algorithmes de ces plateformes sont-ils hors de contrôle ?

Aujourd'hui, nous vivons une course à la performance autant dans le milieu industriel qu’académique. On déploie, toujours plus vite, des algorithmes toujours plus sophistiqués. Le temps de développement et de vérification est très raccourci par rapport à ce qu’on a pu connaître il y a vingt ans. Or ces algorithmes exploitent des montagnes de données impossibles à analyser par des humains. Il est donc légitime de se demander si les ingénieurs de ces entreprises ont une compréhension suffisante de leur outil avant de le mettre en service. Et surtout, est-ce qu’ils en mesurent tous les impacts sur la société ? Nous, chercheurs et ingénieurs, devons prendre conscience de notre responsabilité. Nous devons défendre le développement d'outils plus sécurisés, plus démocratiques et plus éthiques.

Quelle différence entre un algorithme utilisé dans une voiture et celui d’une plateforme digitale ?

Les algorithmes utilisés dans une voiture ou un avion doivent être homologués et testés. En cas d’accident, les fabricants sont lourdement sanctionnés. En ligne, le fournisseur teste très peu son outil avant sa mise en service. Ce sont finalement des tests grandeur nature sur les utilisateurs. Il y a beaucoup moins d'exigences et c’est vraiment problématique, voire dangereux. Lorsqu’on constate que le fonctionnement d’un algorithme aggrave des problèmes de santé ou d’addiction, lorsqu’il favorise la radicalisation, cela devrait être sanctionné à la hauteur des dégâts causés au même titre qu’un crash d’avion.