La société américaine Apple a mis en place une nouveau dispositif visant à lutter contre la pédopornographie.
Une intelligence artificielle scanne les photos directement dans les téléphones, sans qu'aucune action pour l'en empêcher soit possible. Elle compare ensuite les fichiers à une base de données d'images d'abus sexuels sur mineurs, avant de dénoncer les contrevenants aux autorités.
L'objectif est louable et l'Office fédéral de la police (fedpol) a même salué le geste sur Twitter.
Risques de dévoiement
En créant cette technologie, Apple a cependant ouvert une dangereuse boîte de Pandore et les critiques ne se sont pas faites attendre.
Pour l'avocat spécialiste en protection des données David Raedler, il y a deux grandes dérives possibles: une faille de sécurité avec un risque d'accès à des images ou des informations autres que celles initialement recherchées et "un développement des critères de contrôle qui seraient décidés par l'entreprise ou exigés par un gouvernement".
David Raedler estime qu'avec ce nouveau dispositif, la société américaine "annonce un contrôle directement sur les téléphones, là où vous avez toute votre vie".
Devant la levée de boucliers, Apple va dans un premier temps scanner uniquement les photos déposées sur ses serveurs iCloud.
Pascal Wassmer/iar