Vérification de contenus par Apple
Apple est la cible de critiques depuis son annonce de changements destinés à mieux lutter contre la pédopornographie et protéger les enfants. Si le but de ces mesures dévoilées jeudi 5 août fait consensus, des ONG voient dans les méthodes employées une menace pour la vie privée et les libertés individuelles des utilisateurs d’iPhone et d’iPad.
Bien que ces mises à jour soient pour l’heure réservées au marché américain et prévues seulement pour la fin de l’année, Apple se re trouve au cœur d’une polémique : visée par une pétition d’associations et de particuliers, l’entreprise a dû publier des questions réponses puis faire s’exprimer mardi son responsable de la vie privée, Erik Neuenschwander, dans le média en ligne américain TechCrunch, pour tenter d’éteindre la controverse. Celle ci se nourrit d’inquiétudes sur la protection des contenus chiffrés, sur les smartphones ou sur les messageries comme WhatsApp, iMes sage, Signal ou Telegram.
Au cœur des débats se trouvent deux techniques. D’un côté, Apple va vérifier, avant la sauvegarde des photos du téléphone d’un utilisateur vers le service en ligne iCloud, que les clichés ne figurent pas sur une liste d’images pédopornographiques connues. L’entreprise va pour cela utiliser une technique appelée « hash », qui code un contenu en une suite de nombres unique. Les hashes des photos d’un internaute seront comparés à ceux rassemblés par une ONG de lutte contre la pédopornographie dans une base de données, stockée sur son téléphone.
La seconde technique concerne iMessage, le système de message rie d’Apple : un logiciel d’intelligence artificielle analysera les photos reçues et envoyées par les utilisateurs mineurs dont les parents auront choisi cette option. Si une image est jugée revêtir un caractère sexuel, elle sera floutée et une mise en garde adressée au mineur. S’il a moins de 12 ans et a accepté ou envoyé la photo, un message avertira les parents.
« Abus plus larges »
Pour les ONG, ces changements marquent une rupture dans la gestion des contenus stockés sur les smartphones ou dans les messageries, considérés comme privés par opposition à ceux postés sur les réseaux sociaux comme Facebook ou Instagram, considérés comme publics. Les mesures ouvriraient une brèche vers la surveillance des contenus chiffrés, qui ne peuvent être lus par des tiers, sauf s’ils sont analysés au niveau de l’appareil des utilisateurs, comme ici. « Apple ouvre la porte à des abus plus larges», a écrit dans la pétition l’Electronic
Frontier Foundation. L’ONG de défense des libertés en ligne a dénoncé un « système » qui pour rait être élargi à d’autres contenus, d’autres plates formes et d’autres Etats, non démocratiques. « S’ils peuvent chercher de la pornographie infantile aujourd’hui, ils pourront chercher n’importe quoi demain », a abondé l’ex agent du renseignement américain devenu lanceur d’alerte Edward Snowden.
L’ONG Open Privacy Research Society, elle, prévoit l’extension « aux contenus “terroristes”, “légaux mais haineux” ou censurés par des Etats précis » et s’inquiète pour la communauté LGBT + ou les dissidents.
Pour sa défense, Apple a rappelé être régulièrement sommé de mieux lutter contre la pédocriminalité. L’inventeur de l’iPhone a assuré que ses changements « ne lui donnent pas accès aux communications » des utilisateurs. Pour iMessage, seuls les parents du mineur sont prévenus. Pour iCloud, Apple n’est alerté que si plusieurs hashes sont identifiés, et vérifie humainement les photos avant de prévenir les autorités. Un utilisateur peut aussi éviter l’analyse de ses images en désactivant leur sauvegarde sur iCloud. De plus, ce type de filtre est déjà utilisé, au niveau des serveurs en ligne, par Facebook ou d’autres hébergeurs cloud. Enfin, Apple promet de « refuser » toute demande d’élargisse ment et rappelle avoir déjà re poussé « des requêtes de gouvernements mettant en danger la vie privée des utilisateurs ».
Dans un document publié sur son site vendredi, le groupe précise qu’il faudra, au début du déploiement du système, un minimum de 30 images reconnues par la machine pour qu’elle signale un compte et que des humains le vérifient manuellement.
Les réactions sont vives pour plusieurs raisons. D’abord, Apple s’est toujours posé en champion de la sécurité et de la vie privée. «Ce qui se passe sur votre iPhone reste sur votre iPhone », a martelé l’entreprise, taclant Facebook, financé par la publicité ciblée. Les ONG voient des failles dans cette posture : si la firme dirigée par Tim Cook a refusé aux autorités américaines l’accès aux contenus chiffrés sur les iPhone de terroristes, elle a récemment accepté d’héberger en Chine les données de ses utilisateurs chinois. De plus, l’annonce intervient alors que la pression des Etats ou des instances européennes pour obtenir des moyens d’accéder aux contenus chiffrés se renforce. Le but est la modération des contenus terroristes ou haineux et l’avancée d’enquêtes de police. Fin 2019, les EtatsUnis, le Royaume Uni et l’Australie ont demandé à Facebook de renoncer à étendre le chiffrement de sa filiale What sApp à Messenger et Instagram.
Plus récemment, le patron de WhatsApp, Will Cathcart, s’est opposé à l’article 10 de la loi « renseignement » en France et à un projet de loi en Inde. Le dirigeant de la filiale de Facebook ne s’est pas gêné pour critiquer Apple : « Il n’y a jamais eu d’obligation d’analyser le contenu privé de tous les ordinateurs et téléphones pour y trouver des éléments illégaux », a til twitté.
Le fabricant de l’iPhone se voit reprocher d’avoir agi sans concertation, alors que d’autres moyens existent contre les contenus dangereux – WhatsApp a ainsi limité le nombre de destinataires d’un message transféré – ou pour aider les forces de l’ordre – on peut transmettre des métadonnées comme les numéros de télé phone… La polémique souligne en tout cas que ces questions mériteraient plus de débat public.