Vérification de contenus par Apple

2021-08-22 Off By dporgpd

Apple est la cible de criti­ques depuis son annonce de changements destinés à mieux lutter contre la pédopornographie et protéger les enfants. Si le but de ces mesures dévoilées jeudi 5 août fait consensus, des ONG voient dans les méthodes employées une menace pour la vie privée et les libertés indivi­duelles des utilisateurs d’iPhone et d’iPad.

Bien que ces mises à jour soient pour l’heure réservées au marché américain et prévues seulement pour la fin de l’année, Apple se re­ trouve au cœur d’une polémique : visée par une pétition d’associa­tions et de particuliers, l’entre­prise a dû publier des questions­ réponses puis faire s’exprimer mardi son responsable de la vie privée, Erik Neuenschwander, dans le média en ligne américain TechCrunch, pour tenter d’étein­dre la controverse. Celle­ ci se nourrit d’inquiétudes sur la pro­tection des contenus chiffrés, sur les smartphones ou sur les mes­sageries comme WhatsApp, iMes­ sage, Signal ou Telegram.

Au cœur des débats se trouvent deux techniques. D’un côté, Apple va vérifier, avant la sauvegarde des photos du téléphone d’un utilisa­teur vers le service en ligne iCloud, que les clichés ne figurent pas sur une liste d’images pédopornogra­phiques connues. L’entreprise va pour cela utiliser une technique appelée « hash », qui code un contenu en une suite de nombres uni­que. Les hashes des photos d’un internaute seront comparés à ceux rassemblés par une ONG de lutte contre la pédopornographie dans une base de données, stoc­kée sur son téléphone.

La seconde technique concerne iMessage, le système de message­ rie d’Apple : un logiciel d’intelli­gence artificielle analysera les photos reçues et envoyées par les utilisateurs mineurs dont les pa­rents auront choisi cette option. Si une image est jugée revêtir un caractère sexuel, elle sera floutée et une mise en garde adressée au mineur. S’il a moins de 12 ans et a accepté ou envoyé la photo, un message avertira les parents.

« Abus plus larges »

Pour les ONG, ces changements marquent une rupture dans la gestion des contenus stockés sur les smartphones ou dans les mes­sageries, considérés comme pri­vés par opposition à ceux postés sur les réseaux sociaux comme Facebook ou Instagram, considé­rés comme publics. Les mesures ouvriraient une brèche vers la sur­veillance des contenus chiffrés, qui ne peuvent être lus par des tiers, sauf s’ils sont analysés au niveau de l’appareil des utilisa­teurs, comme ici. « Apple ouvre la porte à des abus plus larges», a écrit dans la pétition l’Electronic

Frontier Foundation. L’ONG de défense des libertés en ligne a dénoncé un « système » qui pour­ rait être élargi à d’autres contenus, d’autres plates ­formes et d’autres Etats, non démocratiques. « S’ils peuvent chercher de la pornogra­phie infantile aujourd’hui, ils pour­ront chercher n’importe quoi demain », a abondé l’ex­ agent du renseignement américain devenu lanceur d’alerte Edward Snowden.

L’ONG Open Privacy Research Society, elle, prévoit l’extension « aux contenus terroristes, lé­gaux mais haineuxou censurés par des Etats précis » et s’inquiète pour la communauté LGBT + ou les dissidents.

Pour sa défense, Apple a rappelé être régulièrement sommé de mieux lutter contre la pédocrimi­nalité. L’inventeur de l’iPhone a as­suré que ses changements « ne lui donnent pas accès aux communi­cations » des utilisateurs. Pour iMessage, seuls les parents du mi­neur sont prévenus. Pour iCloud, Apple n’est alerté que si plusieurs hashes sont identifiés, et vérifie humainement les photos avant de prévenir les autorités. Un utilisa­teur peut aussi éviter l’analyse de ses images en désactivant leur sauvegarde sur iCloud. De plus, ce type de filtre est déjà utilisé, au ni­veau des serveurs en ligne, par Facebook ou d’autres hébergeurs cloud. Enfin, Apple promet de « re­fuser » toute demande d’élargisse­ ment et rappelle avoir déjà re­ poussé « des requêtes de gouverne­ments mettant en danger la vie pri­vée des utilisateurs ».

Dans un document publié sur son site vendredi, le groupe pré­cise qu’il faudra, au début du dé­ploiement du système, un mini­mum de 30 images reconnues par la machine pour qu’elle signale un compte et que des humains le vérifient manuellement.

Les réactions sont vives pour plusieurs raisons. D’abord, Apple s’est toujours posé en champion de la sécurité et de la vie privée. «Ce qui se passe sur votre iPhone reste sur votre iPhone », a martelé l’entreprise, taclant Facebook, financé par la publicité ciblée. Les ONG voient des failles dans cette posture : si la firme dirigée par Tim Cook a refusé aux autorités américaines l’accès aux contenus chiffrés sur les iPhone de terroris­tes, elle a récemment accepté d’héberger en Chine les données de ses utilisateurs chinois. De plus, l’annonce intervient alors que la pression des Etats ou des instances européennes pour ob­tenir des moyens d’accéder aux contenus chiffrés se renforce. Le but est la modération des conte­nus terroristes ou haineux et l’avancée d’enquêtes de police. Fin 2019, les Etats­Unis, le Royaume­ Uni et l’Australie ont demandé à Facebook de renoncer à étendre le chiffrement de sa filiale What­ sApp à Messenger et Instagram.

Plus récemment, le patron de WhatsApp, Will Cathcart, s’est opposé à l’article 10 de la loi « ren­seignement » en France et à un projet de loi en Inde. Le dirigeant de la filiale de Facebook ne s’est pas gêné pour critiquer Apple : « Il n’y a jamais eu d’obligation d’ana­lyser le contenu privé de tous les or­dinateurs et téléphones pour y trouver des éléments illégaux », a­ t­il twitté.

Le fabricant de l’iPhone se voit reprocher d’avoir agi sans concer­tation, alors que d’autres moyens existent contre les contenus dan­gereux – WhatsApp a ainsi limité le nombre de destinataires d’un message transféré – ou pour aider les forces de l’ordre – on peut transmettre des métadonnées comme les numéros de télé­ phone… La polémique souligne en tout cas que ces questions mérite­raient plus de débat public.