Connect with us

Technologie

Le stratagème d’Apple pour détecter la maltraitance des enfants crée de graves risques pour la vie privée et la sécurité, selon les scientifiques

Published

on


La proposition d’Apple d’obliger les utilisateurs d’iPhone à accepter des mises à jour qui rechercheraient automatiquement et secrètement dans les images partagées d’éventuels abus et enverraient des rapports à Apple ou aux organismes d’application de la loi est aujourd’hui condamnée comme inapplicable, vulnérable aux abus et comme une menace pour la sûreté et la sécurité par les meilleurs experts en cryptographie et pionniers d’Internet du monde.

L’évaluation technique détaillée des 14 meilleurs informaticiens sur les raisons pour lesquelles les idées d’Apple sont stupides et dangereuses en principe et en pratique, Bugs dans nos poches : les risques de l’analyse côté client, a été publié ce matin par l’Université Columbia et sur Arxiv.

Le plan d’Apple, dévoilé en août, s’appelle l’analyse côté client (CSS). Le panel reconnaît que « Apple a consacré un effort d’ingénierie majeur et employé les meilleurs talents techniques pour tenter de construire un système CSS sûr et sécurisé », mais trouve que c’est un échec complet, citant plus de 15 façons dont les États ou les acteurs malveillants, et même les agresseurs ciblés, pourraient transformer la technologie pour causer du tort à d’autres ou à la société.

Apple n’a « pas produit un design sûr et digne de confiance », disent-ils. « Le CSS ne garantit pas une prévention efficace du crime ni n’empêche la surveillance. L’effet est le contraire… De par sa nature, le CSS crée de graves risques pour la sécurité et la vie privée de toute la société.

Les signataires du rapport comprennent Ron Rivest et Whit Diffie, dont les inventions mathématiques pionnières des années 1970 sous-tendent une grande partie de la cryptographie utilisée aujourd’hui; Steve Bellovin de l’Université Columbia, l’un des initiateurs de Usenet; les gourous de la sécurité Bruce Schneier et Ross Anderson, de l’Université de Cambridge; Matt Blaze de l’Université de Georgetown, directeur du projet Tor; et Susan Landau, Peter G Neumann, Jeffrey Schiller, Hal Abelson et quatre autres, tous des géants dans le domaine.

Le plan d’Apple « franchit une ligne rouge », disent-ils. « La proposition d’analyser de manière préventive tous les appareils des utilisateurs à la recherche de contenu ciblé est beaucoup plus insidieuse que les propositions précédentes d’entiercement des clés et d’accès exceptionnel. Dans un monde où nos renseignements personnels se trouvent dans des bits transportés sur de puissants dispositifs de communication et de stockage dans nos poches, la technologie et les lois doivent être conçues pour protéger notre vie privée et notre sécurité, et non pour s’y immiscer.

Pression des agences de renseignement

L’annonce estivale d’Apple est la première fois qu’un acteur informatique majeur semble prêt à céder à une telle pression gouvernementale en Occident. La pression des agences de renseignement et des gouvernements répressifs pour bloquer, subvertir ou interdire légalement la cryptographie efficace dans les communications numériques est incessante depuis plus de 40 ans. Mais, face à des systèmes cryptographiques de plus en plus efficaces et de plus en plus largement utilisés, ces acteurs se sont tournés vers des attaques sur les terminaux et l’infrastructure, en utilisant des méthodes telles que le piratage légalement autorisé.

« La proposition d’analyser de manière préventive toutes les appareils des utilisateurs à la recherche de contenu ciblé est beaucoup plus insidieuse que les propositions précédentes d’entiercement de clés et d’accès exceptionnel »

Rapport de bugs dans nos poches

« Cette décision met en évidence un changement décisif dans la dernière bataille des agences de renseignement visant à subvertir la cryptographie moderne et efficace », ont déclaré Abelson et ses collègues aujourd’hui. « Au lieu d’avoir des capacités ciblées, telles que l’écoute électronique des communications avec un mandat et la criminalistique sur les appareils saisis, la direction des voyages des agences est la numérisation en masse des données privées de tout le monde, tout le temps, sans mandat ni soupçon. »

Le principe de CSS est que la cryptographie de haute qualité serait autorisée, mais que le matériel correspondant aux modèles fournis et chargés par le gouvernement serait signalé et exporté secrètement.

« Techniquement, CSS permet un cryptage de bout en bout, mais cela est discutable si le message a déjà été analysé pour le contenu ciblé », notent-ils. « En réalité, CSS est une interception en masse, bien qu’automatisée et distribuée. Comme CSS donne aux agences gouvernementales l’accès à du contenu privé, il doit être traité comme une écoute électronique.

« Une fois les capacités construites, on trouvera des raisons de les utiliser », ajoutent-ils.

Surveillance en vrac

Les auteurs critiquent non seulement l’incompétence d’Apple dans l’application des principes de sécurité de base, mais aussi sa naïveté coupable en suggérant qu’un tel système une fois déployé ne serait pas immédiatement réutilisé. Même s’ils étaient initialement déployés pour rechercher du matériel sexuel illégal et publiquement condamné, « il y aurait une pression énorme pour élargir sa portée » – et aucun moyen de freiner l’outil destructeur de la vie privée et de la sécurité qu’ils avaient créé.

La « promesse d’un système de surveillance technologiquement limité est à bien des égards illusoire », prévient-ils. Une fois introduit, comme le goudronObtenir des termes ou des images serait secret, et secrètement géré, comment Apple ou tout utilisateur empêcherait-il d’autres documents d’être ajoutés à la liste, y compris des informations qui étaient légales mais qui déplaisaient au gouvernement de l’époque dans un État puissant?

Apple a déjà cédé à de telles pressions, par exemple en déplaçant les données iCloud de ses utilisateurs chinois vers des centres de données sous le contrôle d’une société d’État chinoise et, plus récemment, en supprimant l’application de vote Navalny de son magasin d’applications russe.

Les experts en sécurité soulignent également l’erreur fatale de placer des systèmes puissants comme CSS sur les appareils clients, les exposant ainsi à la réutilisation, au jeu, à la mauvaise direction et à la tromperie par toutes les classes de mauvais acteurs, d’un Puissant État-nation aux drogues criminelles et aux gangs de meurtre, en passant par les adolescents cyber-intelligents qui tentent de s’installer les uns les autres.

Technologie défectueuse

Comme proposé par Apple, le premier système CSS utiliserait le « hachage perceptuel » pour faire correspondre les images copiées sur iCloud à une bibliothèque d’«empreintes digitales » d’images fournies par le gouvernement.

Le hachage perceptuel ne teste pas une correspondance exacte bit à bit, mais la similitude de l’image.

La dernière version d’Apple du hachage perceptuel, appelée NeuralHash, a été lancée en août et promue comme un moyen de détecter de manière sécurisée et fiable les images abusives. Les critiques ont rapidement démontré que le système produisait des faux positifs et pouvait être rétro-conçu puis exploité.

Les chercheurs ont mis à peine deux semaines à faire de l’ingénierie inverse de la version de l’algorithme NeuralHash intégrée à iOS 14. Cela a conduit à des violations immédiates, y compris l’évasion mécanique et les faux positifs. La réputation du système s’est effondrée lorsqu’une équipe a montré qu’il correspondait à deux images totalement différentes du monde réel. Apple a retiré NeuralHash un mois plus tard.

La réputation de l’algorithme NeuralHash d’Apple s’est effondrée lorsqu’une équipe a montré qu’il correspondait à deux images totalement différentes du monde réel.

Une autre technique de « hachage perceptuel », PhotoDNA de Microsoft, a également été rétro-conçue pour reconstruire les photos cibles, produisant des images cibles parfois reconnaissables et à très basse résolution.

Les techniques d’apprentissage automatique seraient encore plus vulnérables, car le modèle et le moteur d’entraînement seraient nécessairement exposés sur un grand nombre d’appareils, les adversaires pourraient chercher à « empoisonner » les algorithmes d’apprentissage avec des ensembles de données spécialement configurés.

Pour ces raisons, les experts conviennent que « nous ne trouvons aucun espace de conception pour des solutions qui offrent des avantages substantiels aux forces de l’ordre sans risquer indûment la vie privée et la sécurité des citoyens respectueux des lois ».

En tant que « changement de phase » dans les technologies de l’information, la numérisation côté client « saperait gravement [protection], nous rendant tous moins sûrs et moins sûrs », disent-ils, concluant que « c’est une technologie dangereuse ».

Click to comment

Leave a Reply

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Tendance