Connect with us

Technologie

Apple dévoile son intention de scanner les iPhones américains à la recherche d’images d’abus sexuels d’enfants

Published

on


Apple commencera à analyser les appareils de ses clients américains à la recherche de matériel d’abus pédosexuel connu (CSAM) plus tard cette année, mais fait déjà face à la résistance des défenseurs de la vie privée et de la sécurité.

L’outil de détection CSAM est l’une des trois nouvelles mesures de sécurité des enfants introduites par Apple, y compris la surveillance des communications des enfants avec l’apprentissage automatique pour détecter les signes de nudité ou d’autres contenus sexuellement explicites, ainsi que la mise à jour de Search et de Siri pour intervenir lorsque les utilisateurs font des requêtes liées à CSAM.

Dans son annonce, Apple a déclaré que le nouvel outil de détection permettra à l’entreprise de signaler les cas de CSAM au National Center for Missing and Exploited Children (NCMEC), qui travaille en collaboration avec les forces de l’ordre à travers les États-Unis.

Apple a déclaré qu’au lieu de numériser des images dans le cloud, le système effectuerait une correspondance sur appareil avec une base de données de hachages d’images CSAM connus fournis par le NCMEC et d’autres organisations de sécurité des enfants, et il transformerait cette base de données en un « ensemble illisible de hachages » à stocker en toute sécurité sur les appareils des utilisateurs.

« Avant qu’une image ne soit stockée dans iCloud Photos, un processus de correspondance sur l’appareil est effectué pour cette image par rapport aux hachages CSAM connus », a déclaré la société. « Ce processus d’appariement est alimenté par une technologie cryptographique appelée intersection d’ensemble privé, qui détermine s’il y a une correspondance sans révéler le résultat.

« L’appareil crée un bon de sécurité cryptographique qui code le résultat de la correspondance ainsi que des données cryptées supplémentaires sur l’image. Ce bon est téléchargé sur photos iCloud avec l’image.

S’il y a une correspondance suffisamment forte entre une photo numérisée et une image connue de maltraitance d’enfants, Apple a déclaré qu’il vérifierait manuellement chaque rapport pour confirmer la correspondance, avant de désactiver le compte de l’utilisateur et d’en informer le NCMEC.

« Cette nouvelle technologie innovante permet à Apple de fournir des informations précieuses et exploitables au NCMEC et aux forces de l’ordre concernant la prolifération de CSAM connus », a-t-il déclaré. « Et il le fait tout en offrant des avantages significatifs en matière de confidentialité par rapport aux techniques existantes, car Apple n’apprend à connaître les photos des utilisateurs que s’ils ont une collection de CSAM connus dans leur compte Photos iCloud. Même dans ces cas, Apple n’apprend que sur les images qui correspondent à CSAM connu.

John Clark, président et chef de la direction du NCMEC, a déclaré que les protections étendues d’Apple pour les enfants « changeraient la donne », ajoutant: « Avec autant de personnes utilisant les produits Apple, ces nouvelles mesures de sécurité ont un potentiel de sauvetage pour les enfants. »

Bien que la nouvelle fonctionnalité soit initialement utilisée pour analyser les photos stockées dans le cloud du côté de l’appareil, certains experts en sécurité et en confidentialité s’inquiètent de la façon dont la technologie pourrait être utilisée ou réutilisée.

Matthew Green, chercheur en cryptographie à l’Université Johns Hopkins, a tweeté: « À terme, cela pourrait être un ingrédient clé dans l’ajout de la surveillance aux systèmes de messagerie cryptés. La possibilité d’ajouter des systèmes de numérisation comme celui-ci à E2E [end-to-end] les systèmes de messagerie ont été une « demande » majeure par les forces de l’ordre du monde entier.

Il a ajouté: « La façon dont Apple fait ce lancement, ils vont commencer avec des photos non-E2E que les gens ont déjà partagées avec le cloud. Donc, cela ne « nuit » à la vie privée de personne. Mais vous devez vous demander pourquoi quelqu’un développerait un système comme celui-ci si la numérisation de photos E2E n’était pas l’objectif.

L’Electronic Frontier Foundation (EFF) a partagé des sentiments similaires, déclarant: « Apple prévoit de construire une porte dérobée dans son système de stockage de données et son système de messagerie. Mais ce choix aura un prix élevé pour la confidentialité globale des utilisateurs.

« Apple peut expliquer en détail comment sa mise en œuvre technique préservera la confidentialité et la sécurité dans sa porte dérobée proposée, mais en fin de compte, même une porte dérobée soigneusement documentée, soigneusement réfléchie et étroitement délimitée est toujours une porte dérobée. »

L’EFF a ajouté qu’en fin de compte, l’outil de détection CSAM signifie que toutes les photos d’un appareil devraient être numérisées, ce qui réduirait la confidentialité.

Il a également déclaré qu’en ce qui concerne la surveillance des communications des enfants pour la nudité ou d’autres contenus sexuellement explicites, Apple ouvre la porte à des abus plus larges, car tout ce qu’il faudrait, c’est une expansion des paramètres de l’apprentissage automatique ou un ajustement des indicateurs de configuration pour rechercher d’autres types de contenu.

« Ce n’est pas une pente glissante – c’est un système entièrement construit qui n’attend que la pression extérieure pour apporter le moindre changement », a déclaré EFF.

Adam Leon Smith, président de BCS, le groupe de test de logiciels du Chartered Institute for IT, a déclaré que bien que les mesures d’Apple semblent une bonne idée à première vue car elles maintiennent la confidentialité tout en détectant l’exploitation, iIl est impossible de construire un tel système qui ne fonctionne que pour les images d’abus d’enfants.

« Il est facile d’envisager qu’Apple soit obligé d’utiliser la même technologie pour détecter les mèmes politiques ou les messages texte », a déclaré Smith.

« Fondamentalement, cela rompt la promesse d’un cryptage de bout en bout, ce qui est exactement ce que de nombreux gouvernements veulent – à l’exception de leurs propres messages, bien sûr.

« Il ne sera pas non plus très difficile de créer des faux positifs. Imaginez si quelqu’un vous envoie une image apparemment inoffensive sur Internet qui finit par être téléchargée et examinée par Apple et signalée comme abus d’enfant. Ce ne sera pas une expérience agréable.

« Alors que les fournisseurs de technologie continuent de dégrader le cryptage pour les masses, les criminels et les personnes ayant un contenu légitimement sensible cesseront tout simplement d’utiliser leurs services. Il est trivial de crypter vos propres données sans compter sur Apple, Google et d’autres grands fournisseurs de technologie.

D’autres ont également averti que, bien qu’ils conviennent que la prévention de la propagation du CSAM est une bonne chose, les technologies introduites pourraient être réutilisées par les gouvernements à des fins plus néfastes.

Chris Hauk, un champion de la vie privée des consommateurs chez Pixel Privacy, a déclaré: « Une telle technologie pourrait être utilisée abusivement si elle est placée entre les mains du gouvernement, ce qui conduit à son utilisation pour détecter des images contenant d’autres types de contenu, telles que des photos prises lors de démonstrations et d’autres types de rassemblement. Cela pourrait conduire le gouvernement à restreindre la liberté d’expression des utilisateurs et à réprimer les opinions et l’activisme « non approuvés ».

Cependant, Paul Bischoff, défenseur de la vie privée chez Comparitech, a adopté un point de vue différent, soutenant que, bien qu’il y ait des implications en matière de protection de la vie privée, l’approche d’Apple équilibre la vie privée avec la sécurité des enfants.

« Le système de hachage permet à Apple d’analyser l’appareil d’un utilisateur à la recherche d’images correspondant à celles d’une base de données de matériel connu pour maltraitance d’enfants », a-t-il déclaré. « Il peut le faire sans réellement visualiser ou stocker les photos de l’utilisateur, ce qui préserve leur vie privée, sauf lorsqu’une photo violante est trouvée sur l’appareil.

« Le processus de hachage prend une photo et la chiffre pour créer une chaîne unique de chiffres et de chiffres, appelée hachage. Apple a haché toutes les photos dans la base de données d’abus d’enfants des forces de l’ordre. Sur les iPhones et iPads des utilisateurs, ce même processus de hachage est appliqué aux photos stockées sur l’appareil. Si l’un des hachages résultants correspond, Apple sait que l’appareil contient de la pornographie juvénile.

Mais Bischoff a déclaré qu’il y avait encore des dangers, et que l’utilisation de la technologie devait être « strictement limitée dans sa portée à la protection des enfants » et non utilisée pour scanner les appareils des utilisateurs à la recherche d’autres photos.

« Si les autorités recherchent quelqu’un qui a publié une photo spécifique sur les médias sociaux, par exemple, Apple pourrait éventuellement numériser les photos de tous les utilisateurs d’iPhone à la recherche de cette image spécifique », a-t-il ajouté.



Click to comment

Leave a Reply

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Tendance