Technologie

Apple va détecter les photos sexuellement explicites d’enfants sur les iPhone

Apple a annoncé une série de mesures de sécurité visant à protéger les mineurs utilisant ses appareils. Ils visent à lutter contre la maltraitance des enfants, mais garantissent le respect de la vie privée.

Apple a annoncé cette semaine de nouvelles fonctionnalités qui permettront de scanner les photos des utilisateurs d’iPhone et d’iPad pour détecter et signaler les collections d’images d’abus sexuels d’enfants stockées sur ses serveurs en nuage. « Nous voulons contribuer à la protection des enfants contre les prédateurs qui utilisent les outils de communication pour les recruter et les exploiter, et limiter la diffusion de documents relatifs à l’exploitation sexuelle des enfants », a déclaré Apple dans un communiqué. « Ce programme est ambitieux, et la protection des enfants est une responsabilité importante », a-t-il déclaré. « Nos efforts vont évoluer et s’étendre au fil du temps ».

Apple a déclaré que le travail de détection s’effectuait sur l’appareil et a insisté sur le fait que seules les personnes ayant téléchargé sur iCloud de grandes collections d’images correspondant à une base de données de matériel pédopornographique connu franchiraient un seuil permettant le décryptage et l’analyse de certaines de leurs photos par Apple.

Faisant remarquer que la possession d’un tel matériel « est un acte illégal », le responsable de la protection de la vie privée d’Apple, Erik Neuenschwander, a déclaré lors d’une vidéoconférence que « le système a été conçu et formé » pour détecter les images de la base de données CSAM du Centre national américain pour les enfants disparus et exploités.

« C’est une idée absolument épouvantable parce qu’elle conduira à une surveillance de masse distribuée de nos téléphones et ordinateurs portables », commente Ross Anderson, spécialiste de la sécurité, à propos de la dernière incursion d’Apple dans le domaine de la « sécurité ». Le professeur de cryptographie Matthew Green met en garde contre la rupture d’un barrage. Il n’y a vraiment rien à ajouter à cela. Sauf, bien sûr :

« NE FAIS PAS CETTE MERDE ! !! »

[Addendum : Il ne s’agit pas de la recherche par Apple de pornographie enfantine sur ses serveurs et de son signalement à la police. Tous les fournisseurs de services comme Google, Microsoft ou Facebook le font. Il s’agit du fait qu’Apple veut maintenant même rechercher ces images sur les iPhone de ses clients.

Secrètement, en arrière-plan, à l’insu du propriétaire, des programmes de recherche spéciaux fonctionnent sur les appareils. Constamment et sans raison particulière, pour tout le monde. C’est nouveau. Et c’est effrayant].

L’entreprise informatique qui aime se parer de l’image du défenseur de notre vie privée se laisse mettre au service de l’État de surveillance. La recherche de pornographie infantile sur l’iPhone n’est rien d’autre que des bugs intégrés dans le système qui recherchent en permanence des contenus incriminés sur nos appareils ! Ce qu’ils recherchent exactement est, bien sûr, secret. Mais qu’est-ce qui peut mal tourner ?

Non, il ne suffit pas de le laisser dans l’obscurité. Je préfère énumérer les choses qui vont mal se passer :

0) Après avoir initialement numérisé uniquement les images dans le nuage, le processus sera étendu à tout le contenu. Sinon, tout cela n’a aucun sens.

1) La liste des éléments à rechercher sera continuellement étendue. Dans un premier temps, il s’agit de pornographie enfantine – comme toujours lorsqu’on a besoin du plus large consensus possible pour de nouvelles possibilités de surveillance. Ensuite, ils recherchent des terroristes, des trafiquants d’êtres humains, des trafiquants de drogue, etc. Ce sont du moins les cibles apparentes. Secrètement, bien sûr, nous sommes tous surveillés – tout le temps.

2) Les États demandent et obtiennent une influence sur les critères de recherche et, bien sûr, l’accès aux alarmes qu’ils déclenchent. Donc pas seulement les États-Unis et l’Allemagne. Mais aussi la Chine, la Russie, la Hongrie, le Belarus, l’Arabie saoudite, etc. Après tout, une entreprise doit se conformer à la loi. Et, bien sûr, le fabricant veut continuer à vendre ses équipements.

3) D’autres fabricants suivent le mouvement et intègrent des fonctions similaires. Et à un moment donné, cette forme de surveillance deviendra même obligatoire. Et pourquoi le limiter aux smartphones et aux ordinateurs portables ? Pourquoi ne pas surveiller également les caméras et les consoles de jeux ? L’ensemble de l’Internet des objets est en train de devenir un cauchemar de surveillance.

4) Des moyens sont trouvés pour pirater le processus de recherche. Il s’agit donc d’images ou de documents ciblés qui sont en fait inoffensifs mais qui déclenchent tout de même une réaction. Et ceux-ci seront plantés sur les gens pour les discréditer.

Équiper nos téléphones portables et nos ordinateurs d’une fonction de surveillance permanente qui signale au fabricant tout type d’écart de conduite est une idée terrible. C’est une brèche dans le barrage qui conduira à une surveillance totale sans précédent. Quiconque envisage une telle chose doit faire face à d’énormes vents contraires.

M. Neuenschwander a déclaré que les personnes dont les images sont signalées aux forces de l’ordre ne seront pas prévenues et que leurs comptes seront désactivés. « Faire désactiver son compte est un acte notoire », a déclaré M. Neuenschwander. Apple a déclaré que sa suite de systèmes d’exploitation pour appareils mobiles sera mise à jour avec la nouvelle fonction de sécurité pour enfants « plus tard cette année », en commençant par les États-Unis.

Cependant, certains experts en matière de protection de la vie privée ont exprimé leur inquiétude. « Ces systèmes posent quelques problèmes », a déclaré Matthew D. Green, professeur associé de cryptographie à l’université John Hopkins. « La première est que vous devez faire confiance à Apple pour ne scanner que les contenus légitimement mauvais.

Si le FBI ou le gouvernement chinois s’en remet à Apple et lui demande d’ajouter des images spécifiques à sa base de données, il n’y a aucun moyen pour l’utilisateur de le détecter. Ils vous dénonceront simplement pour avoir eu ces photos. En fait, la conception du système rend presque impossible de savoir ce que contient cette base de données si vous ne faites pas confiance à Apple ».

Dans le cadre de cette mise à jour, l’application Messages d’Apple utilisera également « l’apprentissage automatique sur l’appareil pour analyser les pièces jointes et déterminer si une photo est sexuellement explicite » pour les mineurs dont les appareils utilisent des fonctions de contrôle parental.

L’application interviendra si l’équipe pense que l’enfant peut envoyer ou recevoir une image ou une vidéo montrant « des parties du corps privées couvertes par des maillots de bain », selon les diapositives fournies par Apple. « Lorsqu’un enfant reçoit ce type de contenu, la photo sera floutée et l’enfant sera averti, on lui présentera des ressources utiles et on le rassurera en lui disant que ce n’est pas grave s’il ne veut pas voir cette photo », a indiqué Apple dans un communiqué.

En outre, à titre de précaution supplémentaire, on peut également dire à l’enfant que, pour s’assurer qu’il est en sécurité, ses parents recevront un message s’ils le voient. « Des protections similaires sont en place si un enfant tente d’envoyer des photos sexuellement explicites. L’enfant sera averti avant d’envoyer la photo et les parents pourront recevoir un message si l’enfant décide de l’envoyer. »

Si cet article a captivé votre intérêt, vous trouverez certainement les prochains tout aussi passionnants. Assurez-vous de ne rien manquer en vous abonnant à linformatique.org sur Google News. Suivez-nous aussi sur Facebook et Twitter.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page