Un groupe de chercheurs d’une université renommée de Londres a affirmé que ce n’était pas grave de tromper la technologie inférieure utilisée par Apple. Les rapports de l’Imperial College de Londres prouvent que les scanners utilisés par Apple pour les images illégales peuvent fonctionner partout ailleurs que là où cela est nécessaire. Pour renforcer la sécurité, les entreprises et les gouvernements conseillent et préfèrent utiliser des scanners intégrés capables de détecter le contenu faisant la promotion de matériel pédopornographique (CSAM). Le résultat de la recherche questionne le fonctionnement des scanners des entreprises géantes : mettre en jeu sa réputation.
Les algorithmes intégrés détectent intelligemment le contenu illégal en passant au crible les images d’un appareil et en les comparant à celles du contenu illégal. Si l’image correspond à celle d’un contenu illégal, l’appareil le signalera immédiatement à la société à l’origine de l’algorithme.
(CSAM) L’abus sexuel d’enfants était un projet proposé par Apple plus tôt cette année, après avoir fait face à des réactions négatives et à des commentaires controversés retirés en septembre. Abandonnant le choix d’accepter (CSAM) comme un échec, l’entreprise a reporté son déploiement à l’année prochaine. Non seulement cela, mais il a également promis des améliorations visibles et transparentes vers le développement.
Les chercheurs de génie de l’Imperial College de Londres, quelques heures après la publication de GitHub, ont réussi à produire un faux positif délibéré, connu sous le nom de collision. Les scientifiques débattent du fait que l’analyse perceptive basée sur le hachage côté client (PH-CSS) n’est pas assez efficace pour détecter systématiquement le contenu illégitime sur les appareils personnels.
L’auteur principal du département de l’Imperial’s Computing and Data Science Institute a expliqué qu’il était facile pour nous d’induire l’algorithme en erreur. Le Dr Yves-Alexandre de Montjoye a poursuivi en disant qu’un filtre spécialement conçu était appliqué, imperceptible à l’œil humain. En conséquence, l’algorithme a mal compris les deux images presque identiques et similaires comme étant différentes. Selon l’aîné, la génération de divers filtres les a aidés à rendre difficile la détection par Apple. Il a également remis en question la robustesse des contre-mesures d’Apple.
Répondant à toutes les allégations, Apple s’est montré confiant : a déclaré qu’il disposait de deux protections contre cela. La société a effectivement informé la carte mère que l’algorithme était la prémisse de son système, cependant, ce n’est pas ainsi que la version finale fonctionnerait et ce n’est pas un secret. Dans un e-mail à Motherboard, Apple a précisé que la version utilisée par les utilisateurs sur GitHub est une version générique et ne sera pas utilisée pour détecter iCloud Photos CSAM. L’un des documents fournis par Apple indique qu’il a rendu l’algorithme public et qu’il fonctionne comme décrit. Aussi pour le réconfort de leur cœur, les chercheurs peuvent le vérifier.
Créateur : LOIC VENANCE | Crédit : AFP via Getty Images
H/T : 9à5M.
Lire la suite : Apple a publié un nouveau rapport de transparence pour la seconde moitié de 2020
.
— to www.digitalinformationworld.com