Après Reddit, Twitter et Facebook, c’est maintenant au tour de Google de se positionner officiellement contre la publication de photos intimes sans le consentement du sujet.
Au cours des prochaines semaines, Google va progressivement retirer de son moteur de recherche tout contenu associé au phénomène grandissant de la revenge porn, une pratique qui consiste à publier des photos ou vidéos intimes d’une personne sans son consentement, dans le but de l’humilier publiquement.
Il sera bientôt possible pour les victimes de remplir une demande de retrait des contenus les concernant.
«Notre philosophie concernant notre moteur de recherche a toujours été de faire en sorte qu’il soit un reflet du Web», explique Amit Singhal, vice-président en chef responsable du département de recherche web de Google. «Mais les images associées au phénomène de la revenge porn sont intensément personnelles, émotionnellement dommageables, et ne servent qu’à dégrader les victimes – en l’occurence majoritairement des femmes.»
En annonçant les intentions de son entreprise, Singhal explique qu’il sera bientôt possible pour les victimes de remplir une demande de retrait du référencement des contenus les concernant. Le formulaire en question doit être mis en ligne d’ici quelques semaines.
«Ainsi, à partir de maintenant, nous respecterons les demandes de retrait de nus ou d’images sexuellement explicites partagées sans le consentement d’une personne, qui sont affichées dans les résultats de recherche de Google. Il s’agit d’une politique étroite et limitée, semblable à la façon dont nous traitons les demandes de retrait pour d’autres renseignements personnels hautement sensibles, comme les numéros de compte bancaires et les signatures qui pourraient se retrouver dans nos résultats de recherche.»
«Nous savons que cette initiative ne parviendra pas à résoudre le problème de la revenge porn – nous ne sommes pas en mesure, bien entendu, de retirer ces images des sites mêmes où elles sont hébergées –, mais nous espérons que le fait d’honorer les demandes des victimes et de retirer ces images de nos résultats de recherche pourra au moins aider leur situation», conclut-il.