Le moyen contre-intuitif de Facebook pour combattre la pornographie non consensuelle

En novembre 2017, Facebook a trouvé un moyen de nous aider à ne pas partager nos photos nues sans notre consentement.

Cela a semblé fou : pour nous sauver de la vengeance / du porno non consensuel, Facebook voulait que nous envoyions nos photos nues.

Mais cela avait du sens : Facebook créerait des hachages de nos images nues, tout comme les forces de l’ordre utilisent des hachages d’images d’abus d’enfants connus.

Facebook a promis de ne pas stocker les nus mais utiliserait la technologie de photo-appariement pour marquer les images après leur envoi. Ensuite, si quelqu’un essayait de télécharger cette même image, qui aurait la même empreinte numérique ou le même hash valeur, il serait stoppé net dans ses traces avant d’être téléchargé.

Les gens peuvent déjà signaler des images intimes qui ont été partagées sans leur consentement. Ces images sont supprimées et Facebook crée le hachage afin que ses systèmes puissent automatiquement reconnaître une image et la bloquer si quelqu’un essaie de publier à nouveau l’image.

Mais Facebook dit qu’il peut faire plus pour garder les nus d’être partagés sur ses services en premier lieu.

Mardi, Facebook Responsable mondial de la sécurité Antigone Davis a annoncé que cette semaine, l’ essai d’ un outil proactif de rapports de Facebook, en partenariat avec un groupe de travail international des organisations de sécurité, les survivants et les défenseurs des victimes, y compris l’Australian Bureau du commissaire eSafety , le Cyber L’Initiative des droits civiques et le Réseau national pour mettre fin à la violence familiale (NNEDV) aux États-Unis, la ligne d’aide téléphonique contre la pornographie britannique Revenge et YWCA Canada .

Le programme pilote a été lancé en Australie. Maintenant, il va également être testé au Royaume-Uni, aux États-Unis et au Canada.

Le travail de Facebook sur le projet a inclus Davis et son équipe voyageant dans neuf pays sur quatre continents, du Kenya à la Suède, en écoutant des histoires sur les abus et la cruauté auxquels les femmes sont confrontées en ligne. Alors que les gens de tous les genres, âges et orientations sexuelles sont ciblés, Davis note que les femmes sont presque deux fois plus susceptibles d’être ciblées avec des pornos non consensuels / de la vengeance que les hommes.

De son poste public :

De l’anxiété et la dépression à la perte d’une relation personnelle ou d’un emploi, cette violation de la vie privée peut être dévastatrice.

Le projet de hachage photo est un travail en cours, mais voici comment cela fonctionne maintenant :

  1. Contactez l’un des partenaires de Facebook pour soumettre un formulaire : voir les liens ci-dessus.
  2. Vous recevrez ensuite un e-mail contenant ce que Facebook dit être un lien de téléchargement unique et sécurisé.
  3. Utilisez le lien pour télécharger des images que vous craignez d’être partagées.
  4. Un humain « spécialement formé » - un seul, dit Facebook - de son équipe de sécurité des opérations communautaires examinera l’image pour s’assurer qu’elle viole la politique de Facebook contre la nudité et la sexualité. Si c’est le cas, ils créeront un hachage qui permettra à la plate-forme d’identifier les futurs téléchargements de l’image (s) sans en garder des copies sur ses serveurs.
  5. Facebook informera alors les victimes par courrier électronique et supprimera les images de ses serveurs "au plus tard" dans un délai d’une semaine.
  6. Facebook stockera les hachages de sorte que chaque fois que quelqu’un essaie de télécharger une image avec le même hachage, il sera bloqué sur ses services - qui comprend Facebook, Instagram ou Messenger.

Certes, au départ, vous devez remettre la photo en question afin de créer le hachage. Mais après cela, le hash sera en mesure d’aider la plateforme en ligne à répondre plus ou moins instantanément à la question "Est-ce que je connais cette photo ?" - et à bloquer son repositionnement - sans que vous ayez à renvoyer la photo.

Le pilote australien initial a soulevé des questions que Facebook a essayé depuis de s’attaquer. Par exemple, qu’en est-il des faux rapports ? Quelles garanties sont en place pour s’assurer que les gens ne peuvent pas prendre n’importe quelle vieille photo qu’ils veulent - une photo publicitaire non pornographique, par exemple - et l’envoyer, sous le faux prétexte que c’est un nu et que c’est une photo qu’ils ont eux-mêmes les droits d’avoir expurgé de la circulation des médias sociaux ?

Alex Stamos, le responsable de la sécurité de Facebook, a tweeté en novembre, c’est pourquoi nous devons faire confiance aux humains dont les yeux vont revoir les photos ... et pourquoi ces photos ne seront pas floues :

En reconnaissance de ce risque, nous avons pris les mesures que nous pouvons pour protéger ces données et pour ne garder que les réversibles ...

Avez-vous confiance en Facebook avec un contenu aussi sensible que celui-ci ? Son dossier sur la confidentialité n’est pas bon, mais son dossier sur la sécurité est .

Je suis enclin à penser que c’est un bon pas, en tout cas. Hashing est un outil important dans la bataille pour mettre hors ligne les images d’abus d’enfants, et il est logique de l’appliquer dans la bataille contre la vengeance pornographique.

Une introduction au hachage d’image

Voici comment cela fonctionne : Un hachage est créé en alimentant une photo en une fonction de hachage. Ce qui sort de l’autre extrémité est une empreinte numérique qui ressemble à un petit brouillis de lettres et de chiffres. Vous ne pouvez pas retourner le hachage sur la photo, mais la même photo ou des copies identiques créeront toujours le même hachage.

Depuis 2008, le Centre national pour les enfants disparus et exploités (NCMEC) a mis à disposition une liste de valeurs de hachage pour les images connues d’abus sexuels d’enfants, fournies par les FAI, permettant aux entreprises de vérifier de gros volumes de conserver des copies des images offensantes.

À un moment donné, Microsoft a fait don de sa technologie PhotoDNA à cet effort. Facebook utilise probablement sa propre technologie sophistiquée de reconnaissance d’images pour le projet nude-images, mais il est instructif de voir comment fonctionne PhotoDNA.

PhotoDNA crée une signature unique pour une image en la convertissant en noir et blanc, en la redimensionnant et en la décomposant en une grille. Dans chaque cellule de la grille, la technologie trouve un histogramme des gradients d’intensité ou des bords à partir desquels elle dérive son soi-disant ADN. Les images avec un ADN similaire peuvent ensuite être appariées.

Étant donné que la quantité de données dans l’ADN est faible, de grandes séries de données peuvent être scannées rapidement, permettant à des entreprises comme Microsoft , Google , Verizon , Twitter, Facebook et Yahoo de trouver des aiguilles dans des meules de foin. Cela fonctionne même si les images ont été redimensionnées ou rognées.

Davis dit que le hachage de photos n’est qu’une étape "pour aider les gens qui craignent une image intime seront partagés sans leur consentement."

Nous sommes impatients d’apprendre de ce projet pilote et d’améliorer davantage nos outils pour les personnes dans des situations dévastatrices comme celles-ci.

Dans la même rubrique

| 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | ... | 34 |

Actu en image