Les détails de Facebook abusent sur la plateforme - et AI ne signale pas tout cela

Facebook Inc. a publié mardi son premier rapport d’application des normes communautaires, détaillant ce que son algorithme et ses modérateurs humains ont détecté et supprimé d’octobre dernier à mars de cette année.

Le résultat : beaucoup.

Facebook a déclaré qu’il a supprimé 583 millions de faux comptes, dont la plupart ont été supprimés dans les minutes suivant la configuration. Quelque 837 millions de spams ont été retirés du site, bien que la société ait admis qu’au cours de cette période, 3 à 4% des comptes de la plateforme étaient encore falsifiés.

La légion de nouveaux modérateurs embauchés par Facebook coûterait des centaines de millions de dollars . Selon Guy Rosen, vice-président de la gestion des produits de Facebook, ces modérateurs ont joué un rôle essentiel car l’intelligence artificielle n’est pas encore capable de repérer un mauvais acteur.

Là où il échoue le plus est avec le discours de haine, Rosen a déclaré dans un post . Facebook a enregistré 2,5 millions de discours haineux au premier trimestre, dont 38% ont été signalés par Amnesty International. Il a ajouté que l’IA ne peut pas toujours se différencier de quelqu’un qui parle d’un problème pour sensibiliser quelqu’un à la promulgation de la haine.

« La technologie nécessite de grandes quantités de données de formation pour reconnaître des comportements significatifs, ce qui nous manque souvent dans les langues moins répandues ou dans les cas qui ne sont pas souvent signalés », a déclaré Rosen. C’est la même chose, ajoute-t-il, avec du porno, du spam, de faux comptes et de mauvais acteurs qui enfreignent sciemment les règles en changeant continuellement de tactique pour dépasser la technologie.

Environ 21 millions de nudités d’adultes et d’activités sexuelles ont également été enlevés, et 96% de ceux-ci ont été signalés par la technologie. Le rapport indiquait que sur 10 000 messages consultés, quelque part entre sept et neuf affichages tomberaient dans cette catégorie.

La suppression de la violence graphique a également été un succès, avec Facebook soit en train de retirer ou de donner un avertissement à 3,5 millions de morceaux de contenu. 86% de ces postes ont été supprimés par la technologie avant que quiconque ne le signale.

On pense que d’ici la fin de l’année, environ 20 000 employés travailleront sur son équipe de modérateurs humains, un nombre sans précédent pour l’entreprise. En avril, Rosen a souligné l’importance d’avoir des yeux humains sur les postes.

Facebook ne veut pas « étouffer le discours et l’échange d’idées potentiellement productif », a déclaré Rosen. En outre, le site ne veut pas sembler oppressif en ce qui concerne certaines formes de nudité ou de discussion sur l’identité, la race, la religion et la sexualité, donc les humains sont encore très nécessaires pour séparer les purement destructeurs ou obscènes des bien intentionnés.

Dans la même rubrique

| 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | ... | 23 |

Actu en image