Les algorithmes d'Instagram facilitent la vente de pédopornographie
Des chercheurs estiment que la plateforme de Meta est la principale utilisée par les réseaux pédocriminels pour vendre des contenus montrant des abus sexuels sur des mineurs.
Instagram, filiale de Meta, est la principale plateforme utilisée par des réseaux pédocriminels pour promouvoir et vendre des contenus montrant des abus sexuels sur des mineurs, selon un rapport de l'université de Stanford et du Wall Street Journal (WSJ).
«De larges réseaux de comptes, qui donnent l'apparence d'être opérés par des mineurs, promeuvent ouvertement la vente de contenus» pédopornographiques, ont indiqué mercredi des chercheurs du Cyber Policy Center de la prestigieuse université de la Silicon Valley. «Instagram est actuellement la plus importante plateforme pour ces réseaux grâce à des fonctionnalités telles que les algorithmes de recommandation de contenus et la messagerie qui aide les vendeurs à entrer en contact avec les acheteurs», ont-ils ajouté.
Et ni les pédophiles ni ces réseaux n'ont besoin de faire preuve de beaucoup d'ingénuité. D'après le WSJ, une simple recherche avec des mots-clefs tels que #pedowhore («pedo putain») ou #preteensex («sexe pré-ado») débouche sur des comptes qui utilisent ces termes pour faire la publicité de contenus montrant des abus sexuels sur des mineurs. Souvent, ces profils «assurent être pilotés par les enfants eux-mêmes et utilisent des pseudonymes ouvertement sexuels avec des mots comme “petite salope pour toi”», détaille l'article.
Des vidéos avec de la bestialité et de l'automutilation
Les comptes ne disent pas directement qu'ils vendent ces images, mais ils comportent des menus avec des options, y compris celle de demander des actes sexuels spécifiques, dans certains cas. Les chercheurs de Stanford ont aussi repéré des offres pour des vidéos avec de la bestialité et de l'automutilation. «À un certain prix, les enfants sont disponibles pour des “rencontres” en personne», continue l'article. Le rapport souligne le rôle joué par les algorithmes du populaire réseau social: un compte test créé par le quotidien économique s'est vu «inondé de contenus qui sexualisent les enfants» après avoir cliqué sur quelques recommandations de ce genre.
Meta n'a pas immédiatement répondu à une sollicitation de l'AFP. D'après le WSJ, le géant des réseaux sociaux a reconnu qu'il y avait des problèmes au sein de ses services de sécurité et a dit avoir créé un «groupe de travail» pour régler le problème. En mars dernier, des fonds de pension et d'investissement ont porté plainte contre Meta pour avoir «fermé les yeux» sur le trafic d'être humains et la pédocriminalité sur ses plateformes. Instagram est aussi régulièrement accusé par des associations et autorités de ne pas suffisamment protéger les enfants face aux risques de harcèlement, d'addiction et de problèmes d'images de soi.
Source: Le Figaro