Une enquête indique que TikTok héberge des comptes qui sexualisent des mineurs et servent de pont vers la pédopornographie

TikTok dispose d'un écosystème de comptes qui réutilisent le contenu de vraies filles, génèrent des images avec l'intelligence artificielle (IA) et incitent les utilisateurs à acheter de la vraie pédopornographie et même du matériel synthétique sexualisé, selon une enquête journalistique.

La série de sept rapports publiés par putain.es documente 40 comptes actifs qui cumulent plus de 1,5 million de followers et plus de 8 800 vidéos : 5 200 créées avec l’IA et 3 600 prises sur de vrais mineurs sans leur consentement. Selon les médias espagnols, ce contenu non seulement reste en ligne malgré une violation ouverte des règles de TikTok, mais sert également de pont direct vers les chaînes Telegram où sont commercialisés les abus sexuels sur de vraies mineures.

L’enquête montre que TikTok, l’une des plateformes les plus populaires auprès des enfants et des adolescents, concentre les comptes qui sexualisent les mineurs avec des vidéos générées avec l’IA. Les protagonistes apparaissent généralement en bikini, en uniforme scolaire ou en vêtements moulants, et les vidéos sont inondées de commentaires sexuellement explicites de la part d'utilisateurs adultes.

Une personne utilise TikTok

Dans plusieurs cas, les profils qualifient leur contenu de « généré par l’IA », bien qu’ils omettent les filigranes ou les détails sur les outils utilisés. Dans certaines vidéos, les marques de TikTok AI Alive et Sora, l'outil de création vidéo d'OpenAI, sont identifiées. putain.es souligne que ces comptes violent ouvertement l'interdiction de TikTok d'autoriser « des représentations sexualisées, fétichisées ou victimisantes » de mineurs, même lorsqu'il s'agit d'images de synthèse. Néanmoins, sur les 15 comptes rapportés par l'équipe journalistique, 14 sont restés actifs trois jours après les reportages.

Parallèlement, les rapports révèlent une deuxième pratique : la réédition massive de vidéos créées par de vrais mineurs. Dans 20 comptes, putain.es a documenté plus d'un million de followers et sept millions de « j'aime » sur des vidéos que les filles et les adolescentes ont initialement publiées sur leurs propres profils. Dans de nombreux cas, les vidéos conservent le filigrane avec le nom du mineur, ce qui permet aux utilisateurs adultes de localiser plus facilement leurs comptes d'origine.

Ces profils, dont beaucoup sont étiquetés « écolières », accumulent des centaines de commentaires sexualisés, de demandes de contact et de liens vers des chaînes Telegram où sont proposés des forfaits pédopornographiques. Les experts consultés par putain.es Ils expliquent que cette pratique viole le droit à l'image, le règlement général sur la protection des données et expose les filles à des risques tels que le toilettage et le harcèlement.

L'icône de l'application

Le rapport documente également un modèle de monétisation sur et hors de la plateforme. Au moins 13 comptes utilisent le système d'abonnement de TikTok, qui leur permet de facturer entre 3,49 et 115,99 euros par mois, pour proposer des contenus exclusifs sexualisant les mineurs, dont la plateforme obtient jusqu'à 50 % des revenus.

Ces mêmes comptes proposent à leurs abonnés la demande de vidéos personnalisées, l'interaction via des messages directs et l'accès à des « salons privés ». D’autres redirigent vers des pages externes où sont vendus des packages d’images et de vidéos sexualisées générées avec l’IA, à des prix compris entre 4,95 et 149,99 euros. Dans ces sites, prévient l'enquête, plusieurs des supposés « modèles adultes » présentent des traits enfantins.

Outre le circuit de monétisation, les rapports détaillent comment ce contenu fonctionne comme une passerelle vers des réseaux criminels qui distribuent de véritables contenus abusifs. putain.es a identifié 12 chaînes Telegram qui commercialisent de la pédopornographie et a reçu des preuves directes de sept d'entre elles, qui ont envoyé des images de vrais mineurs. L'équipe journalistique a rapporté ces découvertes à la police nationale espagnole.

PHOTO DE FICHIER : Dans ce

La plateforme, selon les experts en droit du numérique cités par putain.esest tenu par la loi sur les services numériques de l'Union européenne d'évaluer les risques de ses systèmes pour les mineurs et de supprimer les contenus illégaux lorsqu'il en a effectivement connaissance. Toutefois, les résultats montrent un écart entre la réglementation et une réelle modération. Même si TikTok prétend interdire la sexualisation des mineurs, limiter la réutilisation non autorisée des contenus et bloquer les profils qui utilisent l’IA pour créer des représentations sexualisées, l’enquête montre une persistance systématique de ces matériels et une inaction face aux plaintes vérifiées.

TikTok non seulement héberge ce contenu, mais son algorithme contribue à l'amplifier : il recommande des vidéos similaires à ceux qui interagissent avec ce type de publication, permettant ainsi aux utilisateurs ayant des modèles d'intérêt sexuel envers les mineurs d'accéder plus facilement à davantage de matériel et de réseaux d'abus en dehors de la plateforme.