La difficile chasse aux deepfakes sexuels

qant.tech_a_dark_robot_is_drawing_a_beautiful_human_face_on_a_c_fd0fefa9-0eea-4469-a574-be873089bcd6

Alors que les cas d’images à caractère sexuel générées par IA se multiplient – représentant notamment des enfants –, le gouvernement britannique et Meta tentent de combattre le phénomène.

Le Centre national pour les enfants disparus et exploités (NCMEC), une ONG basée aux États-Unis, vient de publier son rapport annuel. Il signale l’apparition d’une nouvelle forme d’extorsion : l'utilisation de l'intelligence artificielle pour générer des images et des vidéos à caractère sexuel concernant des enfants, à des fins de chantage. Une goutte dans l’océan : moins de 5 000 signalements, contre 36 millions au total en 2023, en hausse de 12 %. Mais la disponibilité générale d’outils d’IA générative de plus en plus perfectionnés semble destinée à faire augmenter, non seulement le nombre d’images pédophiles en général, mais aussi celle représentant un véritable enfant, qu’on essaie ensuite de faire chanter.

Dans de nombreux pays, la création de deepfakes sexuels impliquant des enfants est un crime. En Grande-Bretagne, le gouvernement vient de proposer de nouvelles dispositions pour étendre cette protection aux adultes. D’ici à l’été, la création de deepfakes sexuellement explicites sans le consentement des adultes concernés ressortira du droit pénal. Selon le ministère de la Justice britannique, le projet de loi implique que même la production seule de telles images, sans intention de les diffuser, constituerait un délit pénal.

Le sourcilleux Conseil de Meta

Les enfants ne sont pas les seules victimes de ces nouvelles pratiques. Cette semaine, le Conseil de surveillance éthique de Meta, un organe extérieur composé de personnalités internationales, s'est attaqué à la diffusion sur ses plateformes d’images pornographiques de figures publiques, essentiellement des femmes. Cette forme de harcèlement en ligne devient de plus en plus préoccupante, selon l'Oversight Board.

Le Conseil examine deux cas impliquant des images générées par IA. Sur Facebook, dans un groupe dédié à l'art par IA, une image représentait nue une figure publique américaine (dont le nom n’a pas été donné), avec un homme lui touchant la poitrine. Cette publication a été automatiquement supprimée par les systèmes internes de Meta après avoir été signalée par un utilisateur. En revanche, la publication sur Instagram d’une image générée par IA montrant une célébrité indienne dans le plus simple appareil n’a pas été sanctionnée immédiatement. La plainte initiale n'a pas été examinée dans les 48 heures et a été clôturée. Ce n'est qu'après un appel auprès du Conseil de Surveillance que Meta a retiré la publication.

Chasser les disparités de traitement… et les deepfakes

Le Conseil de Surveillance jugera dans les prochaines semaines si Meta protège équitablement toutes les femmes à l'échelle mondiale, ou si ces deux cas montrent d’éventuelles disparités dans l'application des politiques de Meta. En début d’année, un de ses jugements concernant une vidéo de Joe Biden éditée de manière trompeuse, a conduit Meta à renforcer les contrôles sur le contenu généré par IA sur sa plateforme (lire Qant du 7 février).

Une consultation est ouverte.

Pour en savoir plus :

L’essentiel