(Bruxelles) Protection de l’enfance contre protection de la vie privée : les États de l’UE sont apparus jeudi divisés sur un règlement destiné à lutter contre la diffusion d’images et vidéos à caractère pédocriminel, qui pourrait encore faire l’objet de longs pourparlers.

Présenté en mai 2022 par la Commission européenne, ce projet législatif vise à contrer la prolifération d’images et vidéos d’abus sexuels sur des enfants, et la sollicitation d’enfants par des pédocriminels, en obligeant les plateformes et services de messagerie en ligne à détecter puis signaler de tels contenus.

Après un débat des ministres de l’Intérieur mi-juin, les ambassadeurs des Vingt-Sept ont constaté jeudi lors d’une réunion à Bruxelles une absence persistante de consensus.

À l’unisson des gendarmes européens de la protection des données, certains États, dont l’Allemagne, redoutent une atteinte « disproportionnée » au respect de la vie privée, s’alarmant de la fin de la confidentialité des correspondances, y compris sur des messageries chiffrées (Signal, Telegram, WhatsApp…). De possibles erreurs liées à l’intelligence artificielle inquiètent également.

« Il est apparu que la majorité qualifiée requise ne serait tout simplement pas atteinte », selon une source diplomatique belge, dont le pays assure jusqu’à fin juin la présidence du Conseil de l’UE.

« Le point a été retiré de l’ordre du jour et les consultations se poursuivront sereinement », a-t-elle poursuivi, soulignant que le texte restait « une priorité élevée ».

La Hongrie, qui occupera à partir du 1er juillet la présidence tournante de l’UE, sera chargée de reprendre les travaux afin d’arriver à une position commune des États membres sur le texte, avant d’entamer des pourparlers avec le Parlement européen pour le finaliser.

Actuellement, la détection des contenus pédocriminels par les plateformes se fait sur une base volontaire, ce qui s’avère largement insuffisant étant donné l’ampleur du problème, estime l’UE.  

La proposition contraindrait les fournisseurs de services de communication à prendre des mesures préventives afin d’éviter la diffusion de photos ou vidéos à caractère pédocriminel, et en cas de risque important, une autorité judiciaire ou administrative indépendante pourrait émettre une injonction de détection.

Le fournisseur aurait alors l’obligation d’analyser automatiquement le contenu des communications via ce service.

En novembre, le Parlement européen a amendé la proposition pour limiter la portée de ces injonctions de surveillance aux utilisateurs soupçonnés de tels agissements, et en excluant les communications chiffrées de bout en bout de ces obligations de détection.

Selon la Commission, le groupe Meta a détecté en 2022 sur Messenger et Instagram plus de 6,6  millions d’images ou vidéos relatives à des abus sexuels sur des enfants impliquant un utilisateur dans l’UE, et X a fermé 2,3 millions de comptes d’utilisateurs en lien avec l’exploitation sexuelle d’enfants.