La Loi SREN et son impact sur les plateformes numériques

La loi SREN (Sécurité et Régulation des Espaces Numériques) représente une avancée législative majeure dans la régulation des plateformes numériques en France. Elle adapte notamment le droit français pour que puissent s'appliquer le règlement sur les services numériques (Digital Services Act - DSA) et le règlement sur les marchés numériques (Digital Markets Act - DMA). Ces deux textes européens imposent aux géants du numérique de nouvelles obligations. La loi SREN adapte le droit français en conséquence et désigne les différentes autorités de contrôle chargées, en France, de faire appliquer ces règlements.

La loi vise à renforcer la sécurité des utilisateurs en ligne, à combattre les contenus illicites et à instaurer une transparence accrue des pratiques des grandes plateformes numériques. 

Contexte et objectifs de la loi SREN

Face à l’augmentation des contenus préjudiciables en ligne, tels que la désinformation, les discours haineux et les arnaques, la loi a pour objectif de sécuriser l’espace numérique et s’inscrit dans cette démarche en imposant de nouvelles obligations aux plateformes en ligne, notamment les réseaux sociaux, les moteurs de recherche et les places de marché en ligne.

Les principaux objectifs de la loi sont :

  1. renforcer la sécurité des utilisateurs : en obligeant les plateformes à mettre en place des mesures de modération plus strictes,
  2. accroître la transparence : en exigeant des plateformes qu'elles publient des rapports détaillés sur leurs pratiques de modération et sur la gestion des contenus,
  3. lutter contre les contenus illicites : en imposant des délais plus courts pour la suppression des contenus illicites signalés.

Principales dispositions de la Loi SREN pour les plateformes

1. Obligations de modération

Les plateformes numériques sont désormais tenues de mettre en place des systèmes de modération efficaces pour détecter et supprimer les contenus illicites. Cela inclut des contenus tels que la haine en ligne, la pédopornographie, le terrorisme et les arnaques. Les grandes plateformes doivent également recruter et former du personnel dédié à la modération.

2. Rapports de transparence

Les plateformes doivent publier des rapports trimestriels détaillant leurs efforts de modération, le nombre de contenus supprimés, les critères de modération utilisés et les actions prises contre les utilisateurs récidivistes. Ces rapports doivent être accessibles au public, permettant ainsi une meilleure compréhension et évaluation des pratiques des plateformes.

Cela doit s’articuler avec les dispositions du DSA qui prévoient que les plateformes doivent s’assurer de l’identification des vendeurs qui ont recours à leur plateforme, et de la complétude des informations précontractuelles relatives aux produits mis en vente. Il s’agit par exemple du prix, des délais de livraison ou d’exécution d’un service, des modalités de paiement ou des informations en matière d’étiquetage ou de marque. Elles ont notamment des obligations en matière de loyauté, avec l’interdiction d’utiliser des « dark patterns » (techniques manipulatoires numériques).

3. Délai de réaction

Pour certains types de contenus illicites, les plateformes ont désormais l'obligation de les supprimer dans un délai de 24 heures après leur signalement. Pour les contenus terroristes, ce délai est réduit à une heure. Le non-respect de ces délais peut entraîner des amendes sévères.

Cela devra également s’articuler avec le DSA prévoyant que les plateformes de vente en ligne doivent procéder à des contrôles aléatoires automatisés sur les annonces pour vérifier qu’elles ne correspondent pas à des produits déjà signalés comme illicites. Elles doivent également, quand un produit non conforme ou dangereux leur est signalé, en informer tous les consommateurs ayant acheté ce produit dans les six derniers mois.

4. Coordination avec les Autorités

La loi SREN encourage la coopération entre les plateformes numériques et les autorités judiciaires et administratives. Les plateformes doivent signaler les contenus illicites graves aux autorités compétentes et fournir les informations nécessaires à l’identification des auteurs de tels contenus.

En complément, le DSA prévoient que les très grandes plateformes (plus de 45 millions d’utilisateurs actifs dans l’UE) se voient imposer des obligations renforcées : atténuation des risques systémiques posés par leurs plateformes, audit indépendant, ou encore accessibilité pendant un an à l’intégralité des publicités diffusées, afin de permettre leur analyse.

Sanctions 

La DGCCRF est chargée de veiller à la mise en œuvre du règlement par les places de marché établies en France.

Les sanctions prévues par la loi sont un emprisonnement de deux ans et une amende pouvant aller jusqu’à 6 % du chiffre d’affaires mondial. 

La DGCCRF veillera à la bonne mise en œuvre de ces dispositions issues du DSA en France, en coopération étroite avec l’ARCOM et la CNIL, qui sont également désignées autorités de contrôle dans leur domaine de compétence, avec un rôle de coordination pour l’ARCOM. Une coordination forte sera également réalisée avec la Commission européenne et les autres États membres, qui sont chargés respectivement du contrôle des très grandes plateformes et des plateformes établies hors de France (mais qui peuvent s’adresser au marché français) pour s’assurer d’une application homogène des textes au niveau européen.

 

Points de vue

Voir plus

Panorama des réformes de l'assurance : où en sommes-nous ?

juin 25 2024

En savoir plus

Bird & Bird France publie la 4è édition de son Baromètre Infrastructure sur l’activité des fonds infra en 2023

juin 24 2024

En savoir plus

Evaluation de l'impact de la loi AGEC sur le secteur de la santé

juin 21 2024

En savoir plus