Loi sur la sécurité en ligne de 2023 et DSA de l'UE : ce qu'il faut savoir

Loi de 2023 sur la sécurité en ligne et loi de l'UE sur les services numériques : quelle est la différence en matière de vérification de l'âge ?

TL;DR : La loi britannique sur la sécurité en ligne de 2023 et la loi européenne sur les services numériques posent désormais un problème. défi sérieux aux entreprises en manque de multicouche vérification de l'âge. La conformité aux lois sur les services numériques et sur la sécurité en ligne vise à protéger les enfants de contenus nuisibles et illicites, ils ont tous deux différences clés qui sont essentiels pour que les entreprises puissent maintenir leur conformité. 

Comment la loi sur la sécurité en ligne et la loi sur la sécurité numérique protègent les utilisateurs

Avec l'évolution rapide des marchés numériques, il devient de plus en plus nécessaire de protéger les utilisateurs contre les contenus préjudiciables et les activités illégales en ligne. La loi de 2023 sur la sécurité en ligne et la Loi sur les services numériques sont deux réglementations historiques conçues pour créer de nouvelles règles et un environnement plus sûr sur les plateformes, les médias sociaux et les services numériques qui permettent aux utilisateurs de publier du contenu en ligne.

le OSA met l'accent sur la protection des droits fondamentaux des enfants. En exigeant des plateformes en ligne qu'elles luttent proactivement contre les activités préjudiciables et en mettant en place des outils de vérification de l'âge, la conformité à la loi sur la sécurité en ligne privilégie la suppression des contenus illégaux et offre aux utilisateurs un plus grand contrôle sur les contenus auxquels ils accèdent. La conformité à la loi sur la sécurité en ligne introduit également des poursuites pénales pour lutter contre les abus et les pratiques dangereuses en ligne.

En revanche, la DSA concerne toutes les plateformes en ligne opérant au sein de l'Union européenne, y compris les très grandes plateformes en ligne (TGE) et les grands moteurs de recherche. La DSA fixe des règles pour ces plateformes numériques, les obligeant à publier des rapports annuels contenant des informations sur la sécurité en ligne. Elles doivent divulguer le fonctionnement de leurs algorithmes et fournir des explications sur les décisions de suppression de contenu.

Réglementation sur la vérification de l'âge en Europe selon la loi sur la sécurité en ligne de 2023 par rapport à la loi sur les services numériques de l'UE pour la conformité à la loi sur la sécurité en ligne

En exigeant des plateformes un contrôle plus strict de la publicité ciblée et en les obligeant à prendre des mesures contre les contenus illicites, elles ciblent les plateformes en ligne qui mettent en avant des abus sexuels sur mineurs, des images intimes abusives et l'usage de substances nocives. L'OSA et la DSA exigent toutes deux des plateformes qu'elles prennent des mesures proactives pour protéger les utilisateurs et prévenir la diffusion de contenus illicites.

L’estimation de l’âge, la vérification et la vérification par couches ne sont plus facultatives.

Les services de médias sociaux et les plateformes de partage de vidéos, ainsi que les forums, le stockage cloud de fichiers grand public et les sites de partage sont concernés par ces réglementations. Elles visent à garantir que les entreprises interviennent rapidement pour supprimer les contenus dangereux tels que la pornographie en ligne, les drogues illicites et les contenus incitant à l'automutilation, afin de permettre aux utilisateurs de mieux contrôler leur expérience en ligne.

Portée et compétence de la loi de 2023 sur la sécurité en ligne et de la loi sur les services numériques

La loi sur la sécurité en ligne et la loi sur les services numériques abordent la réglementation différemment. sécurité en ligne et vérification de l'âgeCes deux critères s'appliquent aux services de messagerie instantanée en ligne, aux réseaux sociaux et aux forums en ligne qui permettent la création de contenu par les utilisateurs, quelle que soit la localisation géographique du fournisseur. Le critère clé réside dans le fait que le service cible les utilisateurs du Royaume-Uni ou de l'Union européenne.

Les entreprises exploitant des services numériques peuvent être soumises aux deux cadres réglementaires, même si elles sont basées hors de ces régions. Les services concernés comprennent un nombre important de services de recherche, de plateformes de médias sociaux, de services de partage de vidéos, d'outils de partage de fichiers, de messagerie et de forums en ligne, de services de rencontres, de moteurs de recherche et de fournisseurs d'hébergement cloud.

Alors que l'OSA applique un modèle de conformité basé sur des règles et centré sur le Royaume-Uni, la DSA adopte une approche à plusieurs niveaux, Approche fondée sur le risque Adapté à l'échelle et aux fonctionnalités de la plateforme. Malgré ces différences, les deux cadres s'appliquent aux services numériques qui autorisent le contenu utilisateur au Royaume-Uni ou dans l'UE, ou qui ciblent ces pays. Par conséquent, la conformité est requise quel que soit le siège social de l'entreprise.

Obligations de vérification de l'âge pour les plateformes en ligne avec la loi de 2023 sur la sécurité en ligne et la loi sur les services numériques

La loi sur la sécurité en ligne de 2023 (OSA) exige que les plateformes mettent en œuvre des mesures « hautement efficaces » mécanismes de vérification de l'âge, notamment pour la pornographie et les contenus susceptibles de nuire aux mineurs. Cette obligation s'étend aux contenus légaux lorsqu'ils présentent des risques identifiables pour les enfants. La Loi sur les services aux mineurs impose aux plateformes d'établir et d'appliquer des restrictions d'âge claires afin d'empêcher l'accès des mineurs.

Les méthodes de vérification approuvées comprennent la vérification des pièces d'identité officielles, l'authentification biométrique, l'estimation de l'âge par reconnaissance faciale grâce à l'IA et les systèmes résistants aux tactiques de contournement telles que l'utilisation de VPN. Par exemple, si un utilisateur tente de masquer sa localisation via un VPN, ComplyCube peut détecter et signaler la session, déclenchant ainsi une alerte. vérification d'authentification biométrique, empêchant l'utilisateur de continuer jusqu'à ce qu'il ait vérifié son âge.

Loi britannique de 2023 sur la sécurité en ligne et loi européenne sur les services numériques

En revanche, la loi sur les services numériques (DSA) exige «approprié et proportionné” des mesures, offrant plus de flexibilité en fonction de la taille, de la portée et du profil de risque de la plateforme. Bien que moins prescriptive que l'OSA, la DSA oblige néanmoins les plateformes à démontrer l'efficacité de leurs processus de vérification de l'âge, notamment lorsque des mineurs peuvent être exposés à des contenus préjudiciables.

L'application réglementaire de la DSA exige une justification claire de la mise en œuvre concrète des mesures de protection. Malgré leurs différences, les deux lois partagent un objectif commun : protéger les enfants en ligne grâce à des limites d'âge applicables et à des normes de responsabilité claires. Pour en savoir plus sur la fraude à l'identité au Royaume-Uni, cliquez ici : Le prix de la fraude à l’identité au Royaume-Uni.

Obligations de transparence et de déclaration pour la loi de 2023 sur la sécurité en ligne et la loi sur les services numériques

La loi sur la sécurité en ligne de 2023 (OSA) et la loi sur les services numériques (DSA) exigent toutes deux que les plateformes publient des rapports annuels de transparence, le premier étant attendu d'ici juillet 2025. Ces rapports doivent couvrir les demandes de retrait, les mesures de modération, les méthodes de vérification de l'âge et les efforts plus larges d'atténuation des risques.

Alors que la DSA se concentre sur la réduction des risques systémiques grâce à des obligations flexibles et fondées sur les risques, l'OSA impose une conformité opérationnelle plus stricte, alignée sur Approuvé par l'Ofcom normes. Ensemble, ces lois visent à renforcer la responsabilisation et à garantir la sécurité des enfants sur les plateformes numériques grâce à des divulgations régulières et vérifiables.

Contenu illégal et responsabilité de la plateforme pour la loi de 2023 sur la sécurité en ligne et la loi sur les services numériques

L'OSA exige des plateformes qu'elles luttent proactivement contre les contenus illicites et préjudiciables, en leur imposant des obligations spécifiques pour prévenir les atteintes à l'intégrité physique. La réglementation prévoit des amendes pouvant atteindre 101 TP6T de chiffre d'affaires mondial, des ordonnances de blocage en cas de violations répétées, une priorité donnée à la sécurité des enfants en réduisant les contenus à caractère autodestructeur et pédopornographique, et en encourageant ou en favorisant les actes d'automutilation graves.

Elle met en évidence ce qui est désormais considéré comme un contenu illégal et une infraction pénale. Des mesures d'application sont déclenchées en cas de risque matériel de préjudice grave pour les utilisateurs britanniques. La réglementation DSA prévoit des amendes pouvant aller jusqu'à 6% de chiffre d'affaires mondial, nécessite une gestion par les autorités nationales sous la supervision de la Commission européenne (CE) et se concentre sur les très grandes plateformes en ligne (VLOP) et la responsabilité algorithmique.

Étude de cas : TikTok soumis à la loi DSA (2024)

Aperçu

En février 2024, la Commission européenne a ouvert une enquête sur TikTok pour suspicion de violation de la loi sur les services numériques (DSA). L'enquête a ciblé des domaines clés, notamment la protection de l'enfance, la transparence publicitaire, l'accès aux données algorithmiques et la gestion des risques liés à la conception potentiellement addictive de la plateforme.

Une attention particulière a été portée à l'efficacité des systèmes de vérification de l'âge de TikTok et à leur capacité à protéger les mineurs contre les contenus dangereux. La structure de la plateforme et sa contribution aux comportements addictifs des utilisateurs ont également été étudiées.

Actions et réponses

L'enquête de la Commission européenne sur TikTok s'est concentrée sur trois points essentiels : les mécanismes de sécurité des enfants, la transparence des pratiques publicitaires et les politiques d'accès aux données de la plateforme. L'enquête portait principalement sur la conception algorithmique des systèmes de TikTok et leur rôle potentiel dans la promotion de comportements préjudiciables, notamment chez les mineurs. 

Résolution

En août 2024, la Commission de l'Union européenne a publié un communiqué de presse indiquant que TikTok acceptait supprimer la fonctionnalité de récompenses « TikTok Lite »Cette fonctionnalité avait été critiquée pour sa conception addictive, qui affectait l'expérience utilisateur des enfants. Cette affaire souligne que l'application de la DSA n'est pas purement réactive. Les régulateurs façonnent désormais la conception des plateformes et protègent les droits fondamentaux, notamment dans des domaines critiques comme l'engagement des jeunes et les risques algorithmiques.

Contrôles de la publicité et du profilage du contenu pour les enfants en ligne

La loi sur les services numériques (DSA) interdit explicitement le ciblage comportemental des mineurs, notamment la publicité basée sur le profilage et l'utilisation d'interfaces utilisateur à motifs cachés dans les systèmes de recommandation de contenu. Ces nouvelles règles visent à réduire les pratiques manipulatrices qui affectent de manière disproportionnée les enfants sur Internet.

Bien que la loi de 2023 sur la sécurité en ligne (OSA) ne régisse pas directement le ciblage publicitaire, elle impose de nouvelles obligations pour empêcher les enfants d'être confrontés à des contenus commerciaux préjudiciables, notamment sur les moteurs de recherche. Ensemble, ces cadres témoignent d'un durcissement de la réglementation concernant la responsabilité des plateformes numériques envers les jeunes utilisateurs.

Plus de contrôle grâce aux normes de mise en œuvre techniques et éthiques

Pour se conformer à la loi de 2023 sur la sécurité en ligne (OSA) et à la loi sur les services numériques (DSA), les plateformes sont tenues de minimiser la collecte de données conformément au RGPD, d'éviter de stocker des informations sensibles liées à l'âge et de garantir la transparence de leurs processus de vérification de l'âge. Elles doivent également mettre en place des mesures de protection contre les risques de réidentification et utiliser des méthodes d'intégration sécurisées, telles que SDK ou des modules sans code.

Comment complycube garantit la sécurité en ligne au Royaume-Uni (loi de 2023 sur la sécurité en ligne) et la loi sur les services numériques de l'UE

La plateforme ComplyCube prend en charge ces exigences grâce à la vérification sur l'appareil, à la détection biométrique de la vivacité, Lecture de la puce NFCet la reconnaissance multi-appareils, offrant à la fois une conformité prescriptive et une mise en œuvre adaptable à grande échelle.

Gouvernance, atténuation des risques et responsabilité des dirigeants

En vertu de la loi de 2023 sur la sécurité en ligne (OSA) et de la loi sur les services numériques (DSA), les plateformes sont tenues de procéder à des évaluations régulières des risques et d'atténuer activement tout risque matériel pour les utilisateurs, en particulier les enfants. Ces évaluations doivent tenir compte de l'exposition à des contenus tels que la pornographie, l'automutilation ou les troubles alimentaires, ainsi que des risques d'abus systémiques découlant des contenus générés par les utilisateurs.

De plus, les plateformes doivent évaluer l'impact de leurs systèmes de publicité et de recommandation sur les mineurs. L'OSA exige la nomination de responsables de la conformité et la tenue de registres prêts à être audités, tandis que la DSA impose des politiques rigoureuses de gouvernance du contenu et des audits internes pour les très grandes plateformes en ligne (TLE).

Comment OSA et DSA impactent les PME et les plateformes de niche

Il existe une idée fausse répandue selon laquelle les petites plateformes sont exemptées des obligations réglementaires. En réalité, la loi de 2023 sur la sécurité en ligne (OSA) s'applique en fonction de la nature du risque et de l'accessibilité du contenu, et non de la taille de la plateforme. Si la loi sur les services numériques (DSA) accorde un allègement procédural aux petites et moyennes entreprises (PME) de moins de 50 salariés ou dont le chiffre d'affaires annuel est inférieur à 10 millions d'euros, elle ne dispense pas de leurs responsabilités fondamentales. Toutes les plateformes, quelle que soit leur taille, sont tenues de mettre en œuvre des mesures de sécurité proportionnées si leurs services sont susceptibles d'être consultés par des enfants.

Intégration avec d'autres nouvelles règles de protection des données

Les exigences en matière de vérification de l'âge recoupent plusieurs cadres réglementaires clés. Règlement Général sur la Protection des Données (RGPD)Les plateformes doivent garantir la minimisation des données, établir une base légale pour le traitement et appliquer les principes de protection de la vie privée dès la conception. Le règlement eIDAS établit des normes d'assurance de l'identité numérique, particulièrement pertinentes pour les vérifications au sein de l'UE.

De plus, le Loi sur les marchés numériques soumet les plateformes de contrôle d'accès à un examen minutieux de leur conception, y compris les considérations liées à l'âge. La législation secondaire de l'OSA et de la DSA fournit les seuils et classifications détaillés nécessaires à la mise en œuvre de ces obligations pour les différents prestataires de services.

L'Ofcom enquête sur 34 sites Web pornographiques pour non-vérification de l'âge

Enquête sur le contenu prioritaire principal

Le 31 juillet 2025, l'Ofcom a lancé des enquêtes formelles contre quatre fournisseurs de services numériques exploitant au total 34 sites web pornographiques. Ces plateformes étaient soupçonnées d'avoir enfreint les exigences de l'OSA en ne mettant pas en œuvre les nouvelles règles. L'enquête de l'Ofcom a porté sur la question de savoir si les plateformes avaient adopté des systèmes de vérification de l'âge conformes à la norme légale de « hautement efficace ».

Sanctions potentielles en cas de non-conformité

Les résultats de ces enquêtes pourraient créer des précédents importants pour la réglementation future des plateformes similaires. Ces sanctions peuvent atteindre 18 millions de livres sterling ou 101 TP6T du chiffre d'affaires mondial admissible d'une plateforme, selon le montant le plus élevé. Dans les cas extrêmes, l'Ofcom peut également ordonner aux fournisseurs d'accès à Internet de bloquer l'accès aux plateformes contrevenantes au Royaume-Uni. 

Résultats et impacts

Bien que les décisions finales des enquêtes en cours soient toujours en attente, les premières données suggèrent que l'application de la loi OSA a déjà un impact mesurable. Les principales plateformes de contenu pour adultes ont enregistré une baisse substantielle de leur trafic, un rapport faisant état d'une baisse de 47% du nombre de visites au Royaume-Uni suite à la mise en œuvre de la nouvelle règle. Cette forte baisse témoigne de l'adoption active de systèmes de vérification de l'âge, volontairement ou sous la pression réglementaire. 

Adopter une stratégie de conformité unifiée

Pour se conformer à la fois à l'OSA et à la DSA, les entreprises doivent adopter une stratégie de conformité globale. Elles doivent investir dans des solutions dynamiques de gestion des risques capables de déclencher des flux de travail automatisés en fonction de la géolocalisation des utilisateurs ou du type de document. 

La rationalisation des cycles de test et d’itération devient plus efficace en s’associant à un fournisseur de vérification d'âge Avec des SDK et des API pour une intégration fluide. De plus, la surveillance de l'évolution des codes de bonnes pratiques permet aux organisations de mieux maîtriser l'évolution des réglementations. Pour en savoir plus, cliquez ici : Que sont les solutions de vérification d’identité ?

Points clés à retenir

  • La loi sur la sécurité en ligne impose des contrôles d'âge stricts et des protocoles de sécurité pour protéger les enfants.
  • La loi européenne sur les services numériques applique une approche proportionnée et basée sur le risque adaptée à la plateforme.
  • L'OSA du Royaume-Uni et le DSA de l'UE confère aux entreprises une plus grande responsabilité en matière de régulation du contenu.
  • Services de petite taille, y compris les startups, ne sont pas exemptés de l’examen en vertu de la LSAO et de la LSD.
  • Les plateformes doivent adopter une assurance éthique de l'âge qui reconnaissent les droits fondamentaux, la conception préservant la confidentialité et les outils de conformité unifiés.

Renforcer la conformité aux réglementations sur la vérification de l'âge dans le monde entier

La convergence de la loi de 2023 sur la sécurité en ligne (OSA) et de la loi sur les services numériques (DSA) reflète une évolution de la responsabilité numérique. Les plateformes doivent dépasser la modération réactive et adopter des principes de sécurité dès la conception, notamment pour les enfants. Les entreprises qui adoptent des pratiques de sécurité ouvertes et axées sur l'utilisateur gagneront la confiance et la bienveillance réglementaire dans un contexte de conformité en pleine évolution.

Explorez des solutions transparentes et sur mesure solutions d'assurance âge multicouches sur la plateforme ComplyCube. Intégrez vos clients en quelques secondes et évitez les lourdes sanctions prévues par la loi sur la sécurité en ligne et la loi sur les services numériques. Parlez à un membre du ComplyCube équipe aujourd'hui.

Questions fréquemment posées

L’OSA et le DSA s’appliquent-ils aux plateformes dont le public est majoritairement adulte ?

Même si une plateforme peut cibler les adultes, elle doit néanmoins se conformer si des mineurs y ont accès, notamment sur les réseaux sociaux, où le contenu est partagé par différentes tranches d'âge. Les plateformes sont tenues de prendre des mesures proportionnées, telles que la mise en place de filtres de contenu et de contrôles parentaux, pour empêcher les mineurs d'être exposés à des contenus préjudiciables ou réservés aux adultes.

Qu’est-ce qui est considéré comme contenu prioritaire en vertu de la loi sur la sécurité en ligne (OSA) ?

Le contenu prioritaire comprend la pornographie, ainsi que les contenus faisant la promotion des troubles alimentaires, de l'automutilation ou du suicide. Ceci s'applique même si le contenu est légal, car il est considéré comme dangereux pour les enfants.

Quel est l’impact de l’OSA ou du DSA sur la vérification de l’âge sur les plateformes de médias sociaux ?

En vertu de la loi OSA, la vérification de l'âge est obligatoire si des enfants sont susceptibles d'accéder à la plateforme. La loi DSA de l'UE exige également une vérification de l'âge lorsque le contenu présente des risques, ce qui signifie que la plupart des plateformes de médias sociaux grand public doivent adopter des mesures de vérification de l'âge.

Les entreprises ou les dirigeants peuvent-ils faire l’objet de sanctions pénales en vertu de ces lois ?

La loi OSA prévoit que les cadres dirigeants sont passibles de poursuites pénales si les plateformes ne respectent pas leurs obligations en matière de sécurité et de vérification de l'âge. La loi DSA prévoit également des sanctions, y compris pénales, selon la manière dont chaque État membre de l'UE met en œuvre le règlement.

Comment l’OSA et la DSA protègent-elles les droits fondamentaux tout en assurant la conformité ?

Les deux lois prévoient des garanties pour équilibrer la réglementation et les droits des utilisateurs. Elles exigent des plateformes qu'elles respectent la liberté d'expression et la vie privée, tout en appliquant des obligations proportionnées de vérification de l'âge, de modération des contenus et de signalement.

Table des matières

Plus de messages

Graphique d'un bouclier de sécurité avec l'icône du drapeau australien S représentant la protection lors de la validation et de la vérification sécurisée du numéro de sécurité sociale.

Comment fonctionne la validation du numéro de sécurité sociale : un guide pratique

Découvrez comment les contrôles de validation des numéros de sécurité sociale permettent de filtrer rapidement les numéros impossibles, ceux de personnes décédées ou les numéros non concordants, réduisant ainsi la fraude, allégeant la charge de travail liée aux vérifications et améliorant la conformité tout au long des processus d'intégration aux États-Unis.
Cryptocubed, la newsletter crypto de septembre

La newsletter CryptoCubed : édition de novembre

L'édition de novembre de CryptoCubed inclut l'amende de 21,46 millions d'euros infligée à Coinbase Europe pour infractions à la réglementation anti-blanchiment d'argent, la sanction de 5 millions d'euros infligée à X pour publicités crypto non autorisées, et le renforcement des sanctions en Corée du Sud contre les plateformes d'échange de cryptomonnaies...
Les 5 principales erreurs commises par les entreprises lors de la mise en œuvre de solutions de lutte contre le blanchiment d'argent

5 erreurs critiques à éviter lors de la mise en œuvre d'un logiciel de lutte contre le blanchiment d'argent

Se précipiter dans la mise en œuvre d'un logiciel de lutte contre le blanchiment d'argent sans bien comprendre les informations spécifiques relatives aux différentes obligations de conformité peut exposer les entreprises à un risque important de contrôle réglementaire, de sanctions financières, voire d'atteinte à leur réputation.