Connect with us

Technologie

Les régulateurs numériques ont besoin de missions discrètes mais coopératives

Published

on


Les différents régulateurs de l’économie numérique ont besoin de pouvoirs de partage d’informations solides intégrés dans une division claire du travail pour tenir efficacement les entreprises technologiques responsables, a déclaré la commissaire britannique à l’information, Elizabeth Denham, aux députés et à ses pairs.

S’adressant au comité conjoint du projet de loi sur la sécurité en ligne, qui a été lancé en juillet 2021 pour examiner la prochaine législation du gouvernement sur les préjudices en ligne, Denham a déclaré que lorsqu’il décide des devoirs de chaque régulateur numérique, le gouvernement devrait prendre en considération la façon dont leurs obligations se chevauchent et interagissent, et concevoir des « passerelles de partage d’informations » en conséquence.

« Cela peut sembler un problème juridique, mais nous devons être en mesure de partager des informations, car du point de vue de la concurrence, de la réglementation du contenu ou de la protection des données, nous parlons aux mêmes entreprises, et je pense qu’il est important que nous puissions partager ces informations », a déclaré Denham au comité le 23 septembre 2021. ajoutant que cela garantirait que les entreprises technologiques, «[some] la taille des États-nations, ne sont pas des forums de magasinage, ou ne dirigent pas un organisme de réglementation contre un autre et prétendent dans l’intérêt de la vie privée qu’ils vont changer les processus publicitaires de tiers.

Elle a ajouté que s’il est important que les régulateurs numériques « agissent ensemble de concert… nous avons besoin d’obligations de respecter les autres objectifs réglementaires ainsi que le partage d’informations entre les régulateurs ».

En vertu du projet de loi sur la sécurité en ligne, qui, selon le gouvernement, protégera la liberté d’expression en ligne, augmentera la responsabilité des géants de la technologie et protégera les utilisateurs contre les préjudices en ligne, les entreprises de technologie auront un « devoir de diligence » statutaire pour identifier, supprimer et limiter de manière proactive la propagation de contenus illégaux et légaux mais préjudiciables, ou elles pourraient être condamnées à une amende allant jusqu’à 10% de leur chiffre d’affaires par le régulateur des dommages en ligne Ofcom.

Alors que le Digital Regulation Cooperation Forum (DRCF) a été créé en juillet 2020 pour renforcer les relations de travail entre les régulateurs et établir un plus grand niveau de coopération entre l’Ofcom, l’Information Commissioner’s Office (ICO), la Financial Conduct Authority (FCA) et la Competition and Markets Authority (CMA), Denham a noté que leur donner des « pouvoirs équivalents », tels que la capacité d’effectuer des audits obligatoires, empêcherait la pratique du « forum shopping » par les entreprises technologiques.

« Le Parlement doit examiner la cohérence des régimes de réglementation… L’équivalence dans le type de pouvoirs dont nous avons besoin pour pouvoir nous attaquer à ces grandes entreprises est importante. J’ai mentionné les pouvoirs d’audit, et encore une fois, je pense que c’est important pour l’Ofcom », a-t-elle déclaré, ajoutant que l’équivalence des types de pouvoirs que les régulateurs peuvent exercer est particulièrement importante lorsqu’ils traitent avec les mêmes entreprises dans différents régimes réglementaires.

En ce qui concerne les pouvoirs de collecte d’informations contenus dans le projet de loi sur la sécurité en ligne en particulier, qui permet à l’Ofcom d’obliger les entreprises à fournir des informations afin qu’elles puissent être évaluées pour la conformité, Denahm a déclaré qu’elle aimerait qu’elles « soient renforcées par [compulsory] pouvoirs d’audit » afin que l’Ofcom en tant que régulateur puisse correctement « regarder sous le capot ».

En réponse aux questions de savoir si elle pense que c’est une omission dans le projet de loi sur la sécurité en ligne de ne pas inclure de voies pour les plaintes individuelles concernant le contenu, Denham a mis en garde contre le fait de donner trop à un organisme et a plaidé pour une meilleure division du travail entre les régulateurs, en utilisant le vaste mandat de l’ICO comme exemple.

« L’ICO est à la fois un ombudsman, en ce que nous prenons les plaintes individuelles, et un organisme de réglementation, lorsque nous examinons si les entreprises se conforment à la Loi. Nous sommes aussi un agent d’exécution. Nous sommes un peu de tout. Nous utilisons les renseignements que nous recueillons par le biais de plaintes pour mener nos enquêtes plus systématiques et nos grandes actions », a-t-elle déclaré. « Je pense que cela met beaucoup sur les épaules d’une organisation de prendre des plaintes individuelles ainsi que d’être en charge de la surveillance et de la réglementation de l’espace de contenu.

« Si les plaintes individuelles pouvaient être adressées à une organisation différente, cela pourrait être une voie à suivre, et l’Ofcom pourrait alors apprendre de l’expérience de ces personnes, mais imaginez les millions de plaintes pour des demandes de suppression qui pourraient aller à une organisation telle que l’Ofcom. »

Denham a ajouté que, bien que des efforts de collaboration et de coopération en matière de réglementation soient déjà en cours, il est important de tracer des « lignes claires » entre leurs différentes déterminations afin que les entreprises publiques et privées aient une idée claire de qui prend quelles décisions.

« De toute évidence, les données personnelles sont utilisées dans la livraison du contenu, et les données personnelles sont utilisées si vous avez des algorithmes qui déterminent la livraison du contenu. Le cLe régulateur et le régulateur de la protection des données examineront cela très attentivement », a-t-elle déclaré.

« Dans le travail que nous avons fait avec la livraison de contenu aux enfants grâce à notre code de conception adapté à l’âge et le travail que nous avons fait sur l’ingérence électorale, nous avons examiné l’analyse et les algorithmes pour fournir du contenu aux personnes qui les ont envoyés dans des profils et des filtres, et les ont éloignés de la sphère publique. Là, je pense que vous avez une intersection. Nous ne réglementons pas le contenu, mais nous réglementons l’utilisation des données dans les systèmes qui fournissent du contenu. »

Click to comment

Leave a Reply

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Tendance