Connect with us

Technologie

Le gouvernement britannique publie des directives sur la « sécurité par conception » à l’intention des entreprises technologiques

Published

on


Le gouvernement britannique a publié des directives « sécurité par conception » pour aider les entreprises technologiques à mieux protéger les utilisateurs en ligne avant son prochain projet de loi sur la sécurité en ligne.

Publié par le Département du numérique, de la culture, des médias et du sport (DCMS), le guide est conçu pour aider les entreprises technologiques de différentes tailles à trouver les informations nécessaires pour créer des produits numériques sûrs, des étapes de développement jusqu’à l’expérience utilisateur.

Le projet de loi sur la sécurité en ligne, dont une ébauche officielle a été publiée en mai 2021, vise à promouvoir la sécurité en ligne en rendant les entreprises internet et les fournisseurs de services plus responsables du contenu partagé par les utilisateurs sur leurs plateformes.

En vertu de l’obligation de diligence du projet de loi, les plateformes technologiques qui hébergent du contenu généré par les utilisateurs ou permettent aux gens de communiquer seront légalement tenues d’identifier, de supprimer et de limiter de manière proactive la propagation de contenus illégaux ou préjudiciables – tels que les abus sexuels sur enfants, le terrorisme et le matériel suicidaire – ou elles pourraient être condamnées à une amende allant jusqu’à 10 % du chiffre d’affaires par l’organisme de réglementation des préjudices en ligne. , qui est confirmé comme ofcom.

La législation s’appliquera à toute entreprise dans le monde qui sert les utilisateurs basés au Royaume-Uni, avec les règles hiérarchisées de telle sorte que les sites et services les plus populaires (ceux qui ont un large public) devront aller plus loin en définissant et en appliquant des termes et conditions clairs qui indiquent explicitement comment le contenu qui est légal mais pourrait encore causer un préjudice physique ou psychologique important sera traité. Cela comprendra la désinformation et la désinformation sur une série de sujets, tels que les vaccins contre le coronavirus, marquant la première fois que la désinformation en ligne relève de la compétence d’un organisme de réglementation gouvernemental.

Les orientations préconisent de placer la sécurité au cœur de la conception de la plateforme afin de minimiser le risque de préjudice en ligne, et conseillent en outre les entreprises sur la fourniture d’une expérience adaptée à l’âge des enfants grâce à des outils tels que l’assurance et la vérification de l’âge.

« Nous aidons les entreprises à mettre leurs normes de sécurité à niveau avant l’introduction de nos nouvelles lois sur les préjudices en ligne et nous nous assurons également qu’elles protègent les enfants et les utilisateurs dès maintenant », a déclaré la ministre du Numérique, Caroline Dinenage. « Nous voulons que les entreprises de toutes tailles finissent par atteindre un niveau de sécurité en ligne et ces conseils les aideront à le faire. »

Quatre principes

Pour aider les entreprises, le guide décrit quatre principes de sécurité dès la conception, ainsi qu’une liste de contrôle en sept points sur la façon de les mettre en œuvre dans la pratique.

Les principes consistent notamment à veiller à ce que les utilisateurs ne soient pas laissés à eux-mêmes pour gérer leur propre sécurité; que la plateforme doit prendre en compte tous les types d’utilisateurs ; que les utilisateurs soient habilités à faire des choix plus sûrs; et que les plateformes sont conçues pour protéger les enfants.

Chaque principe est accompagné d’un aperçu des raisons pour lesquelles il est nécessaire, ainsi que d’un exemple concret d’eux dans la pratique.

Par exemple, sur le troisième point consistant à donner aux utilisateurs les moyens de faire des choix plus sûrs, les lignes directrices indiquent : « Vous devez veiller à ce que la conception de la plateforme ne limite pas la capacité d’un utilisateur à faire des choix éclairés. Par exemple, utiliser des algorithmes pour recommander du contenu nuisible à un utilisateur, qu’il n’a aucun contrôle ou un contrôle limité sur la modification.

Il a ajouté: « Une bonne conception de plate-forme aide les utilisateurs à comprendre: la fiabilité et l’exactitude du contenu qu’ils interagissent avec la façon dont leur activité en ligne est perçue par les autres, et comment gérer cela – par exemple en modifiant les paramètres de confidentialité ou en bloquant à un utilisateur l’impact juridique potentiel de ses actions sur ses droits et responsabilités en ligne. »

Des experts en vérification des faits ont précédemment déclaré à un comité de la Chambre des Lords en février 2021 que le projet de loi sur la sécurité en ligne devrait forcer les entreprises Internet à fournir des informations et des mises à jour en temps réel sur les soupçons de désinformation, et ont en outre mis en garde contre une dépendance excessive aux algorithmes d’intelligence artificielle (IA) pour modérer le contenu.

Will Moy, PDG de Full Fact, a déclaré à l’époque: « Nous avons besoin d’un examen indépendant de l’utilisation de l’IA par ces entreprises et de ses conséquences involontaires – pas seulement ce qu’elles pensent qu’elle fait, mais ce qu’elle fait réellement – et nous avons besoin d’informations en temps réel sur les mesures de modération de contenu prises par ces entreprises et leurs effets.

« Ces entreprises Internet peuvent silencieusement et secrètement, car les algorithmes d’IA sont considérés comme des secrets commerciaux, façonner le débat public. Ces exigences de transparence doivent donc être fixées à la face du projet de loi sur la sécurité en ligne.

En ce qui concerne la liste de contrôle – qui, selon les pages Web, « n’est pas obligatoire, mais peut vous aider à améliorer la sécurité de votre site Web, de votre application ou de votre logiciel » – les sept points que le gouvernement recommande de prendre comprennent l’examen de la conception de la plateforme pour les risques et les préjudices, l’identification et la protection des utilisateurs qui peuvent être vulnérables, et unssessing comment les utilisateurs peuvent faire des rapports ou des plaintes.

« Vous devez créer des conditions d’utilisation claires expliquant ce qui est acceptable sur votre plate-forme. Ceux-ci devraient être bien en vue et accessibles aux utilisateurs de tous âges et de toutes capacités. Vous devriez faire en sorte qu’il soit facile pour quiconque de signaler un contenu ou un comportement qui enfreint ces règles », a-t-il déclaré.

« Cela signifie que vos utilisateurs et employés (si vous dirigez une entreprise) doivent savoir: où et comment faire un rapport ou une plainte; ce qui se passera par la suite; combien de temps il faudra avant que quelqu’un réponde; [and] comment un utilisateur peut faire appel d’une décision s’il n’est pas d’accord avec le résultat.

Autres actions

Les autres mesures que les organisations devraient prendre comprennent l’examen et la mise à l’essai des mesures de sécurité, la mise à jour des informations sur la conception de plateformes en ligne plus sûres, la nomination d’une personne responsable qui comprend les risques pour gérer la sécurité des utilisateurs et la garantie que les employés savent quoi faire pour assurer la sécurité des utilisateurs.

Le guide comprend également des guides de conception des meilleures pratiques pour une gamme de différents types de fonctionnalités de plateforme, y compris les canaux privés ou publics, la diffusion en direct, les comptes anonymes ou multiples, la fonctionnalité de recherche et la visibilité des détails ou de l’activité du compte.

En juin 2021, un nouveau groupe de campagne a été créé pour s’opposer au projet de loi du gouvernement. Membres de Legal to Say. Legal to Type affirme que le devoir de diligence du projet de loi est trop simpliste, qu’il cède trop de pouvoir aux entreprises américaines et qu’il privilégiera, dans la pratique, le discours des journalistes ou des politiciens.

Les membres du groupe comprennent le député conservateur David Davis, la PDG d’Index on Censorship Ruth Smeeth, le directeur exécutif d’Open Rights Group Jim Killock et Gavin Millar de Matrix Chambers.

Click to comment

Leave a Reply

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Tendance