Connect with us

Technologie

La science des données éthique et professionnelle nécessaire pour éviter d’autres controverses sur les algorithmes

Published

on


Selon un rapport de BCS, le Chartered Institute for IT, des normes éthiques et professionnelles strictes devraient être appliquées au développement d’algorithmes ayant des impacts sociaux pour rétablir la confiance du public dans la technologie.

Intitulé La question de l’examen: comment pouvons-nous faire des algorithmes faire la bonne chose?, le rapport analyse les défaillances qui ont conduit au fiasco des examens algorithmiques d’Ofqual afin d’identifier comment les principes d’ouverture, de responsabilité et d’objectivité peuvent être intégrés dans le développement d’algorithmes qui prennent des décisions à enjeux élevés sur la vie des gens.

L’algorithme d’Ofqual, qui a déclassé près de 40% des résultats du niveau A des élèves, a depuis été abandonné par le ministère de l’Éducation (DfE) au profit des notes prédites par les enseignants à la suite d’une réaction massive des élèves.

Le rapport formule un certain nombre de recommandations sur la façon dont la confiance dans les algorithmes peut être rétablie, notamment que le gouvernement approuve les travaux en cours de BCS, de la Royal Statistical Society (RSS) et d’autres pour professionnaliser la science des données; que le gouvernement assume un rôle de chef de file pour s’assurer qu’une bonne pratique éthique et professionnelle dans la conception d’algorithmes devienne omniprésente; et que les algorithmes sont soumis à des évaluations d’impact indépendantes avant d’entrer en service.

« Le manque de confiance du public dans l’analyse des données sera très dommageable à long terme. Les systèmes d’information qui s’appuient sur des algorithmes peuvent être une force pour le bien, mais – comme les étudiants l’ont découvert à un coût énorme – nous les avons utilisés pour porter des jugements à enjeux élevés sur des individus sur la base de données subjectives, incertaines et partielles », a déclaré Bill Mitchell OBE, directeur des politiques sous le titre bcs.

« Nous avons besoin d’une véritable surveillance de la façon dont les algorithmes sont utilisés, y compris l’identification des conséquences imprévues, et de la capacité au niveau du système de remédier aux dommages qui pourraient être causés à une personne lorsque quelque chose ne va pas.

« Cela signifie, tout d’abord, professionnaliser la science des données afin que le Royaume-Uni dispose des équipes scientifiques de données les plus fiables, éthiques et recherchées au monde. »

Le rapport ajoute qu’il y a un « manque de bonnes pratiques professionnelles et de normes professionnelles employées autour de l’élaboration et de la mise en œuvre de systèmes d’information », et que tout système automatisé qui s’appuie sur des jugements statistiquement fondés en temps réel devrait être considéré comme un « système algorithmique à haut risque ».

« L’atténuation des risques causés par ces systèmes dans la formulation ou la mise en œuvre des politiques exige de comprendre toutes les pratiques commerciales organisationnelles et la façon dont les équipes interdisciplinaires travaillent ensemble au-delà des frontières des politiques », a-t-il déclaré.

Concevoir des algorithmes éthiquement : ouverture, responsabilité et objectivité

Le rapport décrit les étapes clés du développement algorithmique et de la conception auxquelles les organisations devraient réfléchir, y compris les objectifs stratégiques, la propriété, les modèles de données et la collecte de données.

« e n’est qu’après des choix [the above] sont faits peut un ensemble d’algorithmes peuvent être développés qui automatisent collectivement ces jugements les données sont aptes à être utilisé », a déclaré le rapport, ajoutant que des tests rigoureux du système tout au long de son cycle de développement, à la fois des éléments distincts et le paquet global, est nécessaire pour comprendre si le système est assez bon pour une utilisation.

« Toutes les étapes ci-dessus exigent un jugement éthique sain pour faire les meilleurs choix possibles. Ils impliquent de nombreuses parties prenantes différentes qui ont besoin des bons mécanismes de gouvernance pour travailler en étroite collaboration à la fois rapidement et efficacement », a-t-il déclaré.

« Heureusement, les travaux de professionnalisation de ces pratiques ont déjà commencé… de façonner et de développer en collaboration la profession de science des données. Nous recommandons le soutien du gouvernement et nous nous joignons à cette collaboration, en veillant à ce qu’il adopte avec enthousiasme les normes et pratiques professionnelles qui sont élaborées par ce partenariat.

Bien que le rapport indique que le DfE et l’Ofqual ont consulté un large éventail d’intervenants sur certaines questions, comme la question de savoir si les estimations calculées des notes devraient être utilisées pour remplacer les examens et le type de données qui devraient servir de base à ces calculs, d’autres questions ont été complètement négligées, y compris la meilleure façon de maintenir les normes et la meilleure façon de combiner la note prévue d’un enseignant avec les données historiques pour obtenir un résultat.

Elle a conclu que « ‘ouverture signifie être ouverte sur les données qui seront utilisées, la provenance de ces données, la façon dont elles seront utilisées et quels critères seront utilisés pour déterminer si le système d’information résultant est adapté à l’insein ».

Identifiant les faiblesses dans les tentatives d’objectivité, le rapport du BCS indique également qu’il est nécessaire de clarifier les systèmes d’information destinés à atteindre au niveau individuel, et que cela devrait être établi « dès le début » du processus.

Par exemple, la distribution des notes en fonction des caractéristiques des différentes cohortes d’élèves afin qu’elles soient statistiquement en ligne avec les années précédentes – ce que l’algorithme Ofqual a fait – est différente de s’assurer que chaque élève est traité aussi équitablement que possible, ce qui aurait dû être discuté et compris par toutes les parties prenantes depuis le début, a-t-il dit.

En ce qui concerne la reddition de comptes, BCS a déclaré : « Il est essentiel de mettre au point des mécanismes efficaces pour la gouvernance conjointe de la conception et du développement des systèmes d’information dès le départ. »

Bien qu’elle s’abstienne de répartir le blâme, elle ajoute : « La situation actuelle de classement des examens ne devrait pas être attribuée à un seul ministère ou bureau du gouvernement. »

PDG de la RSS, Stian Westlake, cependant, a déclaré à Sky Nouvelles le fiasco des résultats a été « une surprise prévisible » en raison de la demande de DfE que Ofqual réduire l’inflation de grade.

« e fait que cela aurait pu produire beaucoup d’inexactitude, ce qui se traduit par des notes injustes pour les individus, qui était su », at-il dit.

Malgré l’offre RSS d’aider à l’algorithme en avril, Ofqual a déclaré à l’époque qu’il n’accepterait d’envisager d’accepter son aide que si les universitaires concernés avaient signé des accords de non-divulgation (NDA), ce qui les aurait empêchés de commenter le modèle choisi pendant cinq ans après le jour des résultats.

Continue Reading
Click to comment

Leave a Reply

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Technologie

GitHub rend publique la fonctionnalité de numérisation de la vulnérabilité de code

Published

on


Un an après l’acquisition du spécialiste de la numérisation de la sécurité logicielle Semmle, et à la suite d’un processus bêta réussi de cinq mois, GitHub rend ses capacités d’analyse de code CodeQL accessibles au public, aidant les équipes et les individus à faire plus pour créer des applications sécurisées via une approche axée sur la communauté, développeur d’abord.

Au cours du processus bêta, 12 000 référentiels ont été scannés 1,4 million de fois, et plus de 20 000 problèmes de sécurité ont été découverts, y compris de multiples instances d’exécution de code à distance (RCE), d’injection SQL et de vulnérabilités de script de site croisé (XSS).

GitHub a déclaré que les développeurs et les responsables de la fonction en utilisant la fonctionnalité ont corrigé près des trois quarts des bogues divulgués au cours des 30 derniers jours – un bond substantiel étant donné que, en général, moins d’un tiers des bogues sont corrigés dans un mois.

Justin Hutchings, chef de produit de GitHub, a déclaré qu’une fois intégré à GitHub Actions ou à l’environnement CI/CD existant d’un utilisateur, le service maximiserait la flexibilité pour les équipes de développement.

« Au lieu de vous submerger avec des suggestions de linting, l’analyse de code exécute uniquement les règles de sécurité exploitables par défaut, de sorte que vous pouvez rester concentré sur la tâche à accomplir », a déclaré Hutchings.

« l analyse le code tel qu’il est créé et les surfaces des revues de sécurité exploitables dans les demandes d’attraction et d’autres expériences GitHub que vous utilisez tous les jours, automatisant la sécurité dans le cadre de votre flux de travail. Cela permet de s’assurer que les vulnérabilités ne parsent jamais à la production en premier lieu.

La plate-forme a également enregistré 132 contributions communautaires à l’ensemble de requêtes à source ouverte de CodeQL, et s’est associée à plusieurs fournisseurs de sécurité dans l’espace open source et commercial pour permettre aux développeurs d’exécuter des solutions CodeQL et de l’industrie pour les tests statiques de sécurité des applications (Sast), l’analyse de conteneurs et l’infrastructure en tant que validation de code côte à côte dans l’expérience de numérisation de code natif de GitHub.

Les utilisateurs seront également en mesure d’intégrer des moteurs de numérisation tiers pour afficher les résultats de tous leurs outils de sécurité dans une seule interface, et d’exporter plusieurs résultats d’analyse à travers une seule API. Hutchings a déclaré GitHub prévu de partager plus sur ses capacités d’extensibilité bientôt.

Le service sera offert gratuitement pour les référentiels github publics, et plus de détails sur la façon de permettre cela peut être trouvé en ligne. La fonctionnalité sera mise à la disposition des référentiels privés par l’intermédiaire des options de sécurité avancée payante de GitHub Enterprise.

Les utilisateurs intéressés à aider à sécuriser l’écosystème open source sont, comme toujours, invités à intervenir et à contribuer à la communauté CodeQL sur GitHub.

Continue Reading

Technologie

VMworld 2020 : VMware s’associe pour accélérer les applications d’entreprise

Published

on


L’événement virtuel VMworld 2020 a débuté avec VMware annonçant une collaboration avec Nvidia, dont les deux espèrent qu’elle fournira une informatique accélérée à faible coût pour l’entreprise.

Les deux entreprises ont annoncé qu’elles travailleraient sur une nouvelle architecture pour l’informatique de base, le cloud et les bords.

Grâce à ce partenariat, le hub NGC de Nvidia sera intégré à VMware vSphere, VMware Cloud Foundation et VMware Tanzu. Selon VMware, cela permettra d’accélérer l’adoption de l’intelligence artificielle (IA), permettant aux entreprises d’étendre l’infrastructure existante pour l’IA, de gérer toutes les applications avec un seul ensemble d’opérations et de déployer une infrastructure prête pour l’IA où les données résident, à travers le centre de données, le cloud et le bord.

La collaboration utilisera les unités de traitement des données (DPU) de Nvidia, l’infrastructure de nouvelle génération programmable BlueField-2 de Nvidia et VMware Cloud pour accélérer les applications d’entreprise.

« L’IA et l’apprentissage automatique sont rapidement passés des laboratoires de recherche aux centres de données dans les entreprises de pratiquement toutes les industries et toutes les géographies », a déclaré Jensen Huang, fondateur et PDG de Nvidia.

« Nvidia et VMware aideront les clients à transformer chaque centre de données d’entreprise en un supercalculateur d’IA accéléré. Nvidia DPU donnera aux entreprises la possibilité de construire des centres de données sécurisés, programmables et définis par logiciel qui peuvent accélérer toutes les applications d’entreprise à une valeur exceptionnelle.

Parallèlement au partenariat avec Nvidia, VMware a également élargi son soutien aux multi-clouds, se positionnant comme l’éditeur de logiciels qui rendra Kubernetes prêt à l’entreprise.

Dans son discours d’ouverture au début de l’événement Digital VMworld, le PDG de VMware, Pat Gelsinger, a expliqué pourquoi les délégués doivent faire avancer l’innovation numérique.

« Si nous ne prenons pas de recul et que nous réfléchissons profondément à l’avenir que nous voulons construire ensemble, ce serait une énorme occasion manquée », a-t-il déclaré.

Gelsinger a fait référence aux circonstances extraordinaires et difficiles de 2020 et a suggéré que les affaires sont au milieu d’une refonte fondamentale centrée sur l’innovation numérique.

Pour Gelsinger et VMware, Kubernetes va devenir la plate-forme d’entreprise pour les applications modernes, de la même manière que Java et Spring sont devenus les normes de facto pour le développement de logiciels. « ebernetes est l’API de facto [application programming interface] pour multi-cloud – tout comme Java il y a vingt », at-il dit. « Nous travaillons avec la communauté open source pour rendre l’entreprise Kubernetes consommable et facile à mettre en œuvre. »

C’est grâce à VMware Tanzu, qui a maintenant élargi sa portée à travers VMware Cloud sur AWS, Azure VMware Solution et Oracle Cloud VMware Solution, ainsi qu’un partenariat avec GitLab pour améliorer la vitesse avec laquelle le code peut être poussé dans la production.

VMware a déclaré qu’il a signé 75 partenaires à la communauté Tanzu, avec des centaines de clients maintenant en utilisant des produits Tanzu et un million de conteneurs en production. VMware a déclaré qu’il soutient des millions de développeurs chaque mois comme ils commencent de nouveaux projets en utilisant le cadre de printemps pour les microservices et le catalogue de la communauté Bitnami pour les images de conteneurs.

Continue Reading

Technologie

Les acteurs de la menace deviennent beaucoup plus sophistiqués

Published

on


Qu’il s’agisse de bandes criminelles organisées ou de groupes de menaces persistantes avancées (APT) soutenus par l’État ou affiliés à l’État, les acteurs de la menace ont considérablement accru leur sophistication au cours des 12 derniers mois, intégrant un arsenal de nouvelles techniques qui rend le repérage de leurs attaques de plus en plus difficile pour même les défenseurs les plus endurcis.

C’est ce qui se passe selon un nouveau rapport annuel publié aujourd’hui par Microsoft, Rapport sur la défense numérique, l’exploration de certaines des tendances les plus pertinentes en matière de cybersécurité de l’année écoulée.

« Compte tenu du bond de la sophistication des attaques au cours de l’année écoulée, il est plus important que jamais que nous prenions des mesures pour établir de nouvelles règles de la route pour le cyberespace : que toutes les organisations, qu’elles soient des agences gouvernementales ou des entreprises, investissent dans les personnes et la technologie pour aider à mettre fin aux attaques; et que les gens se concentrent sur les bases, y compris l’application régulière des mises à jour de sécurité, des politiques de sauvegarde complètes et, en particulier, permettant l’authentification multifacteur (AMF) », a déclaré Tom Burt, Microsoft corporate vice-président de la sécurité des clients et de la confiance, dans un billet de blog.

« Nos données montrent que l’activation de l’AMF aurait à elle seule empêché la grande majorité des attaques réussies. »

Entre autres choses, le rapport détaille comment les groupes APT s’engagent dans de nouvelles techniques de reconnaissance qui augmentent leurs chances de compromettre des cibles importantes, tandis que les groupes cybercriminels ciblant les entreprises sont de plus en plus dans le nuage pour se cacher parmi les services légitimes, et d’autres sont à venir avec des moyens novateurs de parcourir l’Internet public pour les systèmes qui pourraient être vulnérables.

Les acteurs de la menace ont également démontré une nette préférence pour la récolte d’informations d’identification via le phishing, et les attaques ransomware dans la dernière année – avec ransomware étant maintenant la raison la plus commune pour l’opération de sécurité de Microsoft pour lancer un engagement de réponse incident.

Les attaques ransomware sont clairement de plus en plus ciblées et planifiées, selon les données du rapport, avec des modèles d’attaque démontrant que les cybercriminels savent quand il y aura des gels de changement, tels que les jours fériés, qui ralentiront la capacité d’une organisation à répondre et à durcir leurs réseaux. Les opérateurs ransomware sont également maintenant clairement démontrer qu’ils sont bien conscients des besoins commerciaux de leurs cibles, et quels facteurs les inciteront à payer plutôt que d’encourir un long temps d’arrêt, par exemple au cours d’un cycle de facturation.

Burt a déclaré que les cybercriminels sont de plus en plus habiles à l’évolution de leurs techniques pour améliorer leurs chances de succès, l’expérimentation de nouveaux vecteurs d’attaque et des techniques d’obscurcissement, et l’exploitation de l’ordre du jour des nouvelles en évolution rapide pour changer leurs leurres. La pandémie de Covide-19 en particulier a donné aux cybercriminels une occasion en or de jouer sur la curiosité humaine et le besoin d’information.

Le rapport révèle comment la pandémie s’est également déroulée d’autres façons, les travailleurs à distance étant plus vulnérables en dehors du périmètre réseau de leurs organisations, et l’utilisation stratosphérique des applications web et cloud rendant les attaques DDoS soudainement beaucoup plus dangereuses.

Les acteurs soutenus par l’État-nation, quant à eux, évoluent également, changeant leurs objectifs pour s’aligner sur l’évolution des objectifs géopolitiques de leurs payeurs. Dans le passé, ces groupes avaient préféré se concentrer sur les vulnérabilités dans les infrastructures nationales essentielles (CNI), mais les statistiques de Microsoft ont révélé que 90% des notifications d’État-nation étaient contre d’autres cibles.

Par exemple, elle a signalé jusqu’à 16 groupes différents soutenus par l’État ciblant ses clients qui participent à la réponse de Covid-19, tels que les organismes gouvernementaux, les cibles de soins de santé, les ONG et les institutions universitaires et les organisations scientifiques travaillant sur les vaccins. Une chose qui n’a pas changé est l’origine de ces groupes, qui opèrent massivement à partir de la Chine, l’Iran, la Corée du Nord et la Russie.

Burt a exhorté à une « approche communautaire » à la cybersécurité aller de l’avant, en disant que même si le travail de sécurité de Microsoft est vaste, même une organisation de sa taille ne peut apporter une petite contribution à l’image globale.

« Il faut que les décideurs, le milieu des affaires, les organismes gouvernementaux et, en fin de compte, les individus fassent une réelle différence, et nous ne pouvons avoir un impact significatif que par le biais d’informations et de partenariats partagés », a-t-il dit.

« C’est l’une des raisons pour lesquelles nous avons lancé Rapport sur le renseignement de sécurité en 2005, et c’est l’une des raisons pour lesquelles nous avons évolué ce rapport dans ce nouveau Rapport sur la défense numérique. Nous espérons que cette contribution nous aidera tous à mieux travailler ensemble pour améliorer la sécurité de l’écosystème numérique.

Continue Reading

Trending