Connect with us

Technologie

Le GCHQ établit des règles de la route pour l’IA dans le cyber

Published

on


Utilisée de manière responsable, la technologie de l’intelligence artificielle (IA) aidera à l’avenir les cyberespions à vérifier et à détecter les médias deepfake pour lutter contre la désinformation, cartographier les réseaux internationaux permettant le trafic d’êtres humains, de drogues et d’armes, et sévir contre les abus sexuels commis sur des enfants, selon un document produit par le GCHQ, l’agence nationale britannique de renseignement sur les signaux et d’assurance de l’information.

Dans Éthique de l’IA : pionnier d’une nouvelle sécurité nationale, le GCHQ explique pourquoi la technologie de l’IA se retrouvera inévitablement au cœur de sa mission fondamentale de protection de la sécurité nationale du Royaume-Uni et de la manière dont elle peut être utilisée de manière appropriée. Il a été publié avant un prochain examen gouvernemental de la sécurité, de la défense, du développement et de la politique étrangère.

GHCQ a déclaré que l’IA serait une question cruciale pour la sécurité du Royaume-Uni dans les 21St siècle, et que si beaucoup sont excités par les possibilités qu’il présente, laissé sans contrôle, il reflète trop facilement les croyances inhérentes et les hypothèses – qu’elles soient bonnes, mauvaises ou neutres – de ceux qui le conçoivent.

Elle a déclaré que le Royaume-Uni avait besoin d’un dialogue et d’un débat accrus sur l’utilisation et la protection de l’IA afin qu’elle puisse être utilisée de manière à maximiser les points positifs, tout en minimisant les risques pour la vie privée des individus.

Le document décrit comment le GCHQ s’assurera qu’il utilise l’IA de manière équitable et transparente, en appliquant les critères existants de nécessité et de proportionnalité – y compris l’établissement d’un code de pratique éthique de l’IA, la diversité de la pensée et de l’expérience dans son développement et sa gouvernance, et la protection de la vie privée et l’équité systématique.

« L’IA, comme tant de technologies, est très prometteuse pour la société, la prospérité et la sécurité. Son impact sur le GCHQ est tout aussi profond. L’IA est déjà inestimable dans bon nombre de nos missions, car nous protégeons le pays, sa population et son mode de vie », a déclaré jeremy Fleming, directeur du GCHQ.

« Il permet à nos brillants analystes de gérer de vastes volumes de données complexes et d’améliorer la prise de décision face à des menaces de plus en plus complexes – de la protection des enfants à l’amélioration de la cybersécurité.

« Bien que cette évolution technologique sans précédent offre de grandes possibilités, elle pose également d’importants défis éthiques à l’ensemble de la société, y compris le GCHQ.

« Aujourd’hui, nous sommes en train d’établir notre plan et notre engagement envers l’utilisation éthique de l’IA dans notre mission. J’espère que cela inspirera une réflexion plus avant au pays et à l’étranger sur la façon dont nous pouvons garantir l’équité, la transparence et la responsabilisation pour soutenir l’utilisation de l’IA.

Le document détaille également comment le GCHQ soutient l’industrie de l’IA au Royaume-Uni, y compris la création d’un laboratoire d’IA de l’industrie, le mentorat et le soutien des grappes de startups à Cheltenham, Londres et Manchester, et le soutien à la création de l’Institut Alan Turing.

Ken Miller, directeur de la technologie chez Panintelligence, a déclaré que la publication du document était une étape cruciale dans le développement de la technologie de l’IA, et que toutes les parties prenantes pourraient bénéficier de la suite, non seulement en matière de cybercriminalité et de sécurité nationale, mais aussi pour d’autres utilisations.

« En tant que société, nous sommes encore quelque peu indécis quant à savoir si l’IA est un ami ou un ennemi, mais en fin de compte ce n’est qu’un outil qui peut être mis en œuvre comme nous le souhaitons », a-t-il déclaré.

« Ne vous y trompez pas, l’IA est là et elle touche déjà de nombreux aspects de votre vie, et très probablement a pris des décisions à votre sujet aujourd’hui.

« Il est essentiel d’établir la confiance dans la technologie, et sa mise en œuvre doit être transparente afin que chacun comprenne comment elle fonctionne, quand elle est utilisée et comment elle prend des décisions. Cela permettra aux gens de contester les décisions en matière d’IA s’ils le estiment nécessaire et d’aller quelque part pour démystifier toute stigmatisation.

Miller a admis que, même s’il faudrait probablement du temps au grand public pour être tout à fait à l’aise avec la prise de décisions fondées sur l’IA, la reddition de comptes et une réglementation stricte contribueraient à accélérer ce processus.

« Nous vivons dans un monde qui est malheureusement plein de préjugés humains, mais il y a une réelle possibilité d’éliminer ces préjugés maintenant. Toutefois, cela n’est possible que si nous formons efficacement les modèles, en nous efforçant d’utiliser les données sans limites », a-t-il déclaré.

« Nous devrions faire la lumière sur le comportement humain lorsqu’il montre des préjugés et chercher à changer les opinions par la discussion et l’éducation – nous devons faire de même que nous enseignons aux machines à « penser » pour nous. »

Click to comment

Leave a Reply

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Tendance