Récemment, la Commission européenne a présenté l’ébauche d’un texte dont le but est de limiter les risques de l’intelligence artificielle (IA). En effet, dans ce domaine, certaines dérogations sont tolérées, concernant des secteurs sensibles. Par exemple, la sécurité militaire ou publique. Or, certaine pratiques pourraient menacer des droits fondamentaux. Donc, ce texte a tenté d’apaiser différentes craintes. Dont certaines émanaient de diverses associations de défense des libertés, mobilisées en Europe.
Des précautions à préciser
A Bruxelles, après des travaux qui ont duré trois ans, la Commission européenne vient de présenter un premier texte dont le but est de limiter les risques de l’intelligence artificielle. Cela, afin que les futures applications de cette technologie puissent s’exercer en toute confiance. Des précautions sur lesquelles Margrethe Vestager, la vice-présidente de la Commission, a tenu à insister. Ces dispositions à venir s’exerceront, entre autres, sur la réglementation des véhicules autonomes. Ainsi que sur la sécurité militaire et la protection des libertés individuelles. Notamment, concernant les systèmes de surveillance qui seront mis en place. Entre autres, au sujet de l’identification biométrique à distance.
Risques de l’intelligence artificielle : des dangers à analyser
Par essence, ce texte a pour objectif d’éviter certains abus. Ces derniers pouvant conduire à manipuler les décisions et les comportements des citoyens. En effet, à ce jour, ces procédés sont déjà utilisés en Chine. Par le biais d’un système de notation citoyenne très contraignant. Or, l’Europe souhaite interdire ces usages. Cependant, des autorisations dérogatoires devront rester permises. En particulier, dans des domaines comme la lutte antiterroriste. Ou encore la sécurité publique et les applications militaires. Cela, en étudiant attentivement les divers dangers que ces secteurs impliquent.
De longs débats en perspective
Afin de rester compétitive face aux GAFAM – Google, Apple, Facebook, Amazon et Microsoft – l’Europe a prévu de consacrer une enveloppe d’un milliard d’euros aux contrôles de ses technologies numériques. Cela, chaque année, pendant au moins dix ans. Cependant, afin d’utiliser ce budget de façon vertueuse, une réflexion préalable sera nécessaire. En effet, pour certains élus, le texte proposé aujourd’hui reste très incomplet. Notamment, en matière de dérives possibles concernant la sécurité publique. Celle-ci pouvant justifier une surveillance excessive des populations. Mise en place derrière des algorithmes prévisionnels. Or, ceux-ci sont précisément des risques de l’intelligence artificielle. Par conséquent, le Parlement européen et les 27 Etats membres débattront bientôt des futures règles qui encadreront ces pratiques numériques. Cela, afin d’empêcher des abus possibles. Vu l’importance de ce sujet, ces discussions dureront sans doute plusieurs mois.
- Le Bulletin des Communes vous suggère aussi l’article du Figaro