Reconnaissance faciale : grave menace pour les libertés individuelles
Reconnaissance faciale : grave menace pour les libertés individuelles

Reconnaissance faciale : grave menace pour les libertés individuelles

  Introduction

En ce début d’automne 2019 plusieurs informations concernant l’utilisation de la reconnaissance faciale annoncent peut-être un changement profond dans notre société.

La France a en effet annoncé qu’elle s’apprêtait à emboîter le pas à la Chine en matière de contrôle automatisé des identités, contrôle auquel il sera impossible d’échapper.

De quoi parle-t-on ?

La vidéo surveillance n’est pas une nouveauté. Le contrôle d’identité encore moins. Du point de vue de la sécurité publique, l’un et l’autre sont parfaitement légitimes et un certain nombre de libertés individuelles ne peuvent exister si tout un chacun n’est pas en mesure de prouver son identité, preuve normalement garantie en particulier par l’État.

identité

Ce qui est en train de changer actuellement, c’est que suite aux progrès combinés de l’intelligence artificielle, du big data et de l’hyperconnectivité numérique, il est aujourd’hui possible de réaliser des opérations de sécurité inconcevable il y a quelques années.

Le stockage de données sur les individus ne pose plus de problèmes de capacité de stockage.

La collecte est devenue facile.

La vidéo surveillance qui était jusque là « passive » du point de vue informatique peut devenir active puisque les algorithmes sont prêts et efficaces en matière d’identification automatisée.

Et ces algorithmes sont non seulement en mesure de reconnaître les individus mais également en mesure de corréler les informations collectées et d’en tirer des conclusions. Aujourd’hui ces conclusions sont basées sur les faits constatés mais l’IA est assez puissante pour établir des comportements prédictifs. Et si ces comportements ne sont pas dans le cadre accepté par un État, celui-ci peut comme en Chine imposer une note sociale aboutissant à des restrictions de droits.

Le lien entre la généralisation des technologies de contrôle automatique, systématique et obligatoire des identités et la restriction arbitraire des droits n’est donc pas un fantasme ou une vue de l’esprit. Il est une réalité en cours de déploiement.

Je n’ai rien à cacher !

Deux types d’arguments sont généralement opposés à ceux qui se battent contre le déploiement de ces technologies.

  • Tout d’abord l’actualité anxiogène fournit de bons moteurs émotionnels pour restreindre les libertés individuelles. Il est à peu près certain que le meurtrier de la préfecture de police de Paris aurait été analysé comme sujet à risque par un système de vidéo surveillance à large échelle couplée à une IA. Mais il est tout aussi certain que les moyens humains mis en place l’avaient fait. Dans ce cas, ce n’est pas la détection qui est défaillante, mais la décision. Une police qui fonctionne correctement n’a pas besoin d’entrer dans une dérive sécuritaire liberticide pour bien faire son travail et protéger les citoyens.
  • Le second type d’argument est lié à l’idée que l’innocent n’a rien à craindre de la transparence. Ce qui est faux. Ce n’est pas parce qu’une personne respecte la loi qu’elle n’a rien à craindre d’un tiers capable de tout connaître sur elle. En effet, dans un système de totale transparence des individus et de contrôle systématique et continu, on passe vite de la loi à la morale, de la liberté surveillée à l’oppression. Or la morale est une convention culturelle aux dimensions très variables : est-il moral de manger de la viande ? est-il moral de bronzer nu ? est-il moral de ne pas vouloir d’enfant ? est-il moral de questionner la morale ?

Dans une société contrôlée par une machine, c’est la machine qui fixe l’interprétation et donc ce qui est acceptable ou pas. Ceci est encore renforcé par les capacités prédictives des algorithmes d’IA. Dans une telle société, nous ne serions ni libre de vivre l’instant, ni libre de notre destin.

Tu exagères !

On peut penser que j’exagère puisque en l’occurrence, la loi qui pourrait entrer en vigueur en France se limite à utiliser la reconnaissance faciale pour accéder à des services publics. Mais le programme Alicem (c’est son petit nom) est bien liberticide.

D’abord, comme l’a relevé la CNIL, il viole sans ambigüité la loi RGPD. Même si vous vous opposez à ce traitement, vos données biométriques seront obligatoirement captées, stockées et utilisées pour un usage sur lequel vous n’aurez rien à dire.

Mais cela ne s’arrête pas là. Si pour une raison ou une autre vous n’avez pas accès à ces services (et je pense à ma vieille mère par exemple), l’accès à ces services sera impossible. Cela signifiera donc en pratique une perte de droits et de citoyenneté ! Et au nom de la facilité de mise en œuvre, du coût, de l’efficacité, il y a fort à parier qu’une fois les premiers services de ce type mis en place, ils vont être généralisés.

Et pour en finir (provisoirement) avec les problèmes possibles, on ne peut que frémir à l’idée que les bases biométriques soient piratées. Votre identité numérique serait alors aux mains de pirates qui auraient tout loisir d’en faire ce qu’ils en veulent sans que vous puissiez faire grand chose ; aujourd’hui il est déjà très complexe de prouver son identité en cas d’usurpation, qu’en serait-il dans un monde où l’on vous demanderait de vous identifier obligatoirement via la machine qui a été piratée ?

Conclusion

Les technologies de reconnaissance biométriques sont opérationnelles et d’une efficacité inédite.

Couplée à d’autres programmes d’intelligence artificielle, elles sont en mesure de tirer des conclusions sur le présent et l’avenir des individus, sans que ceux-ci puissent raisonnablement l’en empêcher.

Ces technologies violent les lois visant à protéger nos données personnelles et préserver notre droit à la vie privée. Elles sont liberticides et posent avec force la question de la dérive vers un régime totalitaire numérique.

Je réaffirme avec force la nécessité de faire prévaloir le choix humain, même imparfait, sur le choix de la machine, même « optimal ». Il faut refuser que la captation et le traitement de  données biométriques soit fait sans un consentement libre et éclairé de chacun. Il faut rejeter le caractère obligatoire de l’usage d’Alicem.

Un commentaire

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *