Enquêtes et actualité à Strasbourg et Eurométropole

Jean-Luc Dugelay : « faute de garde-fous, la reconnaissance faciale aura les mêmes biais que nous »

Les technologies de reconnaissance faciale sont arrivées à maturité. Elles se déploient dans les aéroports et sur nos téléphones portables. Pour autant, les enjeux de ces traitements automatiques sur l’humain n’ont pas été étudiés. On en discute jeudi avec Julien Gossa et Jean-Luc Dugelay, deux universitaires spécialistes du traitement de données et de l’image.

Cet article est en accès libre. Pour soutenir Rue89 Strasbourg, abonnez-vous.

Des visages prêts à être détectés et reconnus... (Photo Visual Hunt / cc)

Jeudi 11 octobre, Le Shadok et Rue89 Strasbourg vous invitent à une soirée de réflexion et d’échange sur la reconnaissance faciale. Les progrès des technologies optiques et informatiques ont rendu très simple et rapide l’identification des êtres humains à partir de quelques images. Ces nouveaux outils, auxquels s’intéressent professionnels du marketing et forces de l’ordre, posent d’importantes questions éthiques. La Commission nationale informatique et libertés (CNIL) a demandé aux députés de se saisir d’urgence du dossier pour mettre à jour le corpus légal.

Jeudi soir, nous aurons l’opportunité d’en discuter avec Julien Gossa, enseignant-chercheur de l’Université de Strasbourg spécialiste du traitement des données et Jean-Luc Dugelay, professeur à l’école d’ingénieurs de Nice, Eurecom, et spécialiste du traitement de l’image. Il a également cofondé Eurasip « Journal on Image & Video Processing« , une revue européenne scientifique sur le traitement de l’image.

Jean-Luc Dugelay, professeur à l'Eurecom de Nice (doc remis)
Jean-Luc Dugelay, professeur à l’Eurecom de Nice (doc remis)

Rue89 Strasbourg : Est-ce que les technologies mises en œuvre pour la reconnaissance faciale ont atteint un stade de maturité ?

Jean-Luc Dugelay : Oui on peut dire ça, les progrès ont concerné toute la chaîne technologique. D’abord les capteurs sont désormais capables de voir bien mieux que l’être humain : de plus loin, avec des angles plus larges et des spectres plus importants, et aussi avec une capacité 3D qui permet d’évaluer les formes. Cette capacité à produire des images de meilleure qualité est accompagnée par les progrès informatiques, dont la révolution du « big data » qui permet d’accéder à beaucoup plus d’informations plus vite qu’auparavant.

« Des résultats proches de 100% »

Donc on obtient des reconnaissances d’individus avec des taux de succès proches de 100% dans des environnements contrôlés, comme les espaces intérieurs des aéroports par exemple. Ça se dégrade vite à l’extérieur, quand il faut travailler à partir d’images moins bien éclairées ou avec des angles de prises de vue qui ne sont pas optimaux, ou tout simplement quand les gens ne sont pas en position pour être filmés ou maquillés. Reconnaître des gens dans un stade de foot par exemple, c’est beaucoup plus compliqué.

Est-ce à dire que nous ne sommes plus anonymes nulle part ?

Toute la problématique de la reconnaissance faciale est de réussir une comparaison. Un traitement optique et informatique aussi perfectionné soit-il ne peut que comparer une image à partir d’une autre. Donc il faut d’abord que le processus soit connecté à une base de données de visages. Ce n’est pas pour rien qu’on demande aux gens de produire une expression neutre sur les photos des cartes d’identité, c’est pour pouvoir les reconnaître plus facilement. Il faut que l’algorithme passe outre une certaine variabilité liée à la lumière, l’âge, si la personne s’est rasée ou non, ses cheveux…

Mais si installer un système de vidéosurveillance est à la portée de tout le monde, accéder à des bases de données de visages est réglementé non ?

À ma connaissance, il n’est pas encore possible légalement de connecter un système de vidéo-surveillance en France à une base de données d’informations personnelles. Mais les demandes, de la part des forces de l’ordre en ce sens, se font pressantes. Ce qui explique que la Commission nationale informatique et libertés (CNIL) ait interpellé le législateur en septembre précisément sur cette question.

« La vidéosurveillance est devenue un système biométrique »

Pour la CNIL, la vidéo-surveillance est un système de lutte contre les vols, les agressions ou les bagages abandonnés et pas un processus de fichage biométrique. Mais c’est une erreur, les technologies sont en train de converger et il est urgent de considérer la vidéo-surveillance comme un dispositif utilisant et produisant des données personnelles. Aujourd’hui, les gens estiment qu’il ne devrait pas être possible de reconnaître quelqu’un dans la rue. Mais quand un enfant sera enlevé et qu’on pourra le retrouver dans la foule grâce à la reconnaissance faciale, alors tout le monde exigera que cette technologie soit déployée massivement…

Des visages prêts à être détectés et reconnus... (Photo Visual Hunt / cc)
Des visages prêts à être détectés et reconnus… (Photo Visual Hunt / cc)

Est-ce que ces technologies de pistage sont voués à se déployer ?

Aujourd’hui, il existe des systèmes de pistage qui sont tout aussi efficace et moins visibles que la vidéo-surveillance, comme l’exploitation des données de géolocalisation des téléphones mobiles par exemple. Quant aux technologies de reconnaissance faciale, elles sont très populaires notamment pour déverrouiller un téléphone mobile. À partir de là, il est devenu de plus en plus évident pour tout le monde de montrer son visage plutôt que de fournir un mot de passe… En outre, les gens publient assez facilement leur visage sur les réseaux sociaux par exemple. C’est ce qui explique qu’il n’y a pas d’appréhension contre ces technologies, elles font déjà partie de notre quotidien à tous.

Qu’en est-il des cadres légaux ?

Il semble que les cadres légaux qui entourent la reconnaissance faciale soient bien faibles. C’est comme la vidéosurveillance, on prévient les gens qu’ils sont filmés avec une mention lapidaire et bonne chance pour exercer un droit d’accès ou de suppression ! Il n’y a pas, pour l’instant, de cadre clair d’accès aux données biométriques existantes vous concernant… On ne sait pas non plus combien de temps elles sont conservées et qui y a accès. En la matière, j’ai toujours trouvé très étonnant que ce soit des agents municipaux, donc soumis aux pressions et aux humeurs du maire, qui soient en charge de visionner les écrans de vidéosurveillance… Pour moi, il faudrait que ce soit des fonctionnaires d’État et le visionnage devrait être effectué depuis une autre ville…

« C’est à la société de s’emparer de ces enjeux »

Donc il est à craindre que la reconnaissance automatique ne fasse qu’entériner des processus qui existent déjà manuellement aujourd’hui… Les verrous ne sont qu’humains finalement, c’est à la société de s’emparer de ces enjeux et de choisir quelles limites elle veut instaurer.

Quelles sont les dérives possibles ? 

On a vu circuler une étude affirmant qu’un algorithme était capable de détecter l’orientation sexuelle d’une personne à partir de sa photo. C’est du flan, cette étude n’est pas sérieuse mais l’affaire permet de rappeler que les algorithmes auront nos biais et nos travers : tout le monde essaie de deviner l’orientation sexuelle des gens rencontrés et se construit une sorte de radar… Les algorithmes feront la même chose, la question est de savoir si on l’accepte ou pas.

J’ai travaillé sur une algorithme qui devine l’âge par exemple, c’est beaucoup plus simple parce que la réalité du terrain est vérifiable. Notre algorithme était parvenu à être meilleur qu’un échantillon de personnes qui jouaient au jeu télévisé « devine mon âge. » Bon, ben on a été contactés par une association humanitaire qui voudrait l’utiliser pour reconnaître l’âge des enfants migrants isolés, car lorsqu’ils ont moins de 18 ans, ils bénéficient de l’accueil inconditionnel.

Et il est tout à fait envisageable qu’un algorithme cherche un jour à classer les résultats selon l’ethnie des gens par exemple ou qu’on devine leur pays d’origine…


#données

Activez les notifications pour être alerté des nouveaux articles publiés en lien avec ce sujet.

Voir tous les articles
Plus d'options