L’intelligence artificielle en Europe : un risque accru pour les populations migrantes

L’intelligence artificielle en Europe : un risque accru pour les populations migrantes
À l’occasion du Sommet pour l’action sur l’intelligence artificielle qui se tient cette semaine à Paris, dirigeants politiques, chefs d’entreprise, chercheurs et représentants de la société civile se réunissent pour discuter des risques et des limites liés à l’utilisation de l’IA. Des biais discriminatoires et des pratiques abusives ont déjà été observés, notamment dans la gestion européenne de l’immigration.
Parmi les systèmes expérimentés au sein de l’Union européenne pour contrôler les individus et leurs déplacements, on trouve des détecteurs d’émotions pour identifier les mensonges dans un récit, des détecteurs d’accent pour déterminer l’origine d’une personne, ainsi que l’analyse des messages, des photos et des données de géolocalisation d’un smartphone pour vérifier une identité.
« Les migrations sont ici un laboratoire humain d’expérimentation technologique grandeur nature », résume Chloé Berthélémy, conseillère politique à l’EDRi (European Digital Rights), un réseau regroupant une cinquantaine d’ONG et d’experts en droits et libertés numériques. « Les gouvernements et les entreprises utilisent les environnements migratoires comme une phase de test pour leurs produits, pour leurs nouveaux systèmes de contrôle. »
Des détecteurs de mensonges aux frontières
L’un des projets les plus marquants est iBorderCtrl. Partiellement financé par des fonds européens, ce dispositif prévoyait le déploiement de détecteurs de mensonges basés sur l’analyse des émotions des individus entrant sur le sol européen. « Les visages des personnes, en particulier des demandeurs d’asile, étaient analysés pour détecter s’ils mentaient. Si le système considérait la personne comme suspecte, les questions devenaient de plus en plus complexes, menant éventuellement à un contrôle approfondi par un agent humain », explique-t-elle.
Expérimenté dans les aéroports de Grèce, de Hongrie et de Lettonie, ce système ne serait officiellement plus utilisé, mais l’EDRi émet des doutes. « Dans ce milieu, l’opacité est courante, et il est très difficile d’obtenir des informations. Il est donc compliqué de dire si cette technologie est encore utilisée, mais dans tous les cas, l’Union européenne souhaite mettre en place ce type de systèmes aux frontières. »
Drones de surveillance, caméras thermiques, capteurs divers : les technologies de surveillance représentent la partie visible de l’iceberg de l’intelligence artificielle. Pour que ces systèmes fonctionnent, ils ont besoin de carburant : les données.
La multiplication des bases de données
L’Europe dispose de plusieurs bases de données en matière d’immigration. La plus connue, Eurodac – le fichier des empreintes digitales – vise à enregistrer les demandeurs d’asile appréhendés lors d’un passage irrégulier de la frontière. Créée en 2002, la nouvelle réforme européenne sur l’asile étend considérablement son champ d’action.
En plus des empreintes, on y trouve aujourd’hui des photos pour alimenter les systèmes de reconnaissance faciale. Les conditions d’accès à Eurodac pour les autorités policières ont également été assouplies. « Elles pourront le consulter pour des enquêtes criminelles, ce qui implique une présomption d’illégalité envers les demandeurs d’asile et les réfugiés », conclut Chloé Berthélémy.
Ces collectes d’informations négligent un principe clé : le consentement, condition sine qua non dans l’UE pour le traitement des données personnelles, clairement encadré par le Règlement général sur la protection des données (RGPD). Les politiques migratoires et de contrôle aux frontières semblent donc faire figure d’exception. Lorsqu’une personne pose le pied sur le sol européen, ses empreintes sont collectées, qu’elle soit d’accord ou non. Selon l’EDRi, « l’Union européenne est en train de construire deux standards différents : un pour ceux qui ont les bons papiers, le bon statut migratoire, et un autre pour ceux qui ne les ont pas ».
Ce nouveau cadre juridique a d’ailleurs été contesté en justice. En 2021, en Allemagne, la GFF, la Société des droits civils (qui fait partie du réseau de l’EDRi), a triomphé de l’Office allemand de l’immigration, condamné pour pratiques disproportionnées. Textos, données de géolocalisation, contacts, historique des appels et autres fichiers personnels étaient extraits des smartphones des demandeurs d’asile à la recherche de preuves d’identité.
L’automatisation des décisions
Une fois les frontières franchies, l’intelligence artificielle continue de cibler les étrangers, notamment à travers les algorithmes. Examiner les demandes de visa ou de naturalisation, attribuer un hébergement, faciliter l’organisation des expulsions, prédire les flux migratoires : la multiplication des usages fait craindre aux chercheurs une administration sans guichet, sans visage humain, entièrement automatisée. Problème : ces systèmes intelligents commettent encore trop d’erreurs, et leurs décisions sont loin d’être objectives.
En 2023, l’association La Quadrature du Net révèle que le code source de la Caisse nationale d’allocations familiales (Cnaf) attribue un « score de risque » à chaque allocataire. La valeur de ce score est ensuite utilisée pour sélectionner ceux qui feront l’objet d’un contrôle. Parmi les critères de calcul : avoir de faibles revenus, être au chômage ou être né en dehors de l’Union européenne. « En assimilant la précarité et le soupçon de fraude, l’algorithme participe à une politique de stigmatisation et de maltraitance institutionnelle des plus défavorisés », estime Anna Sibley, chargée d’étude au GISTI. Quinze ONG ont d’ailleurs attaqué cet algorithme devant le Conseil d’État en octobre 2024 au nom du droit à la protection des données personnelles et du principe de non-discrimination.