měi guó美国biān jìng边境de的rén gōng zhì néng人工智能yǔ与zhǒng zú qí shì种族歧视
L’intelligence artificielle est maintenant utilisée dans de nombreux endroits, et à la frontière américaine, ce type de technologie devient aussi de plus en plus courant.
Cependant, certaines organisations de défense des droits humains disent que ces systèmes sont souvent moins équitables envers les migrants noirs et les autres migrants de couleur.
Par exemple, les tours de surveillance et les drones à la frontière suivent les personnes en permanence, traitant beaucoup de gens qui cherchent une vie sûre comme des personnes dangereuses, ce qui les pousse à emprunter des routes plus risquées et augmente leur risque de mort.
L’application CBP One utilisée auparavant avait aussi des problèmes : elle ne reconnaissait parfois pas les visages des personnes à la peau foncée, et elle ne proposait pas de traduction pour certaines langues couramment utilisées par les migrants noirs.
Après leur entrée aux États-Unis, certains systèmes attribuent aussi aux migrants un « score de risque » pour décider qui doit être davantage surveillé, mais ces critères ne sont pas publics et il est très difficile de les contester.
Certains systèmes d’IA examinent aussi les demandes d’asile et les preuves, ce qui peut désavantager les personnes qui ne parlent pas anglais ou qui ont des documents un peu particuliers.
De nombreux groupes estiment que, lorsque les États-Unis utilisent l’IA, ils devraient d’abord garantir l’absence de discrimination raciale, rendre les règles publiques, expliquer les raisons aux personnes concernées et leur permettre de donner leur avis et de faire appel.