měi guó美国biān jìng边境de的rén gōng zhì néng人工智能yǔ与zhǒng zú qí shì种族歧视
La inteligencia artificial se usa ahora en muchos lugares, y en la frontera de Estados Unidos este tipo de tecnología también es cada vez más común.
Sin embargo, algunas organizaciones de derechos humanos dicen que estos sistemas suelen ser menos justos con los inmigrantes negros y otros inmigrantes de color.
Por ejemplo, las torres de vigilancia y los drones en la frontera siguen rastreando a las personas, tratando a muchas que buscan una vida segura como si fueran peligrosas, lo que las obliga a tomar rutas más peligrosas y aumenta su riesgo de muerte.
La aplicación CBP One que se usaba antes también tenía problemas: a veces no reconocía los rostros de las personas de piel oscura y no tenía traducciones para algunos idiomas que usan con frecuencia los inmigrantes negros.
Después de entrar en Estados Unidos, algunos sistemas también les dan a los inmigrantes una “puntuación de riesgo” para decidir a quién vigilar más, pero estos criterios no son públicos y es muy difícil impugnarlos.
Algunos sistemas de IA también revisan las solicitudes de asilo y las pruebas, lo que puede perjudicar a las personas que no hablan inglés o que tienen documentos poco comunes.
Muchos grupos creen que, cuando Estados Unidos use IA, primero debe garantizar que no haya discriminación racial, hacer públicas las reglas, explicarles a las personas afectadas los motivos y permitirles dar su opinión y presentar apelaciones.