měi guó美国biān jìng边境de的rén gōng zhì néng人工智能yǔ与zhǒng zú qí shì种族歧视
Искусственный интеллект сейчас используется во многих местах, и на границе США такие технологии тоже становятся всё более распространёнными.
Однако некоторые правозащитные организации говорят, что эти системы часто менее справедливы по отношению к чернокожим мигрантам и другим мигрантам небелого происхождения.
Например, наблюдательные башни и дроны на границе постоянно отслеживают людей, считая многих тех, кто ищет безопасную жизнь, опасными, из-за чего они вынуждены идти более опасными маршрутами, а риск смерти становится выше.
У ранее использовавшегося приложения CBP One тоже были проблемы: иногда оно не распознавало лица людей с тёмной кожей, а также не имело перевода на некоторые языки, которые часто используют чернокожие мигранты.
После въезда в США некоторые системы также присваивают мигрантам «оценку риска», чтобы решить, за кем нужно следить внимательнее, но эти критерии не являются публичными, и оспорить их очень трудно.
Некоторые системы ИИ также проверяют заявления о предоставлении убежища и доказательства, что может ставить в невыгодное положение людей, которые не говорят по-английски или чьи документы выглядят необычно.
Многие организации считают, что при использовании ИИ США сначала должны гарантировать отсутствие расовой дискриминации, сделать правила открытыми, объяснять причины тем, кого это затрагивает, и дать им возможность высказывать мнение и подавать апелляции.