měi guó美国biān jìng边境de的rén gōng zhì néng人工智能yǔ与zhǒng zú qí shì种族歧视
Künstliche Intelligenz wird heute an vielen Orten eingesetzt, und auch an der US-Grenze wird diese Technologie immer häufiger verwendet.
Einige Menschenrechtsorganisationen sagen jedoch, dass diese Systeme für schwarze Migranten und andere Migranten of Color oft unfairer sind.
Zum Beispiel verfolgen Überwachungstürme und Drohnen an der Grenze die Menschen ständig und behandeln viele, die ein sicheres Leben suchen, als gefährliche Personen. Dadurch werden sie auf noch gefährlichere Wege gedrängt, und das Risiko zu sterben steigt.
Auch die früher verwendete CBP-One-App hatte Probleme: Sie erkannte manchmal die Gesichter von Menschen mit dunkler Haut nicht und bot keine Übersetzungen für einige Sprachen an, die schwarze Migranten häufig benutzen.
Nach der Einreise in die USA geben einige Systeme Migranten außerdem einen „Risikowert“, um zu entscheiden, wer stärker überwacht werden soll. Diese Kriterien sind jedoch nicht öffentlich und nur sehr schwer anzufechten.
Einige KI-Systeme prüfen auch Asylanträge und Beweise, was Menschen benachteiligen kann, die kein Englisch sprechen oder deren Dokumente etwas ungewöhnlich sind.
Viele Gruppen sind der Ansicht, dass die USA beim Einsatz von KI zuerst sicherstellen sollten, dass es keine Rassendiskriminierung gibt, die Regeln öffentlich machen, den Betroffenen die Gründe erklären und ihnen ermöglichen, ihre Meinung zu äußern und Einspruch einzulegen.