měi guó美国biān jìng边境de的rén gōng zhì néng人工智能yǔ与zhǒng zú qí shì种族歧视
인공지능은 이제 여러 곳에서 사용되고 있으며, 미국 국경에서도 이런 기술이 점점 더 많이 쓰이고 있습니다.
하지만 일부 인권단체는 이런 시스템이 흑인 이민자와 다른 유색인종 이민자들에게 더 불공정한 경우가 많다고 말합니다.
예를 들어, 국경의 감시탑과 드론은 사람들을 계속 추적하며, 안전한 삶을 찾는 많은 사람들을 위험한 사람처럼 취급합니다. 그 결과 이들은 더 위험한 길로 몰리고, 사망 위험도 더 높아집니다.
이전에 사용되던 CBP One 앱에도 문제가 있었습니다. 피부색이 어두운 사람의 얼굴을 인식하지 못하는 경우가 있었고, 흑인 이민자들이 자주 사용하는 일부 언어의 번역도 없었습니다.
미국에 들어온 뒤에도 일부 시스템은 이민자에게 ‘위험 점수’를 매겨 누구를 더 감시할지 결정하지만, 이런 기준은 공개되어 있지 않고 이의를 제기하기도 매우 어렵습니다.
또 어떤 인공지능은 망명 신청과 증거를 검토하는데, 영어를 못 하거나 서류가 조금 특이한 사람들에게 불리하게 작용할 수 있습니다.
많은 단체는 미국이 인공지능을 사용할 때 먼저 인종차별이 없도록 보장하고, 규칙을 공개하며, 영향을 받는 사람들에게 이유를 알려 주고, 의견을 내거나 이의를 제기할 수 있게 해야 한다고 생각합니다.