měi guó美国biān jìng边境de的rén gōng zhì néng人工智能yǔ与zhǒng zú qí shì种族歧视
Trí tuệ nhân tạo hiện được dùng ở nhiều nơi, và ở biên giới Mỹ, loại công nghệ này cũng ngày càng phổ biến.
Tuy nhiên, một số tổ chức nhân quyền nói rằng các hệ thống này thường bất công hơn đối với người nhập cư da đen và những người nhập cư da màu khác.
Ví dụ, các tháp giám sát và máy bay không người lái ở biên giới liên tục theo dõi con người, coi nhiều người đang tìm kiếm một cuộc sống an toàn như những người nguy hiểm, khiến họ bị đẩy vào những con đường nguy hiểm hơn và nguy cơ tử vong cũng cao hơn.
Ứng dụng CBP One trước đây cũng có vấn đề: đôi khi nó không nhận ra khuôn mặt của người có làn da sẫm màu, và không có bản dịch cho một số ngôn ngữ mà người nhập cư da đen thường dùng.
Sau khi vào Mỹ, một số hệ thống còn cho người nhập cư “điểm rủi ro” để quyết định ai sẽ bị giám sát nhiều hơn, nhưng các tiêu chí này không được công khai và rất khó khiếu nại.
Một số hệ thống AI cũng kiểm tra đơn xin tị nạn và bằng chứng, điều này có thể gây bất lợi cho những người không biết tiếng Anh hoặc có giấy tờ khá đặc biệt.
Nhiều tổ chức cho rằng khi Mỹ sử dụng AI, trước hết cần bảo đảm không có phân biệt chủng tộc, công khai các quy tắc, cho người bị ảnh hưởng biết lý do, và cũng cho họ có thể góp ý và khiếu nại.