wǔ jiǎo dà lóu五角大楼duì对Anthropic:AIzài在wǔ lì武力yǔ与lún lǐ伦理zhī jiān之间
Bộ Quốc phòng Mỹ yêu cầu công ty AI Anthropic nới lỏng một số "hạn chế đạo đức" trên mô hình Claude trong hợp đồng quân sự, hạn chót là ngày 27 tháng 2 năm 2026.
Bộ Quốc phòng cũng cho biết nếu không thực hiện, có thể sẽ dùng biện pháp mạnh hơn, thậm chí phạt hợp đồng.
Anthropic ban đầu sử dụng quy tắc "AI theo hiến pháp" để Claude cố gắng không tham gia vào vũ khí gây chết người không có kiểm soát của con người, cũng không hỗ trợ giám sát quy mô lớn.
Nhưng quân đội cho rằng, miễn là là "mục đích quân sự hợp pháp", công cụ nên được sử dụng.
Vấn đề là: những gì pháp luật cho phép không nhất thiết phù hợp với giới hạn đạo đức mà công ty đặt ra.
Điều đáng lo hơn là, dù AI không trực tiếp khai hỏa, nó có thể phân tích tình báo nhanh hơn, chọn mục tiêu, rút ngắn thời gian suy nghĩ của con người, khiến quyết định trở nên cấp bách hơn và khó truy trách nhiệm hơn.
Hiện thế giới chưa có quy tắc quốc tế mạnh mẽ để quản lý những việc này.
Nếu các quốc gia và công ty liên tục hạ thấp giới hạn để cạnh tranh, đạo đức có thể trở thành "gánh nặng".
Cuộc xung đột này nhắc nhở chúng ta rằng AI không chỉ là công cụ mà còn ảnh hưởng đến an ninh và trật tự.
Tương lai cần có quy tắc rõ ràng hơn để đảm bảo các quyết định quan trọng vẫn do con người thực sự chịu trách nhiệm.