wǔ jiǎo dà lóu五角大楼duì对Anthropic:AIzài在wǔ lì武力yǔ与lún lǐ伦理zhī jiān之间
Departemen Pertahanan AS meminta perusahaan AI Anthropic untuk melonggarkan beberapa "batasan etika" pada model Claude dalam kontrak militer, dengan batas waktu 27 Februari 2026.
Departemen Pertahanan juga menyatakan bahwa jika tidak dilakukan, mereka mungkin akan mengambil tindakan yang lebih tegas, termasuk menghukum kontrak.
Anthropic awalnya menggunakan aturan "AI konstitusional" agar Claude sebisa mungkin tidak terlibat dalam senjata mematikan tanpa kontrol manusia dan tidak membantu pengawasan massal.
Namun militer berpendapat bahwa selama itu "penggunaan militer yang sah," alat tersebut harus bisa digunakan.
Masalahnya adalah apa yang diizinkan secara hukum belum tentu sesuai dengan batasan etika yang ditetapkan perusahaan.
Yang lebih mengkhawatirkan adalah, meskipun AI tidak langsung menembak, AI dapat menganalisis intelijen lebih cepat, memilih target, dan memperpendek waktu berpikir manusia, membuat keputusan menjadi lebih mendesak dan sulit untuk dipertanggungjawabkan.
Saat ini belum ada aturan internasional yang kuat untuk mengatur hal-hal ini.
Jika negara dan perusahaan terus menurunkan batasan demi kompetisi, etika bisa dianggap sebagai "hambatan."
Konflik ini mengingatkan kita bahwa AI bukan hanya alat, tetapi juga memengaruhi keamanan dan ketertiban.
Di masa depan, diperlukan aturan yang lebih jelas untuk memastikan keputusan penting tetap benar-benar menjadi tanggung jawab manusia.