wǔ jiǎo dà lóu五角大楼duì对Anthropic:AIzài在wǔ lì武力yǔ与lún lǐ伦理zhī jiān之间
El Departamento de Defensa de EE.UU. ha pedido a la empresa de IA Anthropic que relaje algunas de las "restricciones éticas" del modelo Claude en contratos militares, con fecha límite el 27 de febrero de 2026.
El Departamento de Defensa también indicó que si no se cumple, podrían tomar medidas más duras, incluso sancionar el contrato.
Anthropic originalmente usaba reglas de "IA constitucional" para que Claude evitara participar en armas letales sin control humano y no ayudara en la vigilancia masiva.
Pero el ejército considera que mientras sea un "uso militar legal", la herramienta debería poder usarse.
El problema es que lo que la ley permite no siempre coincide con los límites éticos establecidos por la empresa.
Lo que preocupa más es que, aunque la IA no dispare directamente, puede analizar inteligencia más rápido, seleccionar objetivos y reducir el tiempo de pensamiento humano, haciendo que las decisiones sean más urgentes y difíciles de responsabilizar.
Actualmente no existen reglas internacionales fuertes para regular estos asuntos.
Si los países y empresas siguen bajando las restricciones para competir, la ética podría verse como un "obstáculo."
Este conflicto nos recuerda que la IA no es solo una herramienta, sino que también afecta la seguridad y el orden.
En el futuro se necesitan reglas más claras para garantizar que las decisiones clave sigan siendo responsabilidad real de los humanos.