wǔ jiǎo dà lóu五角大楼duì对Anthropic:AIzài在wǔ lì武力yǔ与lún lǐ伦理zhī jiān之间
Министерство обороны США потребовало от компании Anthropic ослабить некоторые «этические ограничения» модели Claude в военных контрактах, крайний срок — 27 февраля 2026 года.
Министерство обороны также заявило, что в случае невыполнения могут быть приняты более жесткие меры, вплоть до наказания по контракту.
Изначально Anthropic использовала правила «конституционного ИИ», чтобы Claude по возможности не участвовал в управлении смертоносным оружием без контроля человека и не помогал массовому наблюдению.
Однако военные считают, что если это «законное военное применение», инструмент должен быть доступен.
Проблема в том, что то, что разрешено законом, не всегда соответствует этическим границам, установленным компанией.
Еще более тревожно то, что даже если ИИ не стреляет напрямую, он может быстрее анализировать разведданные, выбирать цели и сокращать время на размышления человека, делая решения более срочными и сложными для привлечения к ответственности.
В настоящее время нет сильных международных правил для регулирования этих вопросов.
Если страны и компании будут постоянно снижать ограничения ради конкуренции, этика может стать «обузой».
Этот конфликт напоминает нам, что ИИ — это не просто инструмент, он также влияет на безопасность и порядок.
В будущем нужны более четкие правила, чтобы гарантировать, что ключевые решения по-прежнему принимаются под настоящей человеческой ответственностью.