wǔ jiǎo dà lóu五角大楼duì对Anthropic:AIzài在wǔ lì武力yǔ与lún lǐ伦理zhī jiān之间
Le département de la Défense des États-Unis a demandé à la société d'IA Anthropic de relâcher certaines « restrictions éthiques » du modèle Claude dans les contrats militaires, avec une date limite fixée au 27 février 2026.
Le département de la Défense a également indiqué que s'ils ne s'y conformaient pas, des mesures plus strictes pourraient être prises, y compris la sanction du contrat.
Anthropic utilisait à l'origine des règles d'« IA constitutionnelle » pour que Claude évite autant que possible de participer à des armes létales sans contrôle humain et n'aide pas à la surveillance de masse.
Mais l'armée estime que tant qu'il s'agit d'une « utilisation militaire légale », l'outil doit pouvoir être utilisé.
Le problème est que ce qui est légal n'est pas forcément conforme aux limites éthiques fixées par l'entreprise.
Ce qui est encore plus inquiétant, c'est que même si l'IA ne tire pas directement, elle peut analyser les renseignements plus rapidement, sélectionner des cibles et réduire le temps de réflexion humaine, rendant les décisions plus urgentes et plus difficiles à rendre responsables.
Actuellement, il n'existe pas de règles internationales fortes pour réguler ces questions.
Si les pays et les entreprises continuent de baisser les restrictions pour rester compétitifs, l'éthique pourrait devenir un « frein ».
Ce conflit nous rappelle que l'IA n'est pas seulement un outil, elle influence aussi la sécurité et l'ordre.
À l'avenir, des règles plus claires sont nécessaires pour garantir que les décisions clés restent véritablement sous la responsabilité humaine.