IA y ética en tiempos de guerra: el conflicto que marca el futuro de la gobernanza tecnológica
En enero de 2026, el secretario de Guerra de EE.UU., Pete Hegseth, estableció una directiva que requería contratos con empresas de inteligencia artificial (IA) sin restricciones de uso. Esta iniciativa llevó a un conflicto entre la empresa de IA Anthropic y el Departamento de Guerra, que ganó notoriedad a finales de febrero. El CEO de Anthropic, Dario Amodei, se mantuvo firme en sus posiciones, negándose a permitir que su modelo de IA, Claude, se usara para vigilancia interna masiva o para sistemas de armas autónomos. Ante la negativa, el gobierno estadounidense catalogó a Anthropic como una «empresa de riesgo» para la seguridad nacional, una etiqueta que hasta entonces se había reservado principalmente para competidores extranjeros como Huawei. Además, el presidente Trump instruyó a las agencias federales a cesar el uso de productos de Anthropic, mientras que el Pentágono prohibió a sus contratistas llevar a cabo negocios con la compañía. Esta situación subraya la creciente tensión entre la innovación en tecnologías de IA y las preocupaciones de seguridad nacional, planteando debate sobre los límites éticos y legales en el uso de esta tecnología. La posición de Anthropic destaca la importancia de establecer restricciones sobre el uso de IA en contextos militarizados y de vigilancia, cuestiones que se volverán cada vez más relevantes en la intersección de tecnología y política.