IA y ética en tiempos de guerra: el conflicto que marca el futuro de la gobernanza tecnológica

Comparte en:

En enero de 2026, el secretario de Guerra de EE.UU., Pete Hegseth, estableció una directiva que requería contratos con empresas de inteligencia artificial (IA) sin restricciones de uso. Esta iniciativa llevó a un conflicto entre la empresa de IA Anthropic y el Departamento de Guerra, que ganó notoriedad a finales de febrero. El CEO de Anthropic, Dario Amodei, se mantuvo firme en sus posiciones, negándose a permitir que su modelo de IA, Claude, se usara para vigilancia interna masiva o para sistemas de armas autónomos. Ante la negativa, el gobierno estadounidense catalogó a Anthropic como una «empresa de riesgo» para la seguridad nacional, una etiqueta que hasta entonces se había reservado principalmente para competidores extranjeros como Huawei. Además, el presidente Trump instruyó a las agencias federales a cesar el uso de productos de Anthropic, mientras que el Pentágono prohibió a sus contratistas llevar a cabo negocios con la compañía. Esta situación subraya la creciente tensión entre la innovación en tecnologías de IA y las preocupaciones de seguridad nacional, planteando debate sobre los límites éticos y legales en el uso de esta tecnología. La posición de Anthropic destaca la importancia de establecer restricciones sobre el uso de IA en contextos militarizados y de vigilancia, cuestiones que se volverán cada vez más relevantes en la intersección de tecnología y política.


Comparte en:

Entradas Relacionadas