El cinismo detrás de los líderes de la inteligencia artificial: una mirada crítica
    Inteligencia Artificial (IA)

    El cinismo detrás de los líderes de la inteligencia artificial: una mirada crítica

    Paloma Firgaira
    2026-03-15
    5 min read
    La reciente controversia entre Anthropic, empresa de inteligencia artificial, y la Administración Trump ha generado un intenso debate en el sector tecnológico y político estadounidense. El conflicto se originó cuando Anthropic se negó a permitir que su IA fuera utilizada para vigilancia masiva o el desarrollo de armas autónomas letales, conocidas como ‘robots asesinos’. Como respuesta, la Casa Blanca canceló contratos millonarios con el Pentágono y prohibió el uso de la tecnología de Anthropic en el Ejército y entre sus contratistas. Anthropic fue fundada en 2021 como una escisión de OpenAI, impulsada por diferencias sobre el rumbo ético y técnico de la IA. Entre sus fundadores destaca Dario Amodei, actual CEO, quien previamente fue una figura clave en el desarrollo de ChatGPT. El conflicto estalló antes de la intervención militar de EE.UU. e Israel en Irán, cuando el secretario de Defensa, Pete Hegseth, rechazó las cláusulas éticas que Amodei intentó incluir en los contratos con el Ejército. Hegseth, conocido por su postura ultraconservadora, presionó para prohibir el uso de Anthropic en toda la administración, amparándose en una ley de la Guerra Fría. La Casa Blanca declaró a Anthropic como un riesgo para la cadena de suministro y la seguridad nacional, otorgando seis meses para que el Ejército deje de usar Claude, el modelo de IA de la compañía. Esta decisión afecta no solo a los contratos directos, sino también a grandes tecnológicas como Amazon, Microsoft, Google y Oracle, que integran Claude en sus servicios. Aunque OpenAI y Google son más conocidas en el ámbito de consumo, Claude tiene una fuerte presencia en el sector corporativo y gubernamental, con una cuota de mercado cercana al 40%. La medida ha generado inquietud en Silicon Valley, cuyos equipos legales han intentado limitar el alcance de la prohibición a usos militares, permitiendo que Anthropic siga operando en el sector civil. Sin embargo, agencias federales como el Tesoro y Salud ya han anunciado que dejarán de utilizar Claude. El Ejército enfrenta ahora un periodo de incertidumbre, ya que Claude está ampliamente implementado y las alternativas actuales presentan dudas. Grok, de xAI (Elon Musk), fue autorizado recientemente, pero ha mostrado fallos significativos, mientras que el modelo de OpenAI aún no está listo para aplicaciones militares, aunque su CEO, Sam Altman, firmó un acuerdo con el Pentágono el mismo día que estalló la polémica. Trump ha utilizado la legislación de forma controvertida, como ya hizo con los aranceles, y Amodei ha recurrido a los tribunales para impugnar la calificación de Anthropic como amenaza, argumentando que la ley fue diseñada para empresas extranjeras sospechosas de espionaje. La decisión ha sido criticada tanto por demócratas como por republicanos y expertos militares, que consideran prematuro el uso de IA en armas autónomas. Incluso se produjo la dimisión de la responsable de robótica de OpenAI tras el acuerdo con el Pentágono. El enfrentamiento entre Amodei y Trump trasciende lo tecnológico: para Trump, Anthropic representa una IA “woke”, mientras que OpenAI es vista como afín a su agenda, tras recibir una donación de 25 millones de dólares de su presidente. Aunque Amodei es presentado como defensor de la IA ética, ha impulsado su desarrollo acelerado y, según la revista Time, es uno de los grandes arquitectos de la IA actual. Sin embargo, él mismo ha reconocido que la IA no garantiza la promoción de la democracia o la paz, y ha admitido la posibilidad de aceptar inversiones de países como Emiratos Árabes o Catar, aunque eso beneficie a regímenes autoritarios. En definitiva, el debate sobre la ética y el poder en la IA sigue abierto, con protagonistas que, lejos de ser ejemplares, reflejan las contradicciones y dilemas del sector. (Fuente: publico.es)
    Paloma Firgaira

    Paloma Firgaira

    CEO

    Con más de 20 años de experiencia, Paloma es una ejecutiva flexible y ágil que sobresale implementando estrategias adaptadas a cada situación. Su MBA en Administración de Empresas y experiencia como Experta en IA y Automatización fortalecen su liderazgo y pensamiento estratégico. Su eficiencia en la planificación de tareas y rápida adaptación al cambio contribuyen positivamente a su trabajo. Con sólidas habilidades de liderazgo e interpersonales, tiene un historial comprobado en gestión financiera, planificación estratégica y desarrollo de equipos.