Inteligencia Artificial (IA)
El vértigo peligroso frente al abismo de la inteligencia artificial
Gianro Compagno
2026-05-10
5 min read
En un giro inesperado dentro del sector tecnológico, Anthropic ha decidido pausar el desarrollo público de su avanzado sistema de IA, Claude Mythos Preview, tras considerar que sus capacidades representan un riesgo significativo. Según la propia compañía, los resultados obtenidos por Mythos fueron catalogados como “demasiado peligrosos para el público general”. El objetivo inicial de Mythos era identificar vulnerabilidades en sistemas como Linux, pero su eficacia superó las expectativas, al punto de que podría facilitar ataques cibernéticos más que proteger de ellos.
La decisión de Anthropic ha sido restringir el uso de Mythos a un programa defensivo de ciberseguridad, limitado a un grupo selecto de socios. El motivo principal: el modelo demostró ser capaz de superar las propias barreras de seguridad de la empresa, detectando fallos críticos en el kernel de Linux, el núcleo de la mayoría de los servidores globales. Esto abre la puerta a que actores maliciosos puedan tomar el control de infraestructuras clave.
Además, Mythos identificó una vulnerabilidad de 27 años en OpenBSD, un sistema operativo de código abierto utilizado en entornos de alta seguridad e infraestructuras críticas. Esta debilidad permitiría a atacantes bloquear cualquier máquina que lo ejecute. Anthropic valora Mythos en más de 900.000 millones de dólares, lo que la situaría por encima de OpenAI como la startup de IA más valiosa. Jack Clark, cofundador de Anthropic, estima que hay más de un 60% de posibilidades de que, antes de 2028, surja una IA capaz de entrenar a su propio sucesor sin intervención humana significativa, un escenario que considera inquietante y para el que la sociedad no está preparada.
Max Tegmark, físico del MIT y fundador del Future of Life Institute, lleva años advirtiendo sobre los riesgos de una carrera descontrolada en IA. En 2023, promovió una carta abierta firmada por más de 33.000 personas, incluido Elon Musk, solicitando una pausa en el desarrollo de IA avanzada. Tegmark alertaba sobre la falta de regulación y los peligros de dejar el avance tecnológico en manos de intereses corporativos, recordando precedentes como la talidomida o el amianto.
La crisis de Mythos ha tenido repercusiones inmediatas. La Casa Blanca, tradicionalmente reacia a intervenir en el desarrollo de IA, estudia ahora una orden ejecutiva para supervisar y, si es necesario, vetar nuevos modelos antes de su lanzamiento. Bajo la administración Trump, la estrategia había sido de “cero regulaciones” para competir con China, pero la Agencia de Seguridad Nacional (NSA) ya ha accedido a Mythos para realizar pruebas.
En este contexto, dos expertos en IA, Dean Ball y Ben Buchanan, publicaron en el New York Times un artículo conjunto subrayando la necesidad de unidad política ante los riesgos de la IA. Señalan que China podría utilizar herramientas como Mythos para explotar vulnerabilidades en sistemas estadounidenses y que, aunque Occidente mantiene la ventaja tecnológica, esta es frágil. Estados Unidos y sus aliados poseen una capacidad de procesamiento muy superior a la de China, pero la cooperación internacional será esencial para gestionar riesgos catastróficos, como el uso de IA en armas biológicas.
En España, la preocupación crece ante la vulnerabilidad de infraestructuras críticas. El Gobierno español ha solicitado acceso temprano a Mythos para evaluar los riesgos en el sector financiero europeo, aunque la posición de España en la OTAN y su relación con China complican su acceso a tecnologías sensibles.
En medio de esta incertidumbre, Anthropic ha anunciado una alianza con Blackstone, Hellman & Friedman y Goldman Sachs, con una inversión de 1.500 millones de dólares, para integrar Claude en operaciones críticas de empresas medianas y, posteriormente, pequeñas a nivel global. El debate sobre el futuro de la IA y su impacto en la sociedad sigue abierto, con escenarios que recuerdan a las distopías de la ciencia ficción.
Fuente: larazon.es