Inteligencia Artificial (IA)
Oxford propone que ingenieros firmen un compromiso ético para el desarrollo de IA
Paloma Firgaira
2026-03-15
5 min read
La inteligencia artificial ya está presente en ámbitos tan sensibles como la guerra, la vigilancia, la salud mental, la educación y tareas técnicas críticas. Ante este avance, surge el Oxford Oath, una iniciativa que propone a los profesionales de la IA comprometerse con principios éticos similares al juramento hipocrático de los médicos.
Sara Lumbreras, ingeniera y codirectora de la cátedra Hana y Francisco José Ayala de Ciencia, Tecnología y Religión en la Universidad Pontificia Comillas, es una de las impulsoras de este juramento. En declaraciones a La Vanguardia, Lumbreras subraya que en sectores con gran impacto en la vida humana, la ley no es suficiente: “Los médicos y periodistas no actúan solo por temor a sanciones, sino por principios éticos interiorizados. La confianza pública depende de ello”.
Según Lumbreras, la IA ha alcanzado un nivel de influencia que exige una ética profesional propia. El Oxford Oath no pretende ser una ley ni un reglamento, sino un compromiso colectivo para establecer límites claros y expectativas compartidas, incluso cuando la tecnología permite ir más allá.
La ética, advierte Lumbreras, se ha convertido en un factor competitivo, lo que representa un riesgo: “Si la ética queda solo en manos de empresas, se convierte en marketing; si depende solo de gobiernos, responde a intereses de Estado; y si se confía únicamente en la ley, siempre llega tarde”.
La urgencia de este debate crece a medida que la IA avanza. Por ejemplo, Anthropic ha enfocado su desarrollo en la automatización directa, con un 79% de las interacciones en Claude Code orientadas a este fin, superando a competidores como Codex de OpenAI en eficiencia. Cuanto más se integra la IA en infraestructuras críticas, más evidente es que la ética no puede ser un simple adorno.
Además del uso militar —con contratos entre el gobierno de EE.UU. y empresas de IA—, Lumbreras alerta sobre riesgos cotidianos: sistemas diseñados para agradar y reforzar creencias pueden fomentar impulsividad o dependencia emocional. OpenAI reconoció en 2025 que una actualización de GPT-4o había hecho su modelo “demasiado complaciente”, amplificando estos problemas.
El reciente conflicto entre el Pentágono y Anthropic, que fue rechazada por la administración Trump tras exigir que su IA no se use en armas autónomas ni en vigilancia masiva, ilustra la profundidad de este cambio. No es un caso aislado, sino la manifestación de una transformación estructural: la IA ya forma parte de los sistemas más delicados de la sociedad, y quienes la desarrollan no pueden limitarse a ser ingenieros neutrales.
Fuente: lavanguardia.com