Grok y Gemini: Analizando la ideología detrás de las inteligencias artificiales
    Inteligencia Artificial (IA)

    Grok y Gemini: Analizando la ideología detrás de las inteligencias artificiales

    Paloma Firgaira
    2026-03-12
    5 min read
    La expansión de las Inteligencias Artificiales ha abierto un debate crucial: ¿pueden estas herramientas tener una orientación política propia? Actualmente, más de mil millones de personas recurren a la IA para informarse, trabajar o incluso hacer trampas en exámenes. Según datos de AP a finales de 2025, cerca del 60% de los adultos en Estados Unidos ya utilizan sistemas de IA como fuente principal de información, desplazando a referentes como Google o Wikipedia. Este cambio, más allá de juicios de valor, transforma radicalmente la manera en que accedemos al conocimiento y plantea una cuestión relevante: ¿existe un sesgo ideológico en las IAs? El tema ha cobrado fuerza tras el lanzamiento de Grok, la IA de Elon Musk, y su enciclopedia Grokipedia, ambas alimentadas exclusivamente por inteligencia artificial. En sus primeros días, Grokipedia ofrecía datos que iban desde lo sorprendente hasta lo inverosímil. Musk ha asegurado que Grok será la única IA “no woke” del mercado. Sin embargo, otras plataformas también han generado controversia. DeepSeek, desarrollada en China, ha evitado responder sobre temas sensibles para el régimen, como las muertes durante la Revolución Cultural o los hechos de Tiananmen en 1989. Gemini, por otro lado, ha sido señalada por un supuesto sesgo progresista. El investigador David Rozado ha estudiado estos sesgos en sus trabajos “The Political Preferences of LLMs” (2024) y “Measuring Political Preferences in AI Systems - An Integrative Approach” (2025). Sus conclusiones son claras: la mayoría de las IAs tienden hacia posiciones de centroizquierda y evitan los extremos. ChatGPT y Gemini suelen ofrecer respuestas alineadas con la centroizquierda, mientras que Grok se inclina hacia posturas consideradas “libertarias” en Estados Unidos. Las IAs funcionan a partir de modelos de lenguaje de gran tamaño (LLM), entrenados con enormes volúmenes de datos, conversaciones y textos para captar matices y reproducir razonamientos humanos. No piensan por sí mismas, sino que identifican patrones y generan respuestas coherentes según su entrenamiento. Por tanto, el tipo de información y las directrices de los programadores influyen directamente en sus respuestas. Los desarrolladores y testers proporcionan retroalimentación y establecen prioridades en las fuentes de información. Así, la IA tiende a replicar los sesgos presentes en sus datos de entrenamiento o en las instrucciones recibidas. Esto implica un riesgo: al priorizar ciertas fuentes y descartar otras, las IAs pueden omitir información relevante, no por intención, sino por diseño. En consecuencia, las IAs pueden llegar a excluir por completo ciertos conocimientos si estos no encajan con los parámetros iniciales de programación. No se trata de censura tradicional, sino de una selección algorítmica que prioriza la coherencia interna sobre la verdad absoluta. El peligro radica en que, al filtrar información, las IAs pueden moldear la memoria colectiva y la interpretación de la historia y la cultura. Las decisiones técnicas de programación se convierten, en última instancia, en decisiones sobre qué aspectos de nuestra cultura y pasado permanecerán en la memoria digital. Fuente: larazon.es
    Paloma Firgaira

    Paloma Firgaira

    CEO

    Con más de 20 años de experiencia, Paloma es una ejecutiva flexible y ágil que sobresale implementando estrategias adaptadas a cada situación. Su MBA en Administración de Empresas y experiencia como Experta en IA y Automatización fortalecen su liderazgo y pensamiento estratégico. Su eficiencia en la planificación de tareas y rápida adaptación al cambio contribuyen positivamente a su trabajo. Con sólidas habilidades de liderazgo e interpersonales, tiene un historial comprobado en gestión financiera, planificación estratégica y desarrollo de equipos.