Inteligencia Artificial (IA)
Empresas de EEUU apuestan por IA más grande mientras China demuestra eficiencia con modelos más pequeños
Gianro Compagno
2026-04-28
5 min read
Alibaba ha sorprendido al mundo de la inteligencia artificial con el lanzamiento de Qwen3.6-27B, un modelo de lenguaje abierto que redefine lo que se espera de los modelos compactos. Hasta ahora, la compañía destacaba por Qwen3.5-397B-A17B, un modelo colosal con 397.000 millones de parámetros y un peso de 807 GB, lo que lo hacía poco accesible para la mayoría de usuarios. Sin embargo, el nuevo Qwen3.6-27B, en su versión cuantizada, reduce drásticamente el tamaño a menos de 17 GB, sin sacrificar rendimiento.
A diferencia de la tendencia actual hacia arquitecturas Mixture-of-Experts (MoE), donde solo una parte de los parámetros se activa en cada inferencia, Qwen3.6-27B es un modelo denso: utiliza sus 27.000 millones de parámetros en cada operación. Esto simplifica su uso, elimina la necesidad de configurar rutas de expertos y permite una cuantización más eficiente y predecible. Los resultados avalan esta apuesta.
En pruebas como SWE-bench Verified, referencia en tareas de programación, Qwen3.6-27B alcanza un 77,2%, superando al modelo de 397B, que logra un 76,2%. En Terminal-Bench 2.0, orientado a tareas en consola, el nuevo modelo obtiene un 59,3%, frente al 2,5% de su predecesor, igualando incluso a Claude Opus 4.5 de Anthropic, uno de los modelos comerciales más avanzados. Aunque estos datos provienen de Alibaba y aún falta verificación independiente, las primeras impresiones de la comunidad son muy positivas.
El propio equipo de Alibaba ha destacado el rendimiento de Qwen3.6-27B, situándolo por encima de su anterior buque insignia. Este reconocimiento interno subraya un cambio de paradigma: los modelos más pequeños pueden competir, e incluso superar, a los gigantes en tareas específicas.
Otra ventaja clave es su accesibilidad. Con solo 24 GB de VRAM, tarjetas como la RTX 3090 pueden ejecutar Qwen3.6-27B localmente con gran eficiencia, algo impensable con modelos más grandes. Aunque los modelos densos no rinden igual en equipos con memoria unificada como los MacBook, la posibilidad de ejecutar IA avanzada en hardware relativamente asequible es un avance notable.
Alibaba ya había mostrado su apuesta por modelos compactos con lanzamientos recientes de SLMs entre 0.8B y 9B de parámetros. El mercado de modelos pequeños se está dinamizando, con alternativas como Gemma 4 de Google, Phi-4 de Microsoft o Devstral 2 de Mistral, demostrando que la competencia también llega desde Occidente.
A pesar de su impresionante rendimiento, Qwen3.6-27B confirma que los modelos chinos de código abierto aún están, según expertos como Demis Hassabis, entre 6 y 12 meses detrás de los líderes de Anthropic, OpenAI o Google. Además, ejecutar estos modelos localmente requiere una inversión considerable en hardware. Para quienes buscan la máxima velocidad y eficiencia, los servicios comerciales en la nube siguen siendo la opción preferente, aunque la IA local gana terreno en privacidad y control.
Fuente: xataka.com