Si alguien te hubiera dicho hace unos años que en 2026 estaríamos jugando a videojuegos que no existen hasta que tú, por así decirlo, «se los pides a la IA«, ¿te lo habrías creído? Pues aquí estamos. Ha pasado. Ya se crean mundos jugables con la inteligencia artificial en cuestión de horas. Da miedo… Y lo que se nos viene encima no es solo una nueva herramienta para hacer texturas más bonitas; es un cambio de paradigma que amenaza con redefinir qué significa «crear» y qué significa «jugar».
Esta semana ha sido, sin exagerar, una de las más locas que recuerdo en la industria, y no se le está dando el bombo que se merece, porque es algo vital para los videojuegos. Tenemos sobre la mesa dos IA «del futuro»: la de pago, pulida y elitista de Google con su Project Genie, y la respuesta salvaje, imperfecta y de código abierto que nos llega desde China con LingBot-World.
Sentémonos a hablar. Porque aunque la tecnología es magnífica e infinita, los videojuegos no solo son pintar polígonos.
Google Genie 3
Empecemos por el titular gordo. Google DeepMind ha soltado la bomba con Project Genie, impulsado por su modelo Genie 3. Hablando en castellano, si tienes la cartera preparada (porque la broma del plan IA Ultra sale a 250 eurazos al mes), puedes entrar en Google Labs y pedirle que cree un mundo. Sí, como el que pide pan en una panadería.

No hablo de generar una textura o algo simple. Hablo de decirle a la IA: «Quiero un plataformas estilo Zelda en un bosque cyberpunk», y que la IA te escupa un entorno interactivo en alta definición (1280x720p a 24fps, que oye, para ser generado en tiempo real es una barbaridad). Y lo juegas. Tienes un personaje, te mueves con las flechas, saltas, y la física reacciona.
Un redactor de The Verge ya ha estado clonando Marios y Zeldas como quien hace churros. Es impresionante, porque pasamos del «texto a vídeo» al «texto a mundo jugable». Google lo vende como un paso hacia la AGI (Inteligencia Artificial General), y no les falta razón. Predecir cómo evoluciona un mundo frame a frame según tus inputs es magia negra.
La respuesta de china: LingBot-World
Pero claro, vivimos en la era de quien no corre, vuela. Google no había terminado de saborear su anuncio cuando, ni 48 horas después, la comunidad Open Source dijo: «Sujétame el teclado» —he sido creativo con esta frase, sed sinceros 😉 —.
Desde China, utilizando como base el modelo Wan2.2 de Alibaba, apareció LingBot-World. ¿La diferencia? Es gratis y de código abierto.
Vale, seamos honestos: va a 16 fps. A veces parece un pase de diapositivas rápido. Pero, amigos, es una IA generando cada píxel en tiempo real, calculando físicas y permitiendo interacción sin costarnos un euro. Y lo más fuerte: sus creadores aseguran que tiene mejor «memoria espacial» que la de Google. Si dejas un objeto y te vas, al volver 60 segundos después, el objeto sigue ahí. Parece una tontería, pero en el mundo de la IA generativa, que las cosas no desaparezcan cuando dejas de mirarlas es el Santo Grial.

Las redes sociales (el mix tóxico y genial de X/Twitter y Reddit) arden. Hay gente quejándose de los bajos FPS o de los glitches visuales. A esa gente les digo lo mismo que a los que se reían de los seis dedos en las manos de las primeras IAs de imagen hace un tiempo: no estáis entendiendo nada. No miréis la foto fija, mirad la proyección. La extrapolación es de locos. Si esto es lo que tenemos hoy, ¿qué tendremos en 2030?
Con todo este hype, las acciones de Unity cayeron un 20%, y otras empresas de videojuegos un 10% aproximadamente. Los inversores, que muchas veces no han tocado un mando en su vida, entraron en pánico pensando que sus motores gráficos ya no valían nada. Qué volátil es el mercado.
El verdadero valor de un motor gráfico con unos buenos desarrolladores
Unity, Unreal o Godot no valen millones porque rendericen cubos. Valen millones por la infraestructura invisible. Valen dinero porque te aseguran que si tu personaje salta en el frame 47, aterrizará donde debe, y que el juego no crasheará porque sí. Valen dinero por las herramientas de debugging (quitar los bugs o glitches de un videojuego).
Genie 3 y LingBot son capaces de crear un escenario visualmente brutal en segundos. Pero, de momento, no pueden explicarte por qué tu personaje acaba de atravesar el suelo.

Y ahí llegamos al verdadero problema de los videojuegos en este futuro automatizado digno de «Skynet». El cuello de botella del desarrollo nunca fue crear assets. «Picar piedra» haciendo árboles o rocas es laborioso, sí, pero es la parte fácil. Lo difícil, lo que separa un asset flip de Steam de una obra maestra, es la intencionalidad.
Un videojuego no es un espacio; es una experiencia. Es calibrar una curva de dificultad para que te sientas frustrado pero motivado. Es escribir un diálogo que revele la personalidad de un villano sin cortar el ritmo del gameplay. Es diseñar un sistema de combate justo. La IA actual te crea el lienzo, pero el lienzo nunca ha sido lo difícil de la pintura. Lo difícil es saber qué pintar para que el que mira sienta algo —qué creativo estoy hoy, ¿verdad?—.
La memoria de pez de las IA
Hay un fallo técnico común en estas IAs actuales: la falta de permanencia, y no hablo de la que tienes con tu compañía de Internet, si no en su memoria. En los vídeos de Genie 3, a veces ves una escalera. Te giras, avanzas, vuelves a mirar atrás… y la escalera ya no está. La IA ha «alucinado» una geometría nueva porque ha olvidado la anterior.
Imagínate jugar a Dark Souls desde el camino hacia el jefe final Manus (COMO ODIÉ ESE COMBATE), que está lleno de humanidades, desaparece porque la IA decidió regenerar el entorno. Sería injugable. LingBot promete 60 segundos de memoria, que es un avance, pero sigue siendo insuficiente para una experiencia narrativa coherente.
Sin embargo, no nos engañemos: esto se va a solucionar. Igual que se arreglaron los dedos en las imágenes.
El futuro de todo esto
Aquí es donde entra el miedo existencial, la «chicha» del debate. Estamos ante la puerta de un futuro donde la barrera técnica desaparece. Un desarrollador indie podrá enseñarle a un inversor una demo jugable de su idea en una tarde, sin tener que saber modelar en 3D. Eso democratiza la creación y baja costes.
Pero, ¿y si miramos a 10 o 15 años vista? Como decían en Reddit, vamos hacia un modelo de medios fluidos. Una novela se convierte en película, y esa película se convierte en videojuego en tiempo real, todo generado por una IA que interpola datos al vuelo.

¿Dónde queda ahí la idea humana? Si en pocas horas cualquiera puede crear un mundo fotorrealista con cualquier idea que se nos venga a la cabeza, ¿perderemos el valor de la «visión de autor»?
El riesgo real no es que la IA sustituya a los programadores (aunque cambiará su trabajo radicalmente), sino que nos inunde de contenido infinito, espectacular, pero vacío —una paradoja del estado actual de Netflix: mucho contenido pero pobres ideas—. Mundos preciosos donde no hay ninguna razón humana para quedarse. La IA puede imitar el estilo de Kojima o de Miyamoto, pero, ¿puede entender la subversión de las mecánicas que hace el genio japonés o la diversión pura que busca el creador de Mario?
De momento, la respuesta es no. La IA genera, pero no diseña. Simula, pero no siente.
Estamos en un momento «Kodak». La fotografía digital ha llegado. Ahora toca ver quién aprende a usar la cámara para hacer arte y quién se conforma con disparar en automático. Los mundos virtuales están aquí al lado, pero el alma de los videojuegos… esa, por suerte, todavía tenemos que ponerla nosotros.
Por ahora.

