Cine y videojuegos: la historia de una influencia mutua que transformó ambas industrias
Hay una idea que durante décadas se repitió como si fuera una verdad absoluta: los videojuegos y el cine son mundos separados. El cine era arte, cultura, espectáculo. Los videojuegos eran entretenimiento infantil, algo menor. Esa separación, si es que alguna vez fue real, dejó de existir hace mucho tiempo.
Lo que ha ocurrido entre estas dos industrias durante las últimas tres décadas es una historia de influencia cruzada que ha cambiado la forma en que se crean tanto películas como videojuegos. Los juegos quisieron parecerse al cine. Lo consiguieron. Y entonces, el cine empezó a usar las herramientas que los videojuegos habían creado para lograrlo.
Esta es esa historia.
Contexto: La escala de la industria (Indie vs AAA)
Antes de sumergirnos en la evolución técnica, es fundamental entender en qué punto se encuentra la industria hoy. El cine y los videojuegos no solo comparten talento, sino también presupuestos astronómicos. En este vídeo de mi canal secundario, Leedeo Station, analizo precisamente esa brecha entre los proyectos independientes y las superproducciones que hoy miran de tú a tú a Hollywood:
Los primeros pasos: cuando los juegos descubrieron que querían contar historias
En los años 70 y 80, los videojuegos no tenían mucho espacio para contar historias. Las limitaciones técnicas eran enormes: un cartucho podía almacenar apenas unos pocos kilobytes de información. Con eso había que meter los gráficos, el sonido, la lógica del juego y todo lo demás. No quedaba sitio para guiones elaborados.
Pero incluso en esa época, la influencia del cine ya estaba ahí. Donkey Kong (1981) fue uno de los primeros juegos arcade en presentar algo parecido a una narrativa visual: un gorila secuestra a una mujer, un personaje (que más tarde se llamaría Mario) va a rescatarla. Era simple, pero estaba contando una historia. Y esa historia bebía directamente del cine, del arquetipo del héroe que rescata a la damisela, presente en el cine desde sus orígenes.
Los juegos de Star Wars intentaban recrear la experiencia de las películas dentro de las limitaciones de la época. Las aventuras gráficas de LucasArts (la división de videojuegos de Lucasfilm, la productora de George Lucas) se construían como películas interactivas, con diálogos, personajes y tramas que aspiraban a la calidad narrativa del cine. Títulos como The Secret of Monkey Island (1990) tenían guiones que cualquier comedia de Hollywood habría firmado.
La intención estaba clara desde el principio: los videojuegos querían contar historias como las contaba el cine. Lo que les faltaba era la tecnología para hacerlo.
La revolución del CD: música, voces y escenas de película
El salto del cartucho al CD-ROM a principios de los años 90 lo cambió todo. Y no fue un cambio menor: fue una transformación radical.
Un cartucho de Super Nintendo podía almacenar entre 1 y 6 megabytes de datos. Un CD-ROM tenía capacidad para 650 megabytes. De repente, los desarrolladores pasaron de trabajar en un espacio diminuto a tener un almacén enorme donde meter contenido. Y lo primero que hicieron con ese espacio fue mirar hacia el cine.
Las escenas de vídeo pregrabado
La primera oleada fue la de los juegos con escenas de vídeo real (conocidos como juegos FMV, por Full Motion Video). La idea era sencilla: si ahora podemos meter vídeo en un juego, ¿por qué no grabamos escenas con actores reales, como en una película?
Night Trap (1992) fue uno de los más conocidos. Era básicamente una película de terror interactiva donde el jugador vigilaba cámaras de seguridad y activaba trampas. Hoy se recuerda más por la polémica que generó (fue uno de los juegos que motivaron la creación del sistema de clasificación por edades en Estados Unidos) que por su calidad, pero representaba esa ambición de fusionar cine y videojuego.
El caso más notable fue Wing Commander III: Heart of the Tiger (1994). Su presupuesto de desarrollo rondó los 4 millones de dólares, una cifra absurda para un videojuego en esa época, y gran parte de ese dinero se fue en grabar escenas cinematográficas con actores de Hollywood. El protagonista era nada menos que Mark Hamill, Luke Skywalker en persona. El villano lo interpretaba Malcolm McDowell, conocido por películas como La naranja mecánica. Era, literalmente, una película dentro de un videojuego.
Música orquestal y doblaje profesional
El CD no solo trajo vídeo. Trajo audio de calidad. Por primera vez, los juegos podían incluir música grabada con instrumentos reales, bandas sonoras orquestales que no tenían nada que envidiar a las de muchas películas. Y trajo también el doblaje profesional: personajes que hablaban con voces humanas reales, con actores interpretando diálogos escritos por guionistas.
La serie Command & Conquer (1995 en adelante) es un buen ejemplo de esta época. Sus escenas intermedias estaban grabadas con actores reales en decorados de estudio, con una producción que imitaba conscientemente el estilo de las películas bélicas y de ciencia ficción de la época. Eran pequeñas películas insertadas entre las misiones del juego.
El CD convirtió a los videojuegos en un medio que podía integrar imagen real, voz humana y música orquestal. Por primera vez, la experiencia de jugar se empezó a parecer, al menos en algunos momentos, a la experiencia de ver una película.
La era PlayStation y el nacimiento del juego cinematográfico
Si el CD abrió la puerta, la primera PlayStation de Sony la derribó. Lanzada en 1994 en Japón y en 1995 en el resto del mundo, PlayStation apostó desde el principio por el formato CD y por los gráficos en tres dimensiones. Y con ella llegaron los juegos que, por primera vez, se sintieron genuinamente cinematográficos.
Final Fantasy VII (1997)
Final Fantasy VII fue un antes y un después. No solo por su historia (que enganchó a millones de jugadores en todo el mundo), sino por cómo la contaba.
El juego incluía secuencias cinemáticas pregrabadas de una calidad visual que nadie había visto antes en un videojuego. Esos momentos, renderizados por computadora, parecían sacados de una película de animación. La muerte de uno de sus personajes principales sigue siendo una de las escenas más recordadas de la historia del medio, y funciona exactamente como funcionaría en una película: con ritmo, con música, con impacto emocional calculado al milímetro.
El presupuesto de Final Fantasy VII se estima en unos 45 millones de dólares, una cantidad que en 1997 era comparable al coste de una producción cinematográfica de tamaño medio. Square (la empresa que lo desarrolló) no estaba haciendo solo un juego: estaba haciendo una superproducción.
Metal Gear Solid (1998)
Si Final Fantasy VII demostró que un juego podía tener momentos de película, Metal Gear Solid demostró que un juego podía sentirse como una película de principio a fin.
Su creador, Hideo Kojima, nunca ha escondido su obsesión por el cine. Metal Gear Solid estaba construido como un thriller de espionaje con influencias claras de películas como Rescate en Nueva York de John Carpenter y los filmes de James Bond. Tenía doblaje completo, una banda sonora orquestal, ángulos de cámara pensados para crear tensión, diálogos extensos y una narrativa compleja llena de giros argumentales.
Kojima trataba al jugador como trataría un director de cine a su espectador. No se limitaba a ofrecer mecánicas de juego: quería provocar emociones, sorprender, incomodar. Y lo conseguía.
Shenmue (1999)
Mención aparte merece Shenmue, creado por Yu Suzuki para la consola Dreamcast de Sega. Su presupuesto de desarrollo se estima entre 47 y 70 millones de dólares, convirtiéndolo en el juego más caro jamás producido hasta ese momento.
Shenmue intentaba crear un mundo vivo y cinematográfico donde cada personaje tuviera su rutina diaria, donde el clima cambiara, donde el jugador pudiera explorar libremente un pueblo japonés recreado con un nivel de detalle obsesivo. Era una apuesta tan ambiciosa y tan cara que Sega nunca recuperó la inversión. Pero marcó el camino de lo que vendrían a ser los mundos abiertos modernos: espacios que aspiran a sentirse como escenarios de película donde el jugador es el protagonista.
La captura de movimiento y la llegada de Hollywood
A medida que los gráficos mejoraban, surgió un problema interesante: los personajes de los videojuegos se veían cada vez más realistas, pero se movían de forma artificial. Corrían, saltaban y luchaban con animaciones creadas a mano por animadores, y por muy buenas que fueran, había algo que no terminaba de ser convincente. Los movimientos no tenían el peso, la inercia ni los pequeños detalles del movimiento humano real.
La solución vino prestada directamente del cine: la captura de movimiento.
La idea es ponerle a un actor real un traje cubierto de sensores, grabar sus movimientos y transferirlos a un personaje digital. El cine ya lo estaba usando: Gollum en El Señor de los Anillos: Las Dos Torres (2002), interpretado por Andy Serkis, fue el ejemplo que demostró al mundo lo que esta tecnología podía lograr.
Los videojuegos adoptaron la técnica con entusiasmo. La saga Uncharted de Naughty Dog, que arrancó en 2007, utilizó captura de movimiento desde el principio para darle a su protagonista, Nathan Drake, la gestualidad y naturalidad de un personaje de película de aventuras. El equipo no capturaba solo los movimientos del cuerpo: capturaba también las expresiones faciales y la actuación vocal al mismo tiempo, una técnica que se conoce como performance capture y que produce resultados donde la línea entre actor humano y personaje digital se difumina de manera notable.
Las estrellas de Hollywood entran en el estudio de desarrollo
Con la captura de movimiento y los presupuestos crecientes, era cuestión de tiempo que los estudios de videojuegos empezaran a fichar actores de cine. Y no como un truco publicitario, sino como una necesidad artística: si el juego aspira a ofrecer actuaciones de nivel cinematográfico, tiene sentido contratar a personas que saben actuar a ese nivel.
Death Stranding (2019), el juego de Hideo Kojima tras su salida de Konami, es el ejemplo más evidente de esta tendencia. Su reparto incluye a Norman Reedus (The Walking Dead), Mads Mikkelsen (Casino Royale, Hannibal), Léa Seydoux (Spectre, La vida de Adèle) y Guillermo del Toro (director de El laberinto del fauno y La forma del agua, que aparece como personaje). No son cameos ni voces prestadas: son actuaciones completas, capturadas con la misma tecnología que se usa en las superproducciones de Hollywood.
Cyberpunk 2077 puso a Keanu Reeves como uno de sus personajes centrales. Call of Duty: Advanced Warfare (2014) construyó toda su campaña alrededor de la actuación de Kevin Spacey. Hellblade: Senua’s Sacrifice, desarrollado por Ninja Theory, contó con la colaboración de actores y la supervisión de profesionales de la salud mental para crear una representación de la psicosis que fue elogiada tanto por la crítica especializada en videojuegos como por profesionales de la psiquiatría.
Hellblade: Senua’s Sacrifice en Steam
El actor Andy Serkis, el mismo que dio vida a Gollum en el cine, ha trabajado también en videojuegos: fue uno de los personajes principales de Heavenly Sword (2007) y ha participado en otros proyectos interactivos a lo largo de los años.
Los estudios de videojuegos ya no son solo estudios de programación. Son estudios de producción con platós de captura de movimiento, departamentos de guion, directores de actuación y equipos de sonido que funcionan exactamente como los de una producción cinematográfica.
Presupuestos que superan a Hollywood
Este es quizá el dato que mejor ilustra hasta dónde ha llegado la convergencia entre cine y videojuegos: los juegos más caros del mundo cuestan más que la mayoría de las películas de Hollywood.
Esa diferencia de escala entre los proyectos masivos y las producciones con menos recursos ha redefinido lo que entendemos por “éxito” en esta industria. Y es que algunas cifras son mareantes:
- Grand Theft Auto V (2013): Su presupuesto total, incluyendo desarrollo y marketing, se estimó en unos 265 millones de dólares. Cuando se lanzó, fue reconocido como el producto de entretenimiento más caro jamás creado hasta esa fecha. No la película más cara. No el juego más caro. El producto de entretenimiento más caro, por encima de cualquier película.
- Red Dead Redemption 2 (2018): Las estimaciones de su coste total varían, pero las cifras más citadas lo sitúan entre 370 y 540 millones de dólares entre desarrollo y promoción. El equipo de desarrollo involucró a más de 2.000 personas trabajando durante unos ocho años. Para ponerlo en contexto: Avengers: Endgame, una de las películas más caras de la historia, costó alrededor de 356 millones de dólares.
- Cyberpunk 2077 (2020): CD Projekt reportó un coste de desarrollo de unos 174 millones de dólares, y la cifra total con marketing superó los 300 millones.
- Star Citizen: El caso más extremo. Este proyecto lleva en desarrollo desde 2011 y ha recaudado más de 700 millones de dólares exclusivamente a través de financiación de los propios jugadores. No hay ninguna película en la historia que se haya acercado a esa cifra.
Para ponerlo en perspectiva, el presupuesto medio de una película de Hollywood ronda los 65 a 100 millones de dólares. Los grandes blockbusters se mueven entre los 150 y los 300 millones. Los videojuegos más ambiciosos ya están en esa franja o por encima de ella.
Y no es solo el dinero. Es lo que ese dinero paga: equipos de cientos o miles de personas, años de desarrollo, estudios de captura de movimiento con tecnología punta, bandas sonoras grabadas por orquestas sinfónicas completas, guiones de cientos de páginas, doblajes en decenas de idiomas. La producción de un juego AAA moderno es, en todos los sentidos prácticos, una superproducción al nivel de cualquier gran película.
El camino inverso: cuando el cine adoptó las herramientas de los videojuegos
Aquí la historia da un giro que pocos habrían anticipado hace veinte años.
Durante décadas, la influencia fue en una sola dirección: el cine influía en los videojuegos. Los juegos querían parecerse a las películas, adoptaban sus técnicas narrativas, contrataban a sus actores, imitaban su estética. Pero en algún momento, la dirección se invirtió. El cine empezó a mirar hacia los videojuegos, no por sus historias ni por sus personajes, sino por sus herramientas.
Unreal Engine en la producción audiovisual
Unreal Engine, el motor de videojuegos creado por Epic Games, es posiblemente el ejemplo más claro de esta inversión.
Unreal Engine fue diseñado para crear videojuegos. Ese era su propósito original y durante años fue exclusivamente eso: la tecnología detrás de sagas como Unreal Tournament, Gears of War, Fortnite y cientos de otros títulos. Es uno de los motores más potentes y versátiles de la industria del videojuego.
Pero sus capacidades gráficas en tiempo real llamaron la atención de la industria cinematográfica. ¿Qué significa “en tiempo real”? Significa que Unreal Engine puede generar gráficos de alta calidad al instante, sin necesidad de esperar horas o días a que un ordenador procese cada fotograma, que es como funcionan los sistemas de renderizado tradicionales del cine.
Esta característica abrió una posibilidad enorme: usar un motor de videojuegos como herramienta de producción cinematográfica.
El Volumen: la tecnología que cambió los rodajes
El caso más conocido y el que puso esta tecnología en el mapa es el de The Mandalorian, la serie de Star Wars producida por Lucasfilm para Disney+.
En lugar de rodar con fondos verdes (las pantallas verdes que luego se sustituyen por escenarios digitales en posproducción), el equipo de The Mandalorian desarrolló un sistema llamado StageCraft, creado por Industrial Light & Magic (ILM). El concepto: rodear el set de rodaje con pantallas LED gigantes que muestran escenarios virtuales generados en tiempo real por Unreal Engine.
Los actores ya no actúan frente a un fondo verde vacío imaginando dónde están. Actúan rodeados del paisaje, de la iluminación, del entorno. Si la escena transcurre al atardecer en un desierto, las pantallas muestran un desierto al atardecer y la luz de esas pantallas ilumina a los actores con los tonos cálidos correspondientes. Si la cámara se mueve, el entorno virtual se ajusta en tiempo real para mantener la perspectiva correcta.
Esta tecnología, conocida popularmente como “el Volumen” (por la estructura envolvente de pantallas LED), fue considerada revolucionaria. Y con razón: cambiaba fundamentalmente la forma en que se podían rodar escenas con entornos virtuales.
Más allá de The Mandalorian
Tras el éxito de The Mandalorian, la producción virtual con motores de videojuegos se extendió rápidamente:
- The Book of Boba Fett y Obi-Wan Kenobi utilizaron la misma tecnología StageCraft.
- The Batman (2022), dirigida por Matt Reeves, empleó pantallas LED con entornos virtuales para varias de sus escenas.
- Thor: Love and Thunder (2022) recurrió a técnicas similares.
- Numerosas producciones de Netflix, Amazon y otros estudios han incorporado la producción virtual a sus flujos de trabajo.
No es solo Unreal Engine. Unity, otro motor de videojuegos, también se utiliza en producción audiovisual, aunque con menor protagonismo. La idea central es la misma: herramientas creadas para hacer videojuegos se han convertido en herramientas para hacer cine y televisión.
Un motor de videojuegos. Creando los escenarios de series y películas. Si alguien hubiera dicho eso en el año 2000, nadie lo habría tomado en serio.
Mejores herramientas, resultados cuestionables
Y aquí es donde la historia se complica, porque no todo lo que ha traído esta convergencia ha sido positivo.
Existe una paradoja que cualquier espectador atento ha notado: los efectos especiales de muchas producciones actuales se ven peor que los de hace quince o veinte años. Y no es una percepción subjetiva ni nostalgia mal entendida. Es un fenómeno real con causas identificables.
El caso de los efectos prácticos
Pensemos en Jurassic Park (1993). Steven Spielberg combinó dinosaurios animatrónicos (figuras mecánicas reales, construidas a tamaño completo) con efectos digitales creados por ILM. Cada plano con CGI era tratado como algo extraordinario: se planificaba con meses de antelación, se renderizaba durante horas y se revisaba hasta que fuera perfecto. El resultado es que, más de treinta años después, esos dinosaurios siguen siendo creíbles.
Pensemos en El Señor de los Anillos (2001-2003). Peter Jackson combinó maquetas físicas enormes y detalladas, maquillaje protésico, miles de extras reales y efectos digitales donde eran estrictamente necesarios. El trabajo de Weta Workshop y Weta Digital fue meticuloso, artesanal. Y el resultado se mantiene extraordinariamente bien con el paso del tiempo.
Ahora comparemos eso con algunas producciones recientes donde todo el entorno, todos los personajes secundarios y prácticamente cada elemento del plano son generados por ordenador. El resultado, a veces, es una imagen que se siente artificial, plana, sin el peso y la presencia que tienen las cosas reales.
¿Por qué ocurre esto?
La respuesta no es que la tecnología actual sea peor. Es obviamente mejor. Los ordenadores de hoy son incomparablemente más potentes que los de 1993 o 2003. Las herramientas de software son más capaces que nunca. El problema está en cómo se usan esas herramientas y en las condiciones bajo las que trabajan quienes las manejan.
Primer factor: volumen de trabajo. Una película de los años 90 podía tener 50 o 100 planos con efectos digitales. Una película de superhéroes actual puede tener 2.000 o más. Cada uno de esos planos necesita trabajo de artistas cualificados. Cuando multiplicas el número de planos pero no multiplicas proporcionalmente el presupuesto ni el tiempo, la calidad individual de cada plano se resiente.
Segundo factor: plazos de producción. Los estudios de efectos visuales han denunciado públicamente en múltiples ocasiones las condiciones bajo las que trabajan. Plazos imposibles, cambios de última hora por parte de los directores, presupuestos que no se corresponden con la cantidad de trabajo solicitado. Artistas altamente cualificados trabajando jornadas agotadoras durante meses para entregar miles de planos a tiempo. En esas condiciones, la calidad se sacrifica porque no queda otra opción.
Tercer factor: la automatización. Y aquí es donde entran las herramientas de videojuegos. Tecnologías como Unreal Engine permiten generar entornos y efectos de forma mucho más rápida que los métodos tradicionales de renderizado. Eso es enormemente útil en producción: reduce tiempos y costes. Pero esa rapidez tiene un precio artístico.
Los métodos tradicionales de efectos visuales para cine implican un proceso lento y minucioso: modelar cada elemento con detalle, iluminar cada escena de forma individual, renderizar cada fotograma durante horas y revisar el resultado cuadro por cuadro. Es un trabajo artesanal. Las herramientas de tiempo real, por su naturaleza, toman atajos para poder mostrar los gráficos al instante: usan aproximaciones de la iluminación, simplificaciones en los materiales, optimizaciones que priorizan la velocidad sobre la precisión absoluta.
Para un videojuego, donde la imagen se genera en tiempo real mientras el jugador interactúa, esos atajos son necesarios y el resultado es impresionante considerando las limitaciones. Para una película, donde cada fotograma se va a ver en una pantalla de cine y se va a escrutar con mucho más detalle, esos mismos atajos pueden producir resultados que se sienten inferiores al trabajo artesanal que hacía el mismo estudio hace dos décadas.
Un ejemplo concreto
Ant-Man and the Wasp: Quantumania (2023) fue criticada ampliamente por la calidad visual de sus entornos digitales. Gran parte de la película se rodó con tecnología de producción virtual (pantallas LED, entornos generados en tiempo real). El resultado visual fue, para muchos espectadores y críticos, notablemente inferior al de películas de Marvel anteriores, y enormemente inferior al de producciones de ciencia ficción de décadas pasadas que tenían una fracción de su presupuesto.
No es que la tecnología sea mala. Es que la tecnología permite producir más rápido y más barato, y los estudios han aprovechado esa posibilidad para reducir presupuestos y tiempos sin asumir que el resultado va a ser, inevitablemente, menos refinado.
La herramienta no tiene la culpa. La tiene la decisión de usarla como sustituto del trabajo artesanal en lugar de como complemento.
Lo que sí funciona
Es importante señalar que hay producciones que han usado estas herramientas de forma inteligente y el resultado ha sido excelente. La primera temporada de The Mandalorian fue elogiada precisamente porque usó el Volumen de manera medida, combinándolo con escenarios prácticos, atrezo real y efectos tradicionales donde eran necesarios. El Volumen era una herramienta más dentro de un conjunto, no la única herramienta.
Del mismo modo, películas como Top Gun: Maverick (2022) y Mad Max: Fury Road (2015) fueron aclamadas por su uso extensivo de efectos prácticos y escenas de acción reales, complementadas con efectos digitales puntuales. El público notó la diferencia. La taquilla también.
La lección parece clara: la tecnología produce los mejores resultados cuando se usa para complementar el trabajo humano, no para reemplazarlo.
Dos industrias que ya no pueden separarse
Lo que empezó como una influencia del cine sobre los videojuegos se ha convertido en algo mucho más complejo. Las dos industrias están entrelazadas a un nivel que habría resultado impensable hace no tanto tiempo.
Los videojuegos usan técnicas cinematográficas para contar sus historias: encuadres, montaje, actuaciones capturadas, bandas sonoras orquestales, guiones de cientos de páginas. El cine usa herramientas de videojuegos para crear sus mundos: motores gráficos en tiempo real, escenarios virtuales, tecnología de renderizado nacida para hacer funcionar juegos en una pantalla.
Los actores trabajan en ambos medios indistintamente. Los compositores crean bandas sonoras para películas y para juegos con el mismo nivel de exigencia. Los presupuestos de los grandes juegos superan a los de la mayoría de las películas. Las adaptaciones van en ambas direcciones: juegos que se convierten en series de televisión exitosas como The Last of Us en HBO, películas que generan franquicias de videojuegos, universos narrativos que se extienden de una pantalla a otra.
The Last of Us Part I en Steam
El jugador que hoy se sienta frente a Red Dead Redemption 2 está experimentando algo que tiene más en común con una producción de David Lean o Sergio Leone que con lo que se entendía por “videojuego” hace treinta años. Y el espectador que ve una serie producida con un motor de videojuegos está viendo algo que, sin esa tecnología nacida para el entretenimiento interactivo, no existiría o se vería de forma radicalmente distinta.
La línea que separaba a estas dos industrias, si es que alguna vez fue una línea firme, ya no existe. Lo que queda es un territorio compartido, complejo y lleno de posibilidades, donde las herramientas, las técnicas y el talento fluyen en ambas direcciones. Para bien y, a veces, con consecuencias que habrá que seguir observando.