¿Con la IA es posible crear cine hoy día?

por David Giraldo y Pedrojuán Gironés



Esta imagen ha sido generada por IA (la de WordPress), el texto ha sido escrito por humanos

Este artículo está escrito a dos manos (o más bien, cuatro) porque es el resumen de meses de conversaciones y debate sobre el tema de la IA, y en concreto de su uso para crear cine de ficción (películas, series y/o cortometrajes). Creemos que las conclusiones son lo suficientemente interesantes como para merecer la pena su difusión en este artículo.

David Giraldo es Director, Guionista, Operador de cámara, Fotógrafo, Editor de cine y audiovisual desde hace dos décadas. Algunas de sus creaciones como la serie de terror “Cementerio de Historias” o la película de serie Z “Tumor Amarillo” son de sobra conocidas por estos lares. Su última creación es el cortometraje “DALÍ DELIRIUMS”. Hecho sin nada de IA, al estilo tradicional (rodaje clásico y Davinci Resolve y After Effects). Paradójicamente, los cuadros de Dalí y el surrealismo se adelantaron visualmente al resultado de algunas creaciones mediante IA.

Pedrojuán Gironés es actor, director y guionista de cortos como “Paradoja temporal” y la serie de mismo título. Es Doctor en Ingeniería electrónica, ex-Profesor universitario de Arquitectura de ordenadores y otras materias afines, y trabaja actualmente como Informático. Ha reflexionado durante años sobre la IA y otros temas como la robótica, la realidad virtual y la inmortalidad humana con motivo de la escritura de la novela de ciencia ficción “Antes de que el tiempo se consuma”.

¿EL ESTADO ACTUAL DE LA IA PERMITE HACER UNA PELÍCULA?

Pedrojuán Gironés:

“Cuando empecé a escribir la novela, en 2005, nada nos hacía sospechar que, menos de veinte años más tarde, se iba a producir una explosión tecnológica de las proporciones que estamos presenciando y no queda sino preguntarnos dónde nos va a llevar todo esto.

Durante meses, David y yo hemos estado compartiendo nuestros a menudo distintos puntos de vista sobre el posible futuro de la inteligencia artificial en nuestras vidas y, aunque alguna vez hayamos mencionado a SkyNet, lo que nos importa es el futuro impacto en la industria cinematográfica.

Lo que yo considero interesante de este debate es que David tiene un conocimiento práctico de las herramientas existentes de IA, de cómo son las cosas hoy en el audiovisual, mientras que yo tengo un bagaje teórico de cómo funciona la inteligencia artificial a nivel informático y los doce años que he pasado escribiendo la novela me han llevado a tener ideas bastante concretas y poco habituales sobre el futuro de la tecnología.

En una parte oscura de mi, se esconde el sueño húmedo de poder contar mis historias sin tener que depender de nadie. Ni actores, ni cámara, ni sonido, ni edición… nada. Y no es porque no quiera trabajar con gente, que en realidad es lo que querría, sino porque no me lo puedo permitir tan a menudo como querría. Me imagino la “Máquina de hacer cine” reducida a un sistema de inteligencia artificial con el que poder mantener una conversación, semejante a las que mantengo con los actores, el equipo de arte o de fotografía. El resultado de esas conversaciones serían los planos generados automáticamente, con actores virtuales, paisajes virtuales, efectos especiales incluidos y luego montados con banda sonora original y etalonados. Todo sin esfuerzo, simplemente a partir de “prompts” vocales en lenguaje humano cotidiano.

¿Será esto alguna vez posible? Y de así ser, ¿cuándo? Ese es el tema principal de la conversación. Por el momento, está meridianamente claro que, a día de hoy, esto no es ni remotamente posible.



David Giraldo:

Durante los dos últimos años, y en especial en este 2024, he estado haciendo pruebas con diferentes IA generativas de vídeo, imagen, voz, música y texto. También he visualizado cientos de vídeos y tutoriales de diferentes expertos en IA, que han probado múltiples herramientas (algunas de las cuales no he podido probar yo, pero he visto en esos vídeos y pruebas como funcionaban y sus resultados) y estas son mis conclusiones.

Ahora está de moda el tema de la IA, por todos lados dicen que es una revolución y que todos los humanos se van a ir al paro, pero ¿hasta qué punto eso es verdad? ¿O es una exageración de los medios, empresas con intereses en el negocio de la IA, inversores, bolsa, moda de redes sociales…?


La mayoría de plataformas generativas de IA tienen versión gratuita, o de prueba con limitaciones (créditos que se regeneran cada día o al mes, versiones capadas…) pero luego esas mismas plataformas tienen versiones de pago, avanzadas, créditos a la venta, etc. evidentemente todo esto es un negocio. Y hay múltiples intereses en que el boom de la IA llegue mediante marketing a todo el mundo.

Pero, en la realidad, ¿cuánto cambia realmente el trabajo de un creador audiovisual?

He probado la generación de texto con ChatGPT; la generación de imágenes con Dall-E, Stable Diffusion, Leonardo AI y Capcut; generación de vídeo con Dream Machine (LUMA) y Haiper, creación de voz con Eleven Labs y Capcut, música con SUNO, subtítulos automáticos con Capcut, reels automáticos con Capcut

Tanto desde ordenador de escritorio, como desde el móvil he hecho cientos de pruebas de IA generativa. También he visto cientos de vídeos en youtube y RRSS de otros creadores probando y compartiendo sus creaciones con esas mismas IA y otras (Runway, Midjourney, Pika…)

Mis conclusiones son que por el momento y en el estado actual en que se encuentran, las IA generativas fallan más que una escopeta de feria, y todavía no son usables a un nivel profesional (cine, publicidad, trabajos para clientes que buscan calidad…).

En primer lugar, siempre tiene que haber detrás un humano (y que sea un profesional del ámbito audiovisual/fotográfico/artístico) supervisando todo el proceso, poner un prompt adecuado (el texto con el que se le ordena a las IA que generen algo, sea vídeo, foto, texto, audio, una canción…), hacer múltiples intentos hasta generar algo con la suficiente calidad… y ni con esas.

En las IA generadoras de vídeo y de imagen, por muy específico que sean los prompts, acaba haciendo lo que le da la gana de forma random, y comete un montón de gñés: ojos bizcos, expresiones faciales rarunas, manos con dedos de más o de menos, muñones, posiciones físicas imposibles, amorfidades, carnes que se derriten como los relojes blandos dalinianos, textos y letras escritas con lenguajes raros inventados con una mezcla de letras a medio camino entre el chino, el ruso, el hindú y letras amorfas sinsentido… en fin, un despropósito que hace muy difícil usar luego esas imágenes y vídeos generados para algo profesional o con un resultado de calidad mínima.

Como experimento, como curiosidad, como gracia, como brainstorming o como un storyboard
… pues sí. Pero en el estado actual de la IA, no es algo que un profesional pueda usar como herramienta principal si se buscan resultados controlables y de calidad.

Supongo que según avance la IA se corregirán estos errores, pero en el estado actual de aprendizaje de la IA (¿no se supone que aprendía sola, según las interacciones con los prompts y sus propios resultados? parece que ha tocado techo por el momento, cometiendo los mismos errores una y otra vez.

La IA generadora de texto falla en que hace textos muy robóticos, con poca alma (carece de humor, ironía, subtexto…) y basado en clichés y cortapegas. Olvídate de hacer un guión con cierto sentido o chicha en él, además de que solo podrás generar escenas cortas o tratamientos, pero no un guión entero como tal (por las limitaciones de número de caracteres generados que estas IAs tienen).

Solo sirve como posibles brainstormings rápidos, aunque con ideas muy basadas en clichés, y que cualquier guionista, aunque tardase algo más, seguro que saca ideas más frescas, originales y que transmiten más al espectador.

Como buscador de info o generador de pequeños textos estilo artículos periodísticos, son como un google avanzado, pero cuidado, porque también falla bastante, se inventa cosas, mete datos erróneos o mezclados fuera de contexto, no cita las fuentes exactas… de forma que si visitas una web concreta o un medio sabes cuáles son las fuentes y quién lo ha escrito, pero con una IA a saber de donde ha salido la información y qué parte es de fuentes fiables, y cuál se ha inventado la IA o ha llenado de errores.

Luego sobre temas políticos, o sobre temas políticamente incorrectos no se moja, con lo cual tiene una cierta censura, quitándole también personalidad y gracia, al tener que mantenerse neutral y para todos los públicos (lo cual tiene cierta lógica, que se mantenga en cierta objetividad, neutralidad y con contenido para todos los públicos, pero como digo, a su vez, lo mantiene frío e impersonal, y le quita gracia que no se moje en ciertos temas).

Supongo que con IA privadas, instaladas en servidores propios, o de pago, podrán ser más personalizables y abiertas a tema sexo, violencia, política, etc…pero las que he probado gratuitas y abiertas públicamente han sido bastante reservadas en esos temas.

La IA generadora de voz a partir de texto es como un Loquendo avanzado, con las voces menos robóticas que el mítico Loquendo de principios del 2000, pero aún así sigue notándose que no es un locutor humano, y suena la voz con unos tonos metálicos extraños, como de cantante de reggaeton.

Más impresionante es la generación de voz a partir de la muestra en un archivo de audio de otra voz, o de un vídeo (en Eleven labs o en Capcut), con la posibilidad incluso de traducir a otros idiomas, conservando el tono y emociones de la grabación original. Con resultados hilarantes si te cambias tu propia voz o la de un amigo al chino, por ejemplo. Pero como digo, todavía no está pulido del todo, y suena robótica y con fallos si nos fijamos en matices.
Supongo que será cuestión de tiempo que las voces generadas por IA queden clavadas.

Los subtítulos para vídeo generados automáticamente por IA (en Capcut, por ejemplo) ahorran mucho tiempo de trabajo (como Editor de vídeo los he puesto durante años a mano, y es un coñazo, sí), pero tampoco salen perfectos, y hay que revisarlos para que diga exactamente lo que se dice, sin errores, e incluso ajustar algo a mano los tiempos de cada subítulo para que sincronice con lo que se dice, en el momento exacto en que se dice.

Pero es un gran avance y bienvenido sea, quizás sea de las herramientas de IA que ahora mismo sí tengan un uso aplicable profesional, a nivel de workflow de edición de vídeo para clientes, aunque como digo, supervisando los subtítulos a mano por parte de un Editor humano antes de la entrega.

En cuanto a las IA generadoras de música, es impresionante que a partir de una descripción con palabras del estilo de canción que se busca, género, instrumentos que aparecen… te genere automáticamente la música, incluso hasta la letra y las voces, con un nivel sorprendente. Pero sinceramente, más allá de la curiosidad, yo no iría a ver a un festival a un grupo o un cantante de IA.

Es decir, la gracia de, por ejemplo, Gorillaz, es que hay humanos de verdad tocando y cantando en directo, detrás de esos monos hechos en animación 3D.

Tampoco escucharía discografías de grupos hechos por IA en Spotify, o al menos, por el momento no me generan las mismas emociones que mis bandas favoritas de música humanas.

Creo que la IA puede hacer bien la animación 3D, pero no el arte humano, con emociones humanas. Hay algo intangible en la creación humana, que todavía no alcanza la IA, dejando algo frío al espectador.

También he probado herramientas de edición automática de video por IA, en concreto la herramienta de crear reels automáticos de Capcut, y la herramienta de edición según texto (a partir de la transcripción de los diálogos) de DaVinci Resolve. Mis conclusiones son que aunque ahorren algo de tiempo de edición, siempre tiene que haber un editor profesional supervisando el resultado, porque cometen muchos fallos (sobretodo en la creación de reels automáticos) y no siempre tienen sentido los cortes hechos por IA, y hay que pulir el comienzo y el final de cada corte, los subtítulos, los títulos de los reels, su contenido, etc…para que los vídeos generados tengan un sentido y una calidad digna, equiparables a las ediciones humanas tradicionales. Vamos, que aunque sean herramientas que puedan ahorrar algo de trabajo al Editor de vídeos humano (tampoco tanto, ya que el Editor tiene que revisar, reeditar y terminar dichas ediciones), éste siempre es necesario para supervisar, pulir la edición, y darle sentido al vídeo final. Las herramientas de IA por si solas no hacen magia, necesitan a un trabajador humano detrás que verifique y pula los resultados para que la cosa funcione y no salgan abortos.

Creo que los humanos queremos leer a otros humanos, ver películas creadas y protagonizadas por humanos y escuchar música compuesta, tocada y cantada por otros humanos.

Hay algo que todavía la IA no transmite, y no sé si algún día conseguirá transmitir.

Quizás nunca.

FUTURO DE LA IA GENERATIVA PARA HACER CINE

Pedrojuán Gironés:

Me parece importante dejar claro que el término Inteligencia Artificial se usa de forma bastante difusa. La reciente explosión, protagonizada principalmente por Chat GPT (Sora) está relacionada con lo que se conoce como GAN, redes de neuronas adversarias. Una de las características de estos sistemas es que son capaces de “generar” contenido, ya sea visual, sonoro o textual, a partir del material con la que han sido entrenadas. A partir de los prompts, generan contenido mezclando en cierto modo lo que han “consumido” y no siempre lo hacen bien. Huelga decir que en realidad no se sabe exactamente cómo funcionan y como aprenden las IA, pero se sabe que hacen cosas que nos sorprenden mucho como, por ejemplo, aprender a contar solas, mientras no consiguen hacer otras que, a priori, nos parecen sencillas, como dibujar solo cinco dedos en una mano. Sin embargo, es importante resaltar que este no es el único tipo de modelo de aprendizaje que se está desarrollando y que se usa. Hay sistemas de IA cuyo objetivo no es crear contenido, por ejemplo, el piloto automático de coches y camiones que circulan ya por las carreteras del mundo con un índice de siniestros menor que el de los conductores humanos.

Como la IA está realmente en su infancia, es realmente imposible saber lo que puede alcanzar si diferentes modelos se alteran o combinan para alcanzar un resultado mejor, pero podemos mirar al pasado y ver cómo, desde el punto de vista del público, espectaculares transformaciones en este campo se han producido, literalmente, de la noche a la mañana. Es el caso de las traducciones de Google. Todo el mundo que las usaba hace diez años puede atestiguar que uno no podía realmente confiar en ellas. A menudo no querían decir nada. Sin embargo en Noviembre de 2016, cuando Google cambió el programa que usaba e introdujo un modelo de traducción neuronal, yo, que en aquel momento dedicaba parte de mi tiempo a traducir al inglés y al francés, me encontré que prácticamente mi trabajo estaba hecho y podía dedicarle mis horas de oficina a seguir escribiendo mi novela. Voila.

Una vez que una computadora “aprende” a hacer algo “bien”, lo hace mejor y sobre todo mucho más rápido que un ser humano, siempre que se trate de algo sistemático cuyos resultados se pueden medir. Juegan mejor que los humanos al ajedrez o al go, reconocen mejor las huellas dactilares, el iris, conducen mejor y hacen funciones concretas como por ejemplo limpiar de ruido una pista de sonido. Es decir, una labor como la edición de video, convenientemente dirigida, está sin duda dentro del espectro de actividades en los que las IA acabarán superando con creces al humano, por lo menos en productividad. Identificar tomas desenfocadas, con cortes de acción, fallos de racord, cortar las tomas para que el movimiento resultante sea más fluido… todas esas cosas son “pan comido”. Evidentemente, quizá la toma desenfocada sea la mejor toma por actuación, la que elegiría el director a pesar del enfado del director de fotografía. Es decir, quizá esté al alcance de la IA realizar el trabajo más “correcto” pero no necesariamente el que nos parecería subjetivamente “mejor”.

Es en la diferencia entre “mejor” y “más correcto” donde a mi modo de ver se plantean las cuestiones más profundas y difíciles de aventurar. No me queda duda de que en breve un sistema de IA podrá generar, con ayuda de un texto y algunas otras direcciones, un video corporativo o informativo como los de seguridad a bordo en los aviones. ¿Qué quiere decir “en breve”? Sinceramente no creo que sean más de cinco o diez años, me inclino a pensar que menos, aunque podría ser más. Pero, ¿podrá alguna vez la IA generar un contenido indistinguible del realizado por personas, empezando por sustituir a los actores reales, a los artistas del escenario, del vestuario, de la foto, de la luz? Y si lo consigue, ¿cuándo ocurrirá? ¿Podrán las máquinas reemplazar completamente a las personas en la industria del cine alguna vez?

Esta duda “existencial” se puede formular de una forma mucho más práctica. No se trata de sí o no, sino de cuándo y cuánto. ¿Hasta qué punto y a qué ritmo va a ir sustituyendo la IA a los humanos en la creación audiovisual? La IA ya hace muchas labores que aumentan la productividad de los profesionales del cine, lo cual, para una misma cantidad de producto creado, reduce la cantidad de humanos necesarios. Las herramientas basadas en la IA van a ir lenta, pero inexorablemente, reduciendo el número de personas necesarias para hacer cine, anuncios, videos corporativos e incluso vídeos de bodas y comuniones. Simple y llanamente. El coste es menor, la productividad mayor. Es la ley del mercado, amigo. ¿Hasta donde va a llegar eso? Veremos.

El símil que me parece relevante aquí es el de la cinematografía digital. Al principio era sólo una cuestión de coste. Un video corporativo se hacia en digital, pero para una película se hacía en celuloide. David y yo nos conocimos rodando un cortometraje, uno de los últimos rodajes con celuloide (16mm) en los que estuve. Poco a poco, la calidad del digital fue aumentando mientras que los costes continuaban bajando. Con programas de edición cada vez más potentes el cortar y pegar tiras de fotogramas se convirtió en un gasto inútil e innecesario. Hoy en día sólo ruedan con película quienes tienen muchos medios y mucha nostalgia. Quizá mañana el contenido generado con IA sustituya al producto humano en todos los campos del cine. Quizá entonces la gente vuelva en masa al teatro para observar el milagro de la escenificación que fue sin duda una piedra angular del origen de la cultura humana.

La otra pregunta que yo me planteo es la siguiente: Supongamos que se alcanza un nivel tecnológico tal que un grupo reducido de personas pueda, con la ayuda de uno de estos sistemas, “rodar” la serie de “Antes de que el tiempo se consuma”, mi novela de ciencia ficción. Diez o más temporadas que relaten los tres millones de años de la historia de la novela. Si es así, me encantaría tener la oportunidad de hacerlo. Pero, ¿estarán esos sistemas al alcance de los creadores individuales? ¿Se logrará una autentica democratización de la creación cinematográfica?

David Giraldo:

Veo algunos problemas para que todavía las IA no sean unas herramientas válidas para la fotografía o el vídeo/cine profesional:

En primer lugar, los evidentes fallos y gñés de deformidades físicas en humanos y palabras (de carteles, letreros y demás) que ya hemos comentado. A estas alturas no tiene sentido que si la IA realmente aprende de la experiencia, siga haciendo mal los ojos, caras, manos y palabras/letras, siendo algo tan básico.

Luego, que la corrección de elementos en fotografías y vídeos no está afinada todavía. Lo suyo sería que si un prompt da un resultado aceptable pero con partes de la imagen o del vídeo a mejorar, el humano que está generando el prompt, pueda corregir la parte que no le convence, hasta llegar a un resultado final aceptable. Y hay herramientas de algunas plataformas que en teoría permiten hacer esto, señalando la parte de la imagen a corregir y/o usando prompts negativos (indicar lo que no queremos que aparezca en la imagen, por ejemplo, “bad hands” o “ugly faces”), pero como digo es en teoría, ya que en la práctica vuelven a producirse nuevos gñés en esa nueva generación parcial-corrección, y la IA vuelve a hacer lo que le da la gana.

De forma que a veces por chiripa sí se corrige, pero otras, queda hasta peor, o con un resultado no satisfactorio, teniendo que hacer múltiples pruebas a ver si de casualidad sale algo medianamente usable.

No me parece un sistema de trabajo profesional y válido, basarse en la mera suerte para generar una imagen o un vídeo usable.Es una pérdida de tiempo tremenda.

Las “actuaciones” de los “humanos” generados por IA son también bastante deficientes, y parecen autómatas, cuando no directamente afectados por un ictus inminente. Sus expresiones, movimientos, interacciones entre personajes, digamos que son todavía muy torpes y decepcionantes. En el 99% de los clips generados por IA surgen actuaciones de monigotes creados por IA, que son descartables para uso profesional. Es como si en un rodaje convencional, tuviéramos que hacer 100 tomas hasta lograr que un actor hiciera bien su toma. Es un sistema de trabajo inviable, ¿no? Pues eso.

Tampoco está resuelto todavía el tema de la sincronización labial de los personajes de vídeos generados con IA con diálogos de voz, al menos de una forma práctica, efectiva y visualmente exitosa, que sea fácil y rápido y se pueda integrar dentro de un workflow profesional audiovisual. Sé que existen formas de hacerlo, y hay gente que lo hace de aquella manera, pero lo engorroso de la metodología y lo decepcionante de los resultados, hace que todavía deje mucho que desear para un uso profesional.

La censura también es un gran problema cuando se quieren tratar ciertos temas en las historias. Escenas de sexo, violencia… géneros enteros como terror, acción, ciencia ficción, thrillers eróticos… o escenas concretas con toque adulto, directamente no se podrían hacer, limitando la capacidad de los narradores para contar libremente sus historias, en un ataque enorme a la libertad de expresión. ¿Solo se pueden hacer animaciones Disney con la IA? Pues sinceramente, vaya mierda. Por ejemplo, series como South Park serían imposibles hacerlas con la censura de algunas plataformas de IA.

Otra cuestión importante es la falta de continuidad entre diferentes clips (prompts) de personajes, escenarios, vestuario, etc…si bien hay herramientas y metodologías para que la IA siga generando a partir de una imagen concreta anterior (bien cargando un archivo de referencia de imagen o vídeo, bien generando nuevo prompt a partir de un código seed (“semilla”, un código de prompt anterior que referencia a una imagen concreta ya creada para que la IA siga a partir de ahí), en la práctica, una vez más, la IA vuelve a hacer lo que le da la gana. Y con el tema de personajes para cine, no puede ser que haya fallos de racord (de aspecto del protagonista, de vestuario, de fondo del escenario…) en cada plano. Tampoco en una sesión de fotos, o una serie de imágenes fijas con el mismo protagonista.

Esta falta de continuidad, o dificultad para mantener una continuidad concreta, es un gran problema para hoy por hoy, usar la IA de forma narrativa profesional.

De hecho, si os fijáis, los pocos cortometrajes generador íntegramente por IA hoy día, no son secuencias en un mismo tiempo y espacio, si no que varían de tiempo y espacio, incluso de personajes protagonistas, en cada plano. Son más piezas de videoarte, videoclips o spots, más que narraciones de ficción.

Esto es debido a esa falta de continuidad. Cuando se garantice, será posible narrar con IA.

Aunque para mi, la IA está más cercana a la animación 3D y a las secuencias animáticas de los videojuegos, que al cine de ficción tal y como lo conocemos, protagonizado por actores, dirigido por humanos, grabado por cámaras, guionizado por humanos…

La IA es como una nueva manera de grabar y de fotografiar porque si mediante los sistemas tradicionales se parte de la captación de la realidad, aquí se fotografían unos y ceros, es decir, es una generación que parte de una nueva realidad digital, de otro mundo de la mente IA.

Quizás en el futuro (más o menos cercano), el tema evolucione hasta un punto en que sean herramientas de trabajo usables en el día a día por humanos para realizar trabajos de vídeo, cine y fotografía a un nivel profesional, pero por ahora, yo soy algo más escéptico que Pedrojuán, y creo que en este momento han tocado techo, y por ahora fallan más que una escopeta de feria, o solo son útiles para determinadas tareas muy concretas (y con una supervisión humana muy encima).

Creo que pasará mucho tiempo para que sustituyan a trabajadores humanos que saben lo que hacen y tienen unos controles de calidad y unas habilidades que superan a las creaciones artísticas de las máquinas. Todavía hoy día un rodaje físico hecho con humanos profesionales (guionista, director, productor, director de fotografía, operador de cámara, actores, maquillaje, efectos especiales, editor…) y efectos especiales/animaciones hechos por especialistas en After effects/3D, etc. tienen más nivel, mejor resultado final, calidad, sentido y transmiten más que las creaciones IA.

Por el momento a nivel profesional solo son usables como curiosidad, para brainstormings y bocetos, y como herramientas estilo plugin para usos concretos dentro de un workflow de profesionales del audiovisual y la fotografía, y con mucha supervisión y tratamiento humano, pero no como herramientas únicas. De hecho hay programas como Adobe Premiere, Photoshop, DaVinci Resolve y Capcut, que ya incluyen dentro de sus programas, pequeñas herramientas estilo plugins o miniprogramas con IA integradas. Para generar imágenes, vídeos, voz y música, o para mejorar, modificar, ampliar, cambiar una imagen o video. O automatizar tareas (sincronización de audio, creación de subtítulos, edición de reels automáticos…). Siempre con un humano detrás sabiendo lo que hace, supervisando y corrigiendo errores de la IA (que tiene muchos y hace lo que le da la gana), para alcanzar un resultado final lo suficientemente satisfactorio.

En el futuro claro que me encantaría poder dirigir una película a partir de solo prompts, y luego que me edite esos planos automáticamente una IA, y que una IA le ponga el doblaje de todas las voces, y la música de la película, y que quede un resultado artístico medianamente decente, pero por el momento (Agosto 2024), me parece un sueño de ciencia ficción.

Así que estén tranquilos y sigan creando, humanos ¡muahahahahahahaha!

3 comentarios en “¿Con la IA es posible crear cine hoy día?

  1. Muy interesante, me han gustado los dos puntos de vista.
    Creo que la IA nos va ir sorprendiendo pero a día de hoy no es tan autónoma como nos gustaría para dar buenos resultados sino que depende del ser humano

    Le gusta a 1 persona

  2. La AI creo que todavía esta en pañales, de lo que he visto a nivel artístico no me ha gustado, por ejemplo mejor los efectos especiales realizados por humanos, dejarlo solo a la AI es riesgoso jaja

    Me gusta

  3. Pingback: Hemos creado un cortometraje con IA: WANG BA DAN! | AMORFOS Films .com

Replica a Fabián Cancelar la respuesta