Inteligencia Artificial: ¿cómo está cambiando la postproducción?

Inteligencia Artificial: ¿cómo está cambiando la postproducción?

Desde que la tecnología comenzó a implementar inteligencia artificial para optimizar sus servicios nada ha sido igual y el mundo de la producción audiovisual lo demuestra. Edición, composición, cinematografía; la manera en que los artistas crean evoluciona rápidamente. El tráiler de la película Morgan hecho a través de una Inteligencia Artificial por IBM Watson es prueba viviente de ello.

La cosa no para ahí. La colaboración de cámaras y computadoras para crear obras ha permitido recorrer caminos nunca antes vistos. A fin de cuentas, la postproducción audiovisual ofrece un lugar perfecto para explorar cada oportunidad que se presente. Ahora, la inteligencia artificial nos muestra un futuro prometedor para la producción audiovisual en las próximas décadas.

¿Cómo trabaja la inteligencia artificial en el mundo audiovisual?

Datos, todo gira alrededor de los datos. En cada industria los datos son explorados para crear patrones de búsqueda y respuesta en base a cada persona, por eso siempre parece que nuestro teléfono nos conoce extremadamente bien. No obstante, esto no significa que la inteligencia artificial se limita exclusivamente a mejorar la experiencia de los usuarios a través de respuestas personalizadas para redes sociales. ¡Para nada! El rango es muuucho más amplio; desde marketing hasta redacción de guiones. El número de soluciones creadas por IA para el desarrollo de producciones audiovisuales ha crecido exponencialmente.

¿No nos crees? Pues aquí tenemos algunos ejemplos de cómo la inteligencia artificial está cambiando la postproducción audiovisual

Edición de video

La postproducción audiovisual no sería posible sin la edición de video. Hoy en día, la edición ofrece un mundo de posibilidades nuevas gracias a la implementación de la inteligencia artificial; tanto para los novatos que no saben nada de edición como para los veteranos que quieren explotar su potencial.

Adobe es una de esas compañías que siempre busca renovarse y ahorrar tiempo a sus usuarios. Por eso integraron una inteligencia artificial a su interfaz de Adobe Premiere CC, y por momento el resultado no ha decepcionado. Ahora el software es capaz de nivelar y corregir automáticamente los colores entre un grupo de vídeos. Además de hacer retoques automáticos al rostro de las personas, como emparejar el color de piel, a través de su herramienta de Reconocimiento Facial. Entre otras de sus funciones guardadas bajo la manga está ‘’Autoducking’’, una herramienta que puede nivelar las voces, el sonido de fondo y la música al mismo tiempo.

Eso no es todo, ¿no sabes nada de edición pero quieres crear un video? Existen varias opciones interesantes de editores de video en el mercado. Un buen ejemplo es Magisto, un software que utiliza una inteligencia artificial llamada ‘’Sentido Emocional’’ para crear videos, los usuarios sólo deben seleccionar las fotos e indicar que emoción quieren transmitir con el video, el programa se encargará del resto.

inteligencia artificial

Edición y composición de audio

Un área que puede marcar la diferencia a la hora de evaluar un producto audiovisual es la edición de audio. En lo que respecta, Adobe Audition CC puede no ser el software más popular, pero tiene la capacidad de dar soluciones sencillas a través de una inteligencia artificial basada en tecnologías de limpieza de audio y una interfaz capacitada. Por ejemplo, la herramienta DeReverb puede reducir el eco de forma automática usando datos que se aplican en tiempo real. Otra herramienta DeNoise funciona de forma similar, pues permite reducir o eliminar ruidos no deseados y mejora cada vez que se utiliza. Al usar estas dos herramientas se pueden obtener buenos resultados de audio de forma casi automática para tus producciones audiovisuales.

Si quieres adentrarte a la música con la composición, softwares como AIVA te permiten crear canciones originales con la ayuda de la inteligencia artificial. Sólo debes colocar algunas indicaciones respecto a las emociones que quieras transmitir, indicar la duración, estilo y tempo;  y el software será capaz de componer una canción con esas indicaciones en pocos minutos. No por nada AIVA es la primera y única inteligencia artificial en recibir el título registrado de compositor musical. Su misión es clara: convertirse en uno de los grandes compositores de la historia ¿lo logrará?

Animación digital

A la hora de contar historias, la animación se ha convertido en una buena opción dentro del mundo audiovisual. No por nada es un medio que está en constante cambio y evolución gracias a los avances de la inteligencia artificial. Por ejemplo, el software Midas Touch Interactive, creado con la ayuda de veteranos de Pixar, ha añadido recientemente su función Midas Creature, la cual permite automatizar el proceso de animación de personajes 2D.

¿Cómo es eso posible? Pues los animadores dan direcciones sencillas de cómo se debe mover el personaje y la inteligencia artificial tratará de realizarlo, dando resultados acertados aunque un tanto robóticos (para alivio de los animadores). Esto ha permitido que Midas se posicione como una alternativa a los otros softwares de animación. Por supuesto, los artistas aún tienen que hacer la mayor parte del trabajo, pero esta nueva herramienta abre la puerta a un mundo de posibilidades. ¿Si la tecnología hizo que no fuera necesario dibujar cuadro por cuadro, por qué no podría cambiar nuevamente la animación?

inteligencia artificial

La pregunta del millón: ¿La Inteligencia Artificial reemplazará a los humanos?

Spoiler: No. Este es un miedo común entre las personas, probablemente debido a las películas y los rumores de internet, pero si prestamos atención nos daremos cuenta de que no es ninguna amenaza para la creatividad humana, todo lo contrario: es nuestro aliado.

Si bien es cierto que algunos trabajos se han vuelto obsoletos a medida que avanza la tecnología, los expertos indican que la inteligencia artificial se convertirá en una herramienta que irá de la mano de los creativos en la producción audiovisual, dando más opciones para producir. A fin de cuentas, la habilidad de crear obras de arte es algo propio del ser humano que la inteligencia artificial (aún) no puede alcanzar.

Qué esperar en los próximos años

El alcance total de la inteligencia artificial en la postproducción audiovisual aun es desconocido. En este artículo se citaron varios ejemplos de cómo está cambiando la postproducción, pero lo cierto es que esto es apenas la punta del iceberg. De lo que si podemos estar seguros es que el mundo de la edición, la composición y animación serán una de las áreas que más nos sorprenderán en la próxima década.

Por el momento nos tenemos que conformar sólo con programas optimizados. Aun así, nunca antes se había tenido acceso a tantas opciones para explotar la creatividad. Tanto así que se puede llegar a tener una sobrecarga de contenido e información. Ahora, lo importante es tener presente cómo utilizar estas herramientas de la mejor forma en los próximos años, ya que los cambios serán bastantes y lo importante será estar al día con todo lo que vendrá.

Por tu parte, ¿estás listo para todo lo que la inteligencia artificial te puede ofrecer?

Deepfakes vs. Trasplantes Faciales Digitales ¿En qué se diferencian?

Deepfakes vs. Trasplantes Faciales Digitales ¿En qué se diferencian?

Deepfakes vs. Trasplantes Faciales Digitales

El mundo de la producción audiovisual se encuentra en constante cambio, y Los Trasplantes Faciales Digitales han existido dentro del mismo durante años, mientras que los Deepfakes acaban de llegar hace apenas dos. Ambos procesos producen un mismo resultado, la posibilidad de suplantar un rostro por otro, en material audiovisual…Entonces, ¿Qué ha inspirado a la comunidad cinematográfica y de internet a prestar atención a estas técnicas de repente? Si los Trasplantes faciales Digitales existen dentro del cine desde los años 90 ¿Es la llegada de los Deepfakes, una técnica experimental con el mismo fin, realmente algo de lo cual preocuparse?

Primero, contexto…

Dentro del concepto de la edición absolutamente nada es nuevo. La necesidad de hacer de la realidad lo que queremos observar existe dentro de los seres humanos desde que les es posible sostener un pincel, y solo ha crecido con la existencia de la tecnología.  Comenzó en pinturas, luego fotografías y simplemente ha seguido adaptándose para llegar al medio de mayor alcance en el momento, dependiendo de la época.

Con la existencia de la televisión y el internet, son los medios audiovisuales los que poseen mayor prominencia actualmente. Un mensaje que se presenta por medio de un video, por ejemplo, llegará a tener una mayor audiencia que el que se presente por escrito o incluso por vía oral (dígase, un medio como la radio) simplemente porque es la combinación de los sentidos en la que más confiamos al momento de consumir contenido.

Por muchos años, se argumentó que una imagen llevaba consigo más veracidad que mil palabras, pero, con la existencia de herramientas como Photoshop, entre otras similares, las imágenes estáticas simplemente perdieron rango de impacto. El video tomó su lugar, ya que, si veíamos a alguien moverse en una pantalla, y además podíamos escucharle hablar, aquello era una prueba irrefutable de veracidad.

Ahora bien, ¿Es realmente posible que esto cambie gracias a técnicas audiovisuales como lo son los Trasplantes Faciales Digitales y Deepfakes? ¿Por qué y cuál es la diferencia?

¿Qué es un Trasplante Facial Digital?

Deepfakes vs. Trasplantes Faciales Digitales

La práctica del Trasplante Facial Digital se encuentra vigente en el cine del siglo 21 y consiste en implantar cualquier rostro que se desee, en el cuerpo de una persona a quien no pertenece. Es un proceso extenso y complicado, que suele requerir más de un estudio. Combina técnicas de Motion Capture y animación digital, buscando replicar texturas, expresiones y movimientos del rostro original, para que puedan mezclarse con los de la persona que aparece en pantalla, creando una ilusión semi-realista de que se trata de una sola.  

Dicha práctica ha sido implementada en varios trabajos cinematográficos conocidos, como lo son; Juego de Gemelas (1998) Los Soprano (1999) Gladiador (2000) y, más recientemente, Star Wars: Rogue One (2016). A pesar de ser bastante común en la industria, estos procesos son accesibles únicamente para grandes estudios cinematográficos, ya que requieren un grupo de trabajo de muchísimas personas, además de tecnología y equipos extremadamente específicos.  Tomando esto en cuenta, nunca había sido una preocupación prominente en la mente de la persona promedio que cualquiera pudiera replicar su rostro en video y posiblemente atribuirle acciones en las cuales nunca ha tomado parte y palabras que nunca ha pronunciado.

Sin embargo, en el año 2017 comenzó a surgir en la red social Reddit contenido que mostraba rostros de figuras públicas reconocidas implantados en los cuerpos de actores dentro de contenido adulto, emulando de una manera bastante convincente los resultados que pueden obtenerse a través del Trasplante Facial Digital. Es decir, sobreponer el rostro de una persona en el cuerpo de otra.

Este tipo de videos fueron denominados Deepfakes, el mismo nombre del usuario anónimo que los popularizó en esta red.

A pesar de que los videos han sido borrados de la página desde entonces debido a su contenido inapropiado, una semana después apareció en la web una nueva aplicación gratuita llamada FakeApp”,reconocida como el software responsable por este tipo de videos. A pesar de que el creador dio de baja la página original, hasta la fecha, la aplicación es relativamente fácil de adquirir por medio de terceros y se encuentra disponible para todo público.

¿Cómo se crea un Deepfake?:

Deepfakes vs. Trasplantes Faciales Digitales

El software responsable de los Deepfakes trabaja utilizando inteligencia artificial. Se trata de un simple algoritmo, que asigna a sus usuarios la sola tarea de alimentarlo con información (en este caso, es necesario proporcionar a la aplicación dos tipos de contenido clave; el video base y el video que contiene el rostro que deseamos sobreponer en el contenido original) los cuales el programa va a procesar y dividir por fotogramas.

Es importante denotar que, para asegurar la calidad del producto, será necesario contar con una base extensa de fotografías del rostro en cuestión, ya que, mientras más ángulos y expresiones se le proporcionen al algoritmo, más óptimo y realista será su trabajo. Igualmente, la calidad y longitud de los videos influyen en el tiempo que pueda tomarle a la aplicación el procesarlos. Habitualmente, si se trata de un video largo y busca lograrse cierta nitidez en el contenido, la espera será mayor, sin embargo, es posible procesar videos de cualquier longitud, sacrificando la calidad si desea realizarse en menor tiempo.

Después de que el material ha sido seleccionado, el software inicia una fase denominada “entrenamiento” durante la cual compara los fotogramas extraídos de ambos videos y comienza a fusionarlos, en base a la estructura facial y las similitudes entre ellos. No existe un período de tiempo específico para este proceso, y el creador del Deepfake en cuestión puede observarlo a través de una ventana de previsualización y decidir cuándo considera pertinente detenerlo.

Una vez que el resultado sea lo suficientemente satisfactorio, la base de datos deja al usuario con la fusión de los fotogramas creados y extraídos durante el entrenamiento, los cuales deben ser exportados como una secuencia de imágenes a cualquier programa de edición y renderizados como un video.

A pesar de que esta es la opción más recomendada para los editores que deseen tener un mayor control sobre el proceso y el cuidado de detalles, “FakeApp” cuenta con una alternativa para novatos, una de las carpetas de archivo incluidas en el momento de su descarga, denominada “convertir a MP4 a través de la cual el software se encarga de renderizar el contenido, sin ayuda del creador del Deepfake.

¿En qué se diferencia un Deepfake de un Trasplante facial Digital?

Al diferenciar un Trasplante Facial Digital de un Deepfake, se puede apelar a tres elementos clave:

 Equipos: Realizar un Trasplante Facial Digital de calidad, implica una combinación de técnicas y estudios previos a la producción. Entre ellos se encuentran estudiar y escanear la estructura facial de un actor y de su doble corporal, evaluando la reacción de ambas partes a la iluminación desde distintos ángulos. Esto suele realizarse en espacios especiales, donde las luces de estudio puedan proporcionar la mayor resolución posible. Subsecuentemente debe realizarse otro proceso de escaneo en una máquina que lleva por nombre Medusa Ring o “Anillo de Medusa” la cual se enfoca en expresiones faciales y proporciona a los animadores los modelos digitales para manipular en post-producción

Este equipamiento es extremadamente inaccesible para el creador promedio, puesto que solo puede encontrarse en estudios selectos de Los Ángeles.

Cuando todos estos procesos han sido completados, el doble corporal debe actuar en el set con el vestuario y además el equipo que se utiliza para el proceso de Motion Capture. Será luego trabajo de los animadores emular las expresiones del doble corporal, con el modelo digital del rostro escaneado del actor principal, para así iniciar el proceso de fusión que lleva al producto final.

  • Tiempo: Entre pre y post producción, se estima que realizar un trabajo de esta magnitud puede llevar, como mínimo, seis meses.
  • Presupuesto: Por otra parte, ninguno de los estudios conocidos por haber tenido experiencias con esta técnica, ha, hasta la fecha, proporcionado a los medios información sobre el costo de todos estos procesos. Sin embargo, es de consenso general que se trata de una de las inversiones más dispendiosas que puede haber en una producción.

La creación de un Deepfake, por otro lado, solo debe disponer de tres elementos: Un software como “FakeApp” (puesto que después de su aparición han surgido una gran cantidad de variaciones y similares), una computadora con una buena tarjeta de video, hardware capaz de procesar data pesada y un conocimiento básico de lenguaje de computación y edición.

Un buen Deepfake puede lograrse en períodos de tiempo que van desde 72 horas hasta dos semanas, dependiendo del contenido que el creador tenga disponible.

Más que nada, la existencia de los Deepfakes representa una oportunidad para ambos lados del espectro: Permite a grandes productoras reducir sus costos y a editores novatos experimentar con una técnica que no estaba a su alcance, sin necesidad de un presupuesto exuberante ni horas extensas de trabajo, además de minimizar la cantidad de equipo requerido y utilizado durante una producción, sea grande o pequeña.

Proyecciones futuras y cómo podemos desacreditar los “contras” de los Deepfakes

Actualmente la aplicación de “FakeApp” y todo nuevo software de esta índole, que no tardó en aparecer después de la popularidad de su predecesora, es gratuito y está disponible para el público general.  Después de que los Deepfakes ganaran popularidad en este año 2019 (a pesar de que el algoritmo fue lanzado a la web hace ya dos años) ha habido ciertas preocupaciones por parte de los medios, las cuales son, en parte, alimentadas por este factor de disponibilidad.

De nuevo, estamos hablando de la simplificación de una técnica existente (para reiterar, la acción de suplantar a alguien dentro de material audiovisual ha estado presente desde los años noventa) más, sin embargo, solo había estado al alcance de los grandes y poderosos estudios, hasta ahora. Los argumentos de los medios se basan en que, si es posible para absolutamente cualquier persona realizar este tipo de contenido, entonces no habrá manera de regular a los usuarios acorde a sus intenciones y, por lo tanto, es completamente posible que sea utilizado para fines erróneos (el más preocupante hasta la fecha es la difamación política, por ejemplo) y que pueda causar escándalos innecesarios.

Es correcto que este tipo de tecnología está en constante optimización, y, a pesar de que los resultados actuales son experimentales (dependiendo de la calidad del material proporcionado, post producción una vez ha sido renderizado, etc.) lo más probable es que, con la popularidad que ha obtenido el software  a nivel mundial el algoritmo pueda crear, con el paso del tiempo, un producto final más y más cercano a un humano consistente, hasta que la diferencia entre un video sin edición y un Deepfake sea extremadamente difícil de detectar.

Esta posibilidad ha sido utilizada por los medios para satanizar la herramienta y asociarla con la difusión de información errónea (Porque, si no podemos estar seguros de aquello que vemos y escuchamos, entonces, ¿a qué medio vamos a poder creerle?)  Algunos podrían argumentar que las preocupaciones de ese estilo son válidas. Sin embargo, como se mencionó anteriormente en el artículo, el concepto de editar la realidad difícilmente es nuevo (con uno de los primeros ejemplos históricos tomando lugar en los años 1930 durante las purgas políticas de Rusia) y especialmente en la era moderna digital, los seres humanos solemos ser relativamente críticos de los medios que consumimos.

Así pues, es altamente probable que, al igual que aprendimos a aceptar la existencia e identificar las características de las fotografías manipuladas, seamos capaces de hacer lo mismo con cualquier pieza de material audiovisual que se produzca en el futuro. La aversión a la existencia de esta herramienta bajo la premisa de que podría distorsionar cómo percibimos la realidad, habla más de la duda que hemos puesto en nuestra capacidad de observar los medios de manera crítica e imparcial, que de lo que hemos demostrado ser capaces de reconocer y procesar biológicamente.

Los Deepfakes no son producto de una herramienta de desinformación, sino de una que nos permitirá expandir los horizontes de los mundos que plasmamos en nuestras pantallas, sin limitar al creador en base a su locación o los recursos de los que disponga.

Pin It on Pinterest