Desde que la tecnología comenzó a implementar inteligencia artificial para optimizar sus servicios nada ha sido igual y el mundo de la producción audiovisual lo demuestra. Edición, composición, cinematografía; la manera en que los artistas crean evoluciona rápidamente. El tráiler de la película Morgan hecho a través de una Inteligencia Artificial por IBM Watson es prueba viviente de ello.
La cosa no para ahí. La colaboración de cámaras y computadoras para crear obras ha permitido recorrer caminos nunca antes vistos. A fin de cuentas, la postproducción audiovisual ofrece un lugar perfecto para explorar cada oportunidad que se presente. Ahora, la inteligencia artificial nos muestra un futuro prometedor para la producción audiovisual en las próximas décadas.
¿Cómo trabaja la inteligencia artificial en el mundo
audiovisual?
Datos, todo gira alrededor de los datos. En cada industria los datos son explorados para crear patrones de búsqueda y respuesta en base a cada persona, por eso siempre parece que nuestro teléfono nos conoce extremadamente bien. No obstante, esto no significa que la inteligencia artificial se limita exclusivamente a mejorar la experiencia de los usuarios a través de respuestas personalizadas para redes sociales. ¡Para nada! El rango es muuucho más amplio; desde marketing hasta redacción de guiones. El número de soluciones creadas por IA para el desarrollo de producciones audiovisuales ha crecido exponencialmente.
¿No nos crees? Pues aquí tenemos algunos ejemplos de cómo la inteligencia artificial está cambiando la postproducción audiovisual
Edición de video
La postproducción
audiovisual no sería posible sin la edición
de video. Hoy en día, la edición ofrece un mundo de posibilidades nuevas
gracias a la implementación de la inteligencia artificial; tanto para los
novatos que no saben nada de edición como para los veteranos que quieren
explotar su potencial.
Adobe es una de esas compañías que siempre busca renovarse y ahorrar tiempo a sus usuarios. Por eso integraron una inteligencia artificial a su interfaz de Adobe Premiere CC, y por momento el resultado no ha decepcionado. Ahora el software es capaz de nivelar y corregir automáticamente los colores entre un grupo de vídeos. Además de hacer retoques automáticos al rostro de las personas, como emparejar el color de piel, a través de su herramienta de Reconocimiento Facial. Entre otras de sus funciones guardadas bajo la manga está ‘’Autoducking’’, una herramienta que puede nivelar las voces, el sonido de fondo y la música al mismo tiempo.
Eso no es todo, ¿no
sabes nada de edición pero quieres crear un video? Existen varias
opciones interesantes de editores de video en el mercado. Un buen ejemplo es Magisto,
un software que utiliza una inteligencia artificial llamada ‘’Sentido Emocional’’
para crear videos, los usuarios sólo deben seleccionar las fotos e indicar que
emoción quieren transmitir con el video, el programa se encargará del resto.
Edición y composición de audio
Un área que puede marcar la diferencia a la hora de evaluar un producto audiovisual es la edición de audio. En lo que respecta, Adobe Audition CC puede no ser el software más popular, pero tiene la capacidad de dar soluciones sencillas a través de una inteligencia artificial basada en tecnologías de limpieza de audio y una interfaz capacitada. Por ejemplo, la herramienta DeReverb puede reducir el eco de forma automática usando datos que se aplican en tiempo real. Otra herramienta DeNoise funciona de forma similar, pues permite reducir o eliminar ruidos no deseados y mejora cada vez que se utiliza. Al usar estas dos herramientas se pueden obtener buenos resultados de audio de forma casi automática para tus producciones audiovisuales.
Si quieres adentrarte a la música con la composición, softwares como AIVA te permiten crear canciones originales con la ayuda de la inteligencia artificial. Sólo debes colocar algunas indicaciones respecto a las emociones que quieras transmitir, indicar la duración, estilo y tempo; y el software será capaz de componer una canción con esas indicaciones en pocos minutos. No por nada AIVA es la primera y única inteligencia artificial en recibir el título registrado de compositor musical. Su misión es clara: convertirse en uno de los grandes compositores de la historia ¿lo logrará?
Animación digital
A la hora de contar
historias, la animación se ha convertido en una buena opción dentro del mundo
audiovisual. No por nada es un medio que está en constante cambio y evolución
gracias a los avances de la inteligencia artificial. Por ejemplo, el software Midas Touch Interactive, creado con la ayuda de veteranos de
Pixar, ha añadido recientemente su función Midas Creature, la cual permite
automatizar el proceso de animación de personajes 2D.
¿Cómo es eso posible? Pues los animadores dan direcciones sencillas de cómo se debe mover el personaje y la inteligencia artificial tratará de realizarlo, dando resultados acertados aunque un tanto robóticos (para alivio de los animadores). Esto ha permitido que Midas se posicione como una alternativa a los otros softwares de animación. Por supuesto, los artistas aún tienen que hacer la mayor parte del trabajo, pero esta nueva herramienta abre la puerta a un mundo de posibilidades. ¿Si la tecnología hizo que no fuera necesario dibujar cuadro por cuadro, por qué no podría cambiar nuevamente la animación?
La pregunta del millón: ¿La Inteligencia Artificial
reemplazará a los humanos?
Spoiler: No. Este es un miedo
común entre las personas, probablemente debido a las películas y los rumores de
internet, pero si prestamos atención nos daremos cuenta de que no es ninguna
amenaza para la creatividad humana, todo lo contrario: es nuestro aliado.
Si bien es cierto que algunos trabajos se han vuelto obsoletos a medida que avanza la tecnología, los expertos indican que la inteligencia artificial se convertirá en una herramienta que irá de la mano de los creativos en la producción audiovisual, dando más opciones para producir. A fin de cuentas, la habilidad de crear obras de arte es algo propio del ser humano que la inteligencia artificial (aún) no puede alcanzar.
Qué esperar en los próximos años
El alcance total de la inteligencia artificial en la postproducción audiovisual aun es desconocido. En este artículo se citaron varios ejemplos de cómo está cambiando la postproducción, pero lo cierto es que esto es apenas la punta del iceberg. De lo que si podemos estar seguros es que el mundo de la edición, la composición y animación serán una de las áreas que más nos sorprenderán en la próxima década.
Por el momento nos tenemos que conformar sólo con programas optimizados. Aun así, nunca antes se había tenido acceso a tantas opciones para explotar la creatividad. Tanto así que se puede llegar a tener una sobrecarga de contenido e información. Ahora, lo importante es tener presente cómo utilizar estas herramientas de la mejor forma en los próximos años, ya que los cambios serán bastantes y lo importante será estar al día con todo lo que vendrá.
Por tu parte, ¿estás
listo para todo lo que la inteligencia artificial te puede ofrecer?
El mundo de la producción audiovisual se encuentra en constante cambio, y Los Trasplantes Faciales Digitales han existido dentro del mismo durante años, mientras que los Deepfakes acaban de llegar hace apenas dos. Ambos procesos producen un mismo resultado, la posibilidad de suplantar un rostro por otro, en material audiovisual…Entonces, ¿Qué ha inspirado a la comunidad cinematográfica y de internet a prestar atención a estas técnicas de repente? Si los Trasplantes faciales Digitales existen dentro del cine desde los años 90 ¿Es la llegada de los Deepfakes, una técnica experimental con el mismo fin, realmente algo de lo cual preocuparse?
Primero, contexto…
Dentro del concepto de laediciónabsolutamente nada es nuevo. La necesidad de hacer de la realidad lo que queremos observar existe dentro de los seres humanos desde que les es posible sostener un pincel, y solo ha crecido con la existencia de la tecnología. Comenzó en pinturas, luego fotografías y simplemente ha seguido adaptándose para llegar al medio de mayor alcance en el momento, dependiendo de la época.
Con la existencia de la televisión y el internet, son los mediosaudiovisuales los que poseen mayor prominencia actualmente. Un mensaje que se presenta por medio de un video, por ejemplo, llegará a tener una mayor audiencia que el que se presente por escrito o
incluso por vía oral (dígase, un medio como la radio) simplemente porque es la
combinación de los sentidos en la que más confiamos al momento de consumir
contenido.
Por muchos años, se argumentó que una imagen llevaba consigo más veracidad que mil palabras, pero, con la existencia de herramientas comoPhotoshop, entre otras similares, las imágenes estáticas simplemente perdieron rango de impacto. El video tomó su lugar, ya que, si veíamos a alguien moverse en una pantalla, y además podíamos escucharle hablar, aquello era una prueba irrefutable de veracidad.
Ahora bien, ¿Es realmente posible que esto cambie gracias a técnicas audiovisuales como lo son los Trasplantes Faciales Digitales yDeepfakes? ¿Por qué y cuál es la diferencia?
¿Qué es un
Trasplante Facial Digital?
La práctica del Trasplante Facial Digital se encuentra vigente en el cine del siglo 21 y consiste en implantar cualquier rostro que se desee, en el cuerpo de una persona a quien no pertenece. Es un proceso extenso y complicado, que suele requerir más de un estudio. Combina técnicas de Motion Capture y animación digital, buscando replicar texturas, expresiones y movimientos del rostro original, para que puedan mezclarse con los de la persona que aparece en pantalla, creando una ilusión semi-realista de que se trata de una sola.
Dicha práctica ha sido implementada en varios
trabajos cinematográficos conocidos, como lo son; Juego de Gemelas (1998) Los Soprano (1999) Gladiador (2000) y, más
recientemente, Star Wars: Rogue One (2016).
A pesar de ser bastante común en la industria, estos procesos son accesibles
únicamente para grandes estudios cinematográficos, ya que requieren un grupo de
trabajo de muchísimas personas, además de tecnología y equipos extremadamente específicos. Tomando esto en cuenta, nunca había sido una
preocupación prominente en la mente de la persona promedio que cualquiera pudiera
replicar su rostro en video y posiblemente atribuirle acciones en las cuales
nunca ha tomado parte y palabras que nunca ha pronunciado.
Sin embargo, en el año 2017 comenzó a surgir en la red
social Reddit contenido que mostraba
rostros de figuras públicas reconocidas implantados en los cuerpos de actores dentro
de contenido adulto, emulando de una manera bastante convincente los resultados
que pueden obtenerse a través del Trasplante
Facial Digital. Es decir, sobreponer el rostro de una persona en el cuerpo de
otra.
Este tipo de videos fueron denominados Deepfakes, el mismo nombre del usuario anónimo que los popularizó en esta red.
A pesar de que los videos han sido borrados de la página desde entonces debido a su contenido inapropiado, una semana después apareció en la web una nueva aplicación gratuita llamada “FakeApp”,reconocida como el software responsable por este tipo de videos. A pesar de que el creador dio de baja la página original, hasta la fecha, la aplicación es relativamente fácil de adquirir por medio de terceros y se encuentra disponible para todo público.
¿Cómo se crea un Deepfake?:
El software responsable de los Deepfakes trabaja utilizando inteligencia artificial. Se trata de un simple algoritmo, que asigna a sus usuarios la sola tarea de alimentarlo con información (en este caso, es necesario proporcionar a la aplicación dos tipos de contenido clave; el video base y el video que contiene el rostro que deseamos sobreponer en el contenido original) los cuales el programa va a procesar y dividir por fotogramas.
Es importante
denotar que, para asegurar la calidad del producto, será necesario contar con
una base extensa de fotografías del rostro en cuestión, ya que, mientras más
ángulos y expresiones se le proporcionen al algoritmo, más óptimo y realista
será su trabajo. Igualmente, la calidad y longitud de los videos influyen en el
tiempo que pueda tomarle a la aplicación el procesarlos. Habitualmente, si se
trata de un video largo y busca lograrse cierta nitidez en el contenido, la
espera será mayor, sin embargo, es posible procesar videos de cualquier longitud,
sacrificando la calidad si desea realizarse en menor tiempo.
Después de que el material ha sido seleccionado, el software inicia una fase denominada “entrenamiento” durante la cual compara los fotogramas extraídos de ambos videos y comienza a fusionarlos, en base a la estructura facial y las similitudes entre ellos. No existe un período de tiempo específico para este proceso, y el creador del Deepfake en cuestión puede observarlo a través de una ventana de previsualización y decidir cuándo considera pertinente detenerlo.
Una vez que el
resultado sea lo suficientemente satisfactorio, la base de datos deja al
usuario con la fusión de los fotogramas creados y extraídos durante el
entrenamiento, los cuales deben ser exportados como una secuencia de imágenes a
cualquier programa de edición y
renderizados como un video.
A pesar de que esta es la opción más recomendada para los editores que deseen tener un mayor control sobre el proceso y el cuidado de detalles, “FakeApp” cuenta con una alternativa para novatos, una de las carpetas de archivo incluidas en el momento de su descarga, denominada “convertir a MP4” a través de la cual el software se encarga de renderizar el contenido, sin ayuda del creador del Deepfake.
¿En qué se
diferencia un Deepfake de un Trasplante facial Digital?
Al diferenciar un Trasplante Facial Digital de un Deepfake, se puede apelar a tres elementos clave:
Equipos: Realizar un Trasplante Facial Digital de calidad, implica una combinación de técnicas y estudios previos a la producción. Entre ellos se encuentran estudiar y escanear la estructura facial de un actor y de su doble corporal, evaluando la reacción de ambas partes a lailuminación desde distintos ángulos. Esto suele realizarse en espacios especiales, donde las luces de estudio puedan proporcionar la mayor resolución posible. Subsecuentemente debe realizarse otro proceso de escaneo en una máquina que lleva por nombre Medusa Ring o “Anillo de Medusa” la cual se enfoca en expresiones faciales y proporciona a los animadores los modelos digitales para manipular en post-producción
Este equipamiento es extremadamente inaccesible
para el creador promedio, puesto que solo puede encontrarse en estudios
selectos de Los Ángeles.
Cuando todos estos procesos han sido completados,
el doble corporal debe actuar en el set con el vestuario y además el equipo que
se utiliza para el proceso de Motion Capture.
Será luego trabajo de los animadores emular las expresiones del doble
corporal, con el modelo digital del rostro escaneado del actor principal, para
así iniciar el proceso de fusión que lleva al producto final.
Tiempo: Entre pre y post producción, se estima que realizar un trabajo de esta magnitud puede llevar, como mínimo, seis meses.
Presupuesto: Por otra parte, ninguno de los estudios conocidos por haber tenido experiencias con esta técnica, ha, hasta la fecha, proporcionado a los medios información sobre el costo de todos estos procesos. Sin embargo, es de consenso general que se trata de una de las inversiones más dispendiosas que puede haber en una producción.
La creación de un Deepfake, por otro lado, solo debe disponer de tres elementos: Un
software como “FakeApp” (puesto que después de su aparición han surgido una
gran cantidad de variaciones y similares), una computadora con una buena tarjeta
de video, hardware capaz de procesar data pesada y un conocimiento básico de
lenguaje de computación y edición.
Un buen Deepfake
puede lograrse en períodos de tiempo que van desde 72 horas hasta dos
semanas, dependiendo del contenido que el creador tenga disponible.
Más que nada, la existencia de los Deepfakes representa una oportunidad
para ambos lados del espectro: Permite a grandes productoras reducir sus costos
y a editores novatos experimentar con una técnica que no estaba a su alcance,
sin necesidad de un presupuesto exuberante ni horas extensas de trabajo, además
de minimizar la cantidad de equipo requerido y utilizado durante una
producción, sea grande o pequeña.
Proyecciones futuras
y cómo podemos desacreditar los “contras”
de los Deepfakes
Actualmente la
aplicación de “FakeApp” y todo nuevo software
de esta índole, que no tardó en aparecer después de la popularidad de su
predecesora, es gratuito y está disponible para el público general. Después de que los Deepfakes ganaran popularidad en este año 2019 (a pesar de que el
algoritmo fue lanzado a la web hace ya dos años) ha habido ciertas preocupaciones
por parte de los medios, las cuales son, en parte, alimentadas por este factor
de disponibilidad.
De nuevo, estamos
hablando de la simplificación de una técnica existente (para reiterar, la
acción de suplantar a alguien dentro de material audiovisual ha estado presente
desde los años noventa) más, sin embargo, solo había estado al alcance de los grandes
y poderosos estudios, hasta ahora. Los argumentos de los medios se basan en
que, si es posible para absolutamente
cualquier persona realizar este tipo de contenido, entonces no habrá manera
de regular a los usuarios acorde a sus intenciones y, por lo tanto, es
completamente posible que sea utilizado para fines erróneos (el más preocupante
hasta la fecha es la difamación política, por ejemplo) y que pueda causar
escándalos innecesarios.
Es correcto que
este tipo de tecnología está en constante optimización, y, a pesar de que los
resultados actuales son experimentales (dependiendo de la calidad del material
proporcionado, post producción una vez ha sido renderizado, etc.) lo más
probable es que, con la popularidad que ha obtenido el software a nivel mundial el algoritmo pueda crear, con
el paso del tiempo, un producto final más y más cercano a un humano consistente,
hasta que la diferencia entre un video sin edición y un Deepfake sea extremadamente difícil de detectar.
Esta posibilidad ha
sido utilizada por los medios para satanizar la herramienta y asociarla con la
difusión de información errónea (Porque,
si no podemos estar seguros de aquello que vemos y escuchamos, entonces, ¿a qué
medio vamos a poder creerle?) Algunos podrían argumentar que las
preocupaciones de ese estilo son válidas. Sin embargo, como se mencionó
anteriormente en el artículo, el concepto de editar la realidad difícilmente es
nuevo (con uno de los primeros ejemplos
históricos tomando lugar en los años 1930 durante las purgas políticas de
Rusia) y especialmente en la era moderna digital, los seres humanos solemos
ser relativamente críticos de los medios que consumimos.
Así pues, es
altamente probable que, al igual que aprendimos a aceptar la existencia e
identificar las características de las fotografías manipuladas, seamos capaces
de hacer lo mismo con cualquier pieza de material audiovisual que se produzca
en el futuro. La aversión a la existencia de esta herramienta bajo la premisa
de que podría distorsionar cómo percibimos la realidad, habla más de la duda
que hemos puesto en nuestra capacidad de observar los medios de manera crítica
e imparcial, que de lo que hemos demostrado ser capaces de reconocer y procesar
biológicamente.
Los Deepfakes no son producto de una
herramienta de desinformación, sino de una que nos permitirá expandir los
horizontes de los mundos que plasmamos en nuestras pantallas, sin limitar al
creador en base a su locación o los recursos de los que disponga.