RADAR_

IA

(ESA MOVIDA)

La inteligencia artificial irrumpe con nuevos modelos para la creación artística

POR EMILIO R. CASCAJOSA

La familia de Bruce Willis anunció el pasado 30 de marzo en Instagram la retirada del actor de 67 años a causa de una grave enfermedad cognitiva. Haciendo gala de un movimiento pionero en Hollywood, Willis respondió rápidamente vendiendo sus derechos de imagen a Deepcake, una empresa norteamericana de deepfake. Ahora podrán reproducir su álter ego en pantalla utilizando complejas tecnologías de aprendizaje automático. Este gemelo digital, construido con 34.000 fragmentos de películas, es el resultado de entrenar a una IA (siglas tras las que se esconde la inteligencia artificial) durante dos semanas; una tecnología disruptiva que ya se usó para dar vida a la Lola Flores del anuncio de Cruzcampo. Todas estas recreaciones se basan en mecanismos de aprendizaje profundo (el cacareado deep learning), un conjunto de algoritmos de aprendizaje automático para modelar abstracciones de alto nivel en datos.

Lola Flores revivida por obra y gracia del deepfake

Pero, ¿de qué va este fenómeno computacional que tanto está dando que hablar? El Centro de Investigación de la Comisión Europea (CA) lo define como “una serie de sistemas de software y hardware capaces de captar, procesar, interpretar y razonar datos alcanzando la mejor respuesta para lograr un determinado objetivo”. Suena inspirador. También puede dar miedito. El auge de la IA ha crecido tanto en estos meses que sería difícil encontrar a alguien que no haya oído hablar de la tecnología que está poniendo nuestro mundo patas arriba. Pero no nos dejemos llevar por el hype, porque más allá de la sobrexposición provocada por los grandes modelos generativos lanzados al público en este último año, la IA ya nos venía acompañando desde hace tiempo. La encontramos, por ejemplo, en el sistema de sugerencias de Google, en las recomendaciones de Netflix o en la súper computadora que vapuleó a Kaspárov sobre el tablero en el 97.

XENOMORFOS AL BORDE DE UN ATAQUE DE NERVIOS

La popularidad de la IA se dinamitó hace apenas un año con la implantación masiva y gratuita de sistemas entrenados para producir artificialmente texto, voz o imágenes: herramientas como ChatGPT o DALL-E 2 (con la que hemos creado la ilustración de esta página), que ya han dado la vuelta al mundo en tiempo record. OpenAI, la empresa de Elon Musk, lanzó en abierto hace un año la plataforma GPT-3, donde podías generar automáticamente un poema o una letra de canción mediante un modelo artificial basado en la comprensión del lenguaje natural. Cuando, a finales de 2022, OpenAI abrió las puertas de su chatGPT, un asistente virtual entrenado para el diálogo, millones de usuarios avalaron sus posibilidades como avance en la creación de contenidos. Inevitablemente, el fenómeno ha hecho saltar los pistones y autores como Guillermo del Toro lo han calificado como “una burla de lo que es el ser humano”.


En estos meses también han ido abriéndose al público otras herramientas capaces de transformar cualquier instrucción en una imagen, disparándose la democratización de la IA. Casos como los de Stable Diffusion, la DALL-E 2 de OpenAI o Midjourney han terminado provocando un terremoto mediático por su asombrosa sofisticación. ¿Te imaginas colocar a Batman en mitad de la Tierra Media? Pues ya podemos hacerlo. ¿Y una versión de Alien dirigida por Pedro Almodóvar? Con Midjourney todo esto es posible, ya que es capaz de recrear con imágenes películas que nunca han existido.

Deep Purple según El Greco. Imagen creada con Midjourney por Pablo Escobedo (Prodigioso Volcán) para Icónica Fest

Carmen Torrijos, lingüista computacional y responsable de inteligencia artificial en la consultora Prodigioso Volcán, lleva tiempo liderando proyectos de ideación para aplicar la innovación de los sistemas inteligentes al marketing. Para ella, el bum de esta revolucionaria tecnología tiene un origen muy determinado. “Hay dos hitos fundamentales que han permitido avanzar en la comprensión del lenguaje natural y que son ahora los que nos facilitan el acceso sin código a soluciones como DALL-E 2 o chatGPT”, comenta la experta. “El primero es la capacidad de encapsular el significado de las palabras en un vector numérico, que apareció por primera vez en 2013. El segundo tiene que ver con la ampliación contextual, conseguir que esos vectores de significado tuvieran en cuenta el contexto amplio que rodeaba a la palabra. Estos dos avances son los que han permitido que los sistemas de IA reconozcan lo que pedimos a través de instrucciones, lo que llamamos prompts”.

“La premisa es que el autor no puede ser una máquina. Sería como pedir cuentas al traductor automático por una mala traducción” (Carmen Torrijos)

La popularidad de esta tecnología se ha extendido tanto que no han tardado en aparecer agrupaciones de expertos dispuestos a acelerar su crecimiento por todo el mundo. Es el caso de Spain AI, una asociación sin ánimo de lucro fundada en 2017 y que busca democratizar la IA en castellano. Paul Van Branteghem es su cofundador, y se muestra sorprendido con el despliegue de los últimos meses. “Hace unos años no hubiese apostado a que llegaríamos a 2022 manteniendo el estado en el que nos encontramos”, comenta este físico y analista digital. Pero la incorporación del aprendizaje automático en la creación cultural no solo ha introducido determinadas sofisticaciones tecnológicas, también ha generado dudas respecto a quién es el responsable de las creaciones. “La premisa es que el autor no puede ser una máquina. Sería como intentar pedir cuentas al traductor automático por una mala traducción”, comenta Torrijos. “Tampoco es lógico ni sostenible plantear una autoría colectiva. Es fundamental entender que la IA es un producto reactivo, no proactivo, por lo que responde a una petición igual que cualquier otra herramienta, no produce nada por sí misma”.

CULTURA, CREACIÓN E INTELIGENCIA ARTIFICIAL

¿Hasta qué punto está cambiando la IA la manera en la que generamos cultura? Entrevistamos a Juan Alonso (miembro de PAMP!), Paul Van Branteghem (co-fundador de Spain AI), Ruth Falquina (de Estado Latente, agencia de cocreación con IA), Josue Ibañez (experto en arte inmersivo), Cristian Larrosa (CEO de Larrosa Music Group), Paul Rivas (abogado legal tech en Montero Aramburu) y Carmen Torrijos (responsable de IA en la consultora Prodigioso Volcán).

CÁNTAME POR ALGORITMOS

Un artículo reciente publicado en Music Business Worldwide (MBW) indicó que los servicios de transmisión de Tencent Music contienen ahora más de 1.000 canciones con voces artificiales. Todas estas pistas han sido creadas por la IA de este gigante tecnológico chino y están acumulando miles de millones de reproducciones. Stef Van Vugt, CEO de la compañía especializada en playlists Fruits Music, ve en esta tecnología uno de los elementos más disruptivos que experimentará la industria musical en los próximos años. “Es razonable afirmar que pronto veremos cómo la música generada por IA se convertirá en una alternativa clara”, comentó el empresario recientemente. Un ejemplo: entre las novedades musicales que coronaron las playlists del pasado año, nos topamos con Popular, segundo single del último álbum de la rapera M.I.A.; una reveladora mezcla de reggaetón e inteligencia artificial.

M.I.A. y su gemela artificial le dan al reguetón

Pero el de M.I.A. no es un caso aislado. Ya existen IAs que pueden escribir canciones, corregir y ecualizar la voz o incluso imitarla. El pasado octubre, HYBE Corporation invirtió 32 millones de dólares para adquirir la empresa surcoreana Supertone, desarrolladora deun software que puede crear una voz hiperrealista. Si nos atenemos al hecho de que HYBE es la compañía detrás de grandes estrellas del K-pop, como los multimillonarios BTS, la movida queda clara. Pero la cosa sigue avanzando. Inevitablemente, muchos artistas han empezado a ir más allá de la producción tradicional incorporando estas herramientas en sus procesos. En 2018, Taryn Southern lanzó I am AI, un álbum compuesto y producido con cuatro programas musicales (AIVA, Google Magenta, Watson Beat y Amper Music). Y la polémica Holly Herndon tampoco se queda corta: apoyándose en una inteligencia artificial, ha sido capaz de crear Holly+, una herramienta de deepfake vocal que posibilita a cualquier artista cantar con la voz prestada de la compositora norteamericana.

Holly Herndon, cerebro electrónico y pop artificial

El ejemplo más cercano sobre la conexión entre música y deeplearning lo tenemos en PAMP!, un equipo multidisciplinar de músicos, productores e ingenieros que se lanzaron a componer una pieza para participar en AI Song Contest, el Eurovisión de las canciones escritas con IA, celebrado el pasado verano en Lieja (Bélgica). Su canción “AI-Lalelo” se hizo con la mejor puntuación en el sistema de televoto y obtuvo la segunda posición, detrás de la tailandesa “Demons and gods”. “Evitamos convertir la canción en un muestrario de algoritmos sin más”, recuerda Juan Alonso, desarrollador y miembro de PAMP!. “Arrancamos con una base de cientos de coplas en gallego, tanto melodías como letras. Con los textos entrené a la red GPT-3 para que se familiarizara con el idioma y la estructura de los versos. Luego generamos cientos de canciones y elegimos las más interesantes”. El resultado, en el siguiente vídeo:

“AI-Lalelo”, segundo puesto enAI Song Contest

Esta visión creativa también la comparten la coreógrafa Muriel Romero y el compositor Pablo Palacio, fundadores de Instituto Stocos, una compañía de danza pionera en nuestro país experimentando con inteligencia artificial. En su espectáculo Neural Narratives, redes neuronales crean estructuras corporales abstractas conectadas al cuerpo que amplifican el espectáculo con proyecciones holográficas.


Pero, ¿dónde llegaremos con todo esto de la IA aplicada a la creación? Carmen Torrijos lo ve con optimismo. “Creo que alcanzaremos una producción híbrida en la que todos los productos culturales estarán asistidos por inteligencia artificial. El trabajo humano será más inteligente y estará más enfocado a pulir y elaborar esas producciones. Seguiremos valorando la motivación humana y la IA se integrará como una herramienta más hasta el punto de que no la mencionaremos. Igual que ahora nadie menciona Word o Photoshop”.

Preguntamos a chatGPT qué le pediría a Chiquito de la Calzada para 2023 y esto fue lo que nos respondió:

“Como soy un modelo de lenguaje sin acceso a internet, me resultaría difícil pedirle cualquier cosa sin tener algo más de contexto. Si Chiquito de la Calzada estuviera vivo y fuera posible hacerle una petición, podría proponerle presentar un nuevo espectáculo de humor inédito. También buscaría la oportunidad para trabajar juntos”.

Ilustración

Miguel Sueiro/Baliente con DALL-E 2

Vídeo

Guion: Emilio R. Cascajosa

Edición: Abel Cabrerizo/Baliente

Enlaces

Prodigioso Volcán

Spain AI

Juan Alonso 

Laboratorio Both

Estado latente

Josue Ibañez

Holly+

Midjourney

DALL-E 2

Open AI

ChatGPT

Stable Diffusion

Respeecher

Deepcake

Relatos Sintéticos, podcast


!!!!!!!!!!!!!!!!!!!!!

FUNDACIÓN SGAE EN OFFF SEVILLA

Foto: Lolo Vasco

Bajo el lema “Made for the curious”, el festival Offf Sevilla  ofreció el pasado diciembre una serie de jornadas enfocadas a fomentar los nuevos desafíos a los que se enfrenta la actual escena creativa. Durante cuatro días, La Real Fábrica de Artillería acogió experiencias de creadores new media, desarrolladoras de arte generativo, expertos en robótica y big data y autoras de música experimental. Fundación SGAE colabora con OFFF Sevilla desde hace tres ediciones, asegurando la promoción de los autores y las autoras vinculados con la transformación digital del ocio y la cultura.