Un avance tecnológico que no deja de asombrar a propios y ajenos; pero que ha encendido las alarmas de artistas y trabajadorxs de diversas ramas de la industria visual. ¿Cómo funcionan? ¿Qué efectos pueden generar en el trabajo de aquellos y aquellas que viven de la creación de imágenes?
Martes 28 de marzo de 2023
Zootropo (detalle), tinta y esgrafiado sobre papel, Santiago Caruso
En los últimos años, los desarrollos tecnológicos sobre lo que se conoce como inteligencia artificial (IA) han dado un salto exponencial, alcanzando las más diversas áreas de la actividad social. Sus relaciones con la robótica y la industria pesada han dejado de ser el ámbito exclusivo donde estos avances dan que hablar. Convivimos con este tipo de tecnología a diario, detrás de cualquier chat de servicios, operando en los motores de búsqueda de cualquiera de las aplicaciones de nuestros celulares o en las formas en que nuestras redes sociales nos presentan la información. Y así como se expande el campo de acción posible para las IAs, también crecen las expectativas y los debates sobre sus consecuencias.
Te puede interesar: Inteligencia artificial demasiado humana
Te puede interesar: Inteligencia artificial demasiado humana
Incluso los avances en el campo de las imágenes han dejado de ser una novedad para empezar a transformar la manera en que se crean y consumen las producciones visuales. No ha pasado un año desde que se dieron a conocer desarrollos como Dall-e 2, Midjourney o Stable Difusion, algoritmos capaces de crear imágenes a pedido a través de un ordenador en cuestión de segundos. Es un avance tecnológico que no deja de asombrar a propios y ajenos; pero que ha encendido las alarmas de artistas y trabajadorxs de diversas ramas de la industria visual. Probablemente una herramienta poderosa para las y los creativos, pero que, en el centro de una industria ya precarizada, genera nuevas problemáticas para artistas visuales, diseñadorxs, ilustradorxs…
Para comenzar a problematizar no sólo sobre cómo funcionan; sino también sobre los efectos que pueden generar en el trabajo de aquellos y aquellas que viven de la creación de imágenes, entrevistamos a Santiago Caruso. Él es ilustrador y artista plástico, con más de veinte años en el oficio. Ha trabajado en publicaciones como “La condesa sangrienta” de Alejandra Pizarnik, “Los cantos de Maldoror” del Conde de Lautreamont o “Invocaciones” de Neil Gaiman. “Autoría y Autoencoders” es el texto que acaba de publicar, en él Santiago analiza y estudia el funcionamiento de esta nueva tecnología y desarrolla su opinión.
¿Cómo funcionan este tipo particular de inteligencias artificiales?
Este tipo de algoritmos operan a partir de la captura y asimilación computacional de miles de millones de imágenes, a través del modelo de difusión. Éste modelo permite codificar archivos de imagen en un mismo campo de ruido visual -ruido, como puntos aleatorios en un espacio bidimensional- desde el cual, luego decodificar fragmentos o la totalidad de esas imágenes en cualquier posición del plano, según un comando de texto del usuario del algoritmo.
Estos algoritmos se nutren de colosales conjuntos de datos tomados de personas. Estos conjuntos contienen imágenes asociadas a un texto que explique inicialmente qué hay en la imagen en sí: objeto o sujeto, técnica, autor, color. Luego el algoritmo ordena millones de imágenes por esas pautas de texto o por las correspondencias de pixels (similitudes) que hubiera entre las imágenes, y establece una especie de biblioteca con toda la historia del arte. Ese ordenamiento es lo que le permite generar una imagen artificial según la pauta que el usuario ingresa por escrito. Doy un ejemplo que no es inocente, sino el de una imagen real que circuló esta semana: Donald Trump resistiéndose a un arresto de uniformados, estilo fotoperiodismo, hiperrealista. Y el programa recurre a los datos aprendidos de todos internet para generar esa imagen, que hoy ya es muy difícil de distinguir de una foto real, y que en la próxima versión del software podría ser indetectable.
Como verán, esto tiene implicaciones serias para la política y la seguridad de las personas que no cuentan con el respaldo de Trump para desmentir los hechos. Siguiendo con el punto de la vulneración de derechos, el conjunto de datos millonario para entrenar estos algoritmos generativos se tomó sin permiso, crédito ni compensación económica para con las personas que figuran en las imágenes o que las crearon. Creativxs y personas de a píe están siendo explotadas a través de utilizar su identidad artística y física en las imágenes generadas artificialmente. La imagen de cualquiera puede resultar de uno de estos programas y formar parte de ilustraciones o de deep fakes. Pero lo peor para lxs trabajadorxs es que esta tecnología, usando sus producciones previas (o futuras) de ellxs, genera derivados artificiales que compiten con su propia obra.
¿Qué empresas están detrás de estos desarrollos?
LAION y Stabiliti.AI fueron fundadas al mismo tiempo por Emad Moustaque. La primera con el fin de rastrillar la data de todo sitio de internet; la segunda con el fin de refinar el modelo de difusión para procesar esos datos: Stable Diffusion. Ambas empresas se prestaron a una maniobra de lavado de datos muy común: bajo la categoría de non-profit (no lucrativas) pudieron capturar casi 6 mil millones de imágenes de internet. Esa data se cedió entre las partes para desarrollar un software imitativo y derivativo de toda la historia del arte humano, una “máquina de plagiar” lanzada al mundo como un software de código libre, para enmascarar el negocio que supone ser dueño de las API del mismo, que cotizan en bolsa por miles de millones de dólares.
A través del entrenamiento de Stable Diffusion con la base de datos de LAION, plataformas como Midjourney, Dall-e2, Disco Diffusion o Night Café hacen un negocio lucrativo con sus usuarios. Varios de estos modelos de IAs generativas se promocionan y operan usando los nombres de los artistas robados y los usan como parte de los comandos de textos con que indicarle al software que use sus obras en la generación del output. Esto constituye otra instancia violatoria: la usurpación de identidad de los artistas y de los derechos morales y patrimoniales que les corresponden. Millones de usuarios en interacción permanente con los bots de estas plataformas aumentan de modo exponencial el alcance del daño plagiario originado por los desarrolladores. Contra el oficio creativo y la valoración del trabajo humano en el campo editorial y audiovisual, cada usuario puede generar artificialmente cuatro o muchas más imágenes por minuto, y comercializar estos outputs sin rendir cuentas a ningún artista en cuya obra se basa la capacidad de esta tecnología.
Comentanos sobre los derechos de propiedad intelectual sobre estas imágenes. ¿Qué acciones legales hay respecto a esto en el mundo?
Hasta el momento hay 3 demandas legales contra estas empresas. Una demanda colectiva presentada en San Francisco en enero de este año contra Stability AI, DeviantArt y Midjourney (stablediffusionlitigation.com) es de tres artistas Sarah Andersen, Kelly McKernan y Karla Ortiz. Hay otras dos presentadas por el banco de imágenes Getty, una en Norteamérica y otra en Reino Unido.
¿Para qué sirve esta página: https://haveibeentrained.com/ ? ¿Quién la creo y con qué finalidad?
Es un sitio web un tanto sospechoso, porque declaran en sus FAQ estar en contra del copyright y parecieran operar en favor de blanquear el hecho delictivo de las IAs generativas, ofreciéndose como intermediarios entre ellas y los artistas que quieren que dejen de usar su obra como datos de entrenamiento. ¿Cómo funciona ese sitio? Te haces una cuenta en el sitio y (a mano) buscas en la base de datos de LAION las imágenes de tu propiedad que hayan usado y con un click derecho solicitar que las remuevan. Yo mismo lo hice hace meses y aún no me han confirmado nada al respecto. Por eso sospechamos que todo sea una pantalla. Hace diez días Stable Diffusion dijo que había removido millones de imágenes según solicitaron los autores, claro, sin mostrar una sola evidencia. El sitio es útil al menos para corroborar que usaron tu obra.
¿Qué cambios pueden llegar a generar o ya están generando este tipo de desarrollos en la industria gráfica? ¿Cómo afecta o podría llegar a afectar a los creadorxs de imágenes, ilustradores, diseñadores, etc?
Como primera cosa, lo que hace la IA generativa es poner al sujeto fuera del proceso creativo, operación que pone a la máquina en el centro de resolver la tarea y la persona pasa a ser un apéndice de la cadena de montaje. Quien las usa no se vuelve artista, sino que queda relegado al lugar del cliente que pauta el encargo. En base a la pauta escrita, el algoritmo recurre a millones obras aprehendidas de otros creativos, violando sus derechos de propiedad intelectual, para generar un derivado de ello que se comercializa.
Utilizando el nombre propio de artistas importantes se puede pedir a los softwares que imiten su obra. Hay IAs generativas que generan imitaciones de voz en segundos, suplantando locutores, actores de doblaje y cantantes.Toda esta nueva situación fomenta la usurpación de la identidad artística que una persona haya logrado en su vida de modo legítimo y que, ahora puede ser impostada por cualquier usuario que,a su vez, la postea en redes buscando encargos laborales.El reino de la impostura.
Completa el escenario la figura de la competencia desleal entre quienes realizan su trabajo de modo legítimo y quienes se apropian del trabajo ajeno contra esas mismas personas. Estamos en conocimiento de numerosos casos donde diseñadores gráficos usan esta tecnología para ofrecerse como ilustradores, liquidando el valor del trabajo de los mismos a través de una pirueta computacional ilegítima, pero efectiva.
En el corto plazo, si no se desarrollan metodologías de detección de estas producciones, podrían registrarse como protegibles bajo derechos de propiedad intelectual meras automatizaciones parasitarias, producto de un mensaje no más complejo que un pedido de delivery.
El escenario inmediato es la pérdida de encargos de trabajo, el remix automatizado y plagiario de toda producción antes humana, la falsación de todo medio de acceso a la información, mientras los dueños de las plataformas tecnológicas en EEUU, concentran el valor de todo lo creado por artistas en el mundo.
Uno de los casos más conocidos es el de Greg Rutkowski: sólo en Midjourney se puede encontrar la exorbitante suma de 107.000 usos de su nombre para generar el cuádruple de imágenes. Esto sucedió en apenas 4 meses. Lo que produjo que cuando uno googlea el nombre de dicho artista, el resultado arrojado es una jungla de imitaciones de IA, pero no las obras originales. A menor escala, también soy víctima del uso explotativo de mi nombre y mi obra para generar derivados por parte de estas compañías.
Vemos con preocupación la lógica de la supresión de procesos crítico-interpretativos, tanto en educación como en el ámbito laboral en favor del resultado inmediato. Sabemos de millones de estudiantes pidiendo a GPT que redacte sus ensayos. En tanto se imponga la simulación de procesos en poder de algoritmos condicionados por la censura de sus programadores, la manipulación de datos e incluso la toma de datos falsos de internet, el “avance” de la sociedad es hacia la falsación controlada por una tecnocracia.
Se busca imponer un retiro forzado de todo sujeto de derecho, en función de ser mero alimento informático para el progreso de una “realidad” construida por y para la máquina: la apoteosis de la lógica de la acumulación total de valor y generación de capital. Empezaron por atacar nuestra capacidad humana de crear, pensar, articular la materia y el mundo para volverla mercancía sin capacidad de producir sentido.
Para enfrentar estas nuevas adversidades estamos impulsando ARTE ES ÉTICA, un colectivo de agrupaciones y creativos independientes dispuestos a regular estas tecnologías generativas. Estamos prontos a publicar un manifiesto con una serie de propuestas regulatorias, esperando que la clase política esté a la altura del problema y de la celeridad con que requiere ser tratado.
Iara Rueda
Ilustradora