Hace poco, la existencia de perfiles falsos en internet generó un sin fin de herramientas para detectar si una cuenta que te sigue pertenece a alguien que existe en realidad o si se trata de un bot.
Desde analizar la foto, su origen, antigüedad o recurrir a cuentas de análisis de aplicaciones como Tweet Audit o Spark Toro,lo cierto es que el desconocimiento de estos temas genera desconcierto y a la vez curiosidad tal como sucedió en la última performance del Site Gallery de Sheffield en Inglaterra. Este espacio de renombre internacional se dedica a exhibiciones y eventos relacionados con el arte digital contemporáneo, especialmente en medios, imágenes en movimiento y presentaciones.
La propuesta fue excitante, tanto que los debates aún siguen en marcha. Bill Posters, escritor, artista y fundador de StudioNeural.ai junto a Daniel Howe, presentaron en el festival Sheffield Doc/Fest una instalación y video performance llamada Spectre, un proyecto que cuestiona la utilización de nuestros datos personales y la violación de nuestros derechos de privacidad. En la instalación se veía un falso video de Mark Zuckerberg hablando frente a cámara: “Imaginen esto por un segundo, un hombre con total control de millones de personas con datos robados sobre sus secretos, sus vidas, su futuro” . Junto a este se presentaron otros con la participación de unos falsos Donald Trump, Marina Abramovic, Kim Kardashian, Freddie Mercury, Duchamp, generados con IA –inteligencia artificial- Todos ellos realizaban un discurso en sus espacios habituales pero dando mensajes alertando sobre las posibilidades que el mal uso de la IA puede generar..
Los comentarios no se hicieron tardar y en menos de una semana el video de Donald Trump sonaba en todos lados. En su cuenta de Instagram, Bill sostiene que quien controle los datos controla el futuro.
Synthetic Media o Deep Fakes (o de qué se trata todo esto)
This person does not exist. Foto generada por GAN Imagined by a GAN (generative adversarial network)
Este tipo de videos falsos creados por una inteligencia artificial generativa y personalizada conocida como Synthetic Media o Deepfakes, conviven con nosotros hace años, al punto que el CEO & Co-founder de Synthesia.io -una web para crear este tipo de contenido- pronosticó que para 2020 el costo marginal de crear imágenes sería tan bajo que las compañías optarían por esta tecnología para generar una buena cantidad de imágenes sintéticas antes que recurrir a los servicios de un fotógrafo.
Hablando mal y pronto, Synthetic media es un término para todo tipo de producción artificial, que incluya la manipulación y modificación de datos por medios automáticos, especialmente mediante el uso de algoritmos con el propósito de cambiar significados originales. Posiblemente la primera vez que se habló de esto en los medios fue en 2017 cuando se pusieron caras de famosas en videos pornográficos que dieron vuelta en los titulares del mundo.
Como muestra de su potencial, la web https://thispersondoesnotexist.com/ nos muestra la foto de una joven sonriente en un estado calmo y mirando al frente, a simple vista nada sale de lo común, a excepción de un recuadro en el margen inferior derecho donde se lee:
‘Imagined by a GAN (generative adversarial network) StyleGAN2 (Dec 2019) – Karras et al. and Nvidia. Don’t panic. Learn how it works Help this AI continue to dream‘
‘Imaginado por GAN – Red generativa antagónica . StyleGAN2 (Dec 2019) – Karras et al. and Nvidi No entres en pánico. Aprende como funciona. Ayuda a esta IA continuar un sueño‘
Este tipo de producción mencionado anteriormente como Image Synthesis refleja a una persona que no existe en la vida real, es una imagen generada por la web con inteligencia artificial, de ahí el nombre -This person doesn’t exist-. Al refrescar la imagen, aparece una nueva cara, y así sucesivamente. La cabeza detrás de esto es un ingeniero americano llamado Phillip Wang que en 2019 generó el sitio como proyecto personal. El software es propiedad de la empresa NVIDIA, la misma que hace tarjetas gráficas para videojuegos,y que está detrás del desarrollo de la supersuper computadora para el Covid en Londres.
El sitio causó conmoción generando más tarde otras webs con imágenes de gatos, personajes de animé y lugares de vacaciones que no existen. Para bien o para mal, el uso de esta tecnología genera un contenido muy realista y si no estamos prevenidos ciertamente puede tomarnos por sorpresa.
Caras falsas en el desayuno
“La ignorancia es una bendición” decían en otras épocas, pero hoy más que nunca puede ser un problema. Wang Philips, ex ingeniero de Uber y responsable de esta app ha impulsado junto a otros investigadores este tipo de sitios para dar a conocer a la población las capacidades de la IA generativa.
‘Creo que aquellos que son inconscientes de esta tecnología son los más vulnerables. Es como una estafa, si tu no sabes sobre eso, podrías caer’– Wang Philips
Si bien las caras que se ven al ingresar a la web son infinitas y muy reales, todas ellas tienen pequeños detalles que al verlos en profundidad permiten dilucidar su construcción, detalles como dientes poco definidos, texturas de ropa que pueden aparecer borrosas y, si se investiga un poco puede encontrarse la misma imagen con una identidad diferente en distintas webs. En esto último se concentró un grupo de estudiantes en Seattle que con la intención de ayudar a la población a detectar de un vistazo qué es falso y qué no, crearon https://www.whichfaceisreal.com/– traducido como “Qué cara es real?”- donde además explican que ‘Las computadoras son buenas, pero nuestro proceso visual es mejor. Si sabes lo que buscas puedes identificar lo falso con una mirada, al menos por ahora. El software y hardware usado para generar esto va a continuar siendo desarrollado, y solo le tomará unos pares de años a los humanos para caer en la carrera de armas entre la falsificación y la detención’. El origen de esta clase de software se remonta a 2014 cuando el investigador de Google, Ian Goodfeelow, especialista en aprendizaje automático y ahora empleado por Apple Inc, trabajaba en Google Brain, el grupo de investigación de IA dentro de Google. Para los más osados hay una entrevista de Ian en Youtube extensa y bien explicada sobre este tema, donde hacia el final explica que su investigación lo llevó a conocer sobre sobre cómo funciona el cerebro humano y en particular cómo entendemos las ilusiones, y que hasta ahora las ilusiones ópticas que engañan a los humanos son diferentes a las que generan los algoritmos de aprendizaje automático, por lo que se pregunta: ¿Qué tal si pudiésemos encontrar los errores que tenemos en común?
Mientras aguardamos la respuesta, Tangent puede ser un ejemplo del uso práctico de esta IA. Esta start up explica en su página de inicio que trabaja combinando E-commerce más IA para recolectar datos de los clientes a partir de su demografía y preferencias, aumentando las recomendaciones de producción y desarrollando marketing automático. Para ello usan GAN -generative adversarial network- o caras modificadas de modelos de la vida real, luego el comercio minorista que contrata a Tangent arma los catálogos en diferentes países con estas imágenes en vez de usar modelos o photoshop.
Esto no es lo que parece
Jamás fue tan accesible manipular nuestro entorno como lo es hoy. Esto hace necesario un acercamiento para comprender desde la inteligencia y la experiencia los alcances y fines de estas herramientas tecnológicas sin ignorar que su visibilidad y cercanía al público no siempre son una elección de sus autores sino más bien una suma de circunstancias.
“Whoever believes that infinite growth its compatible with a finite planet is either a fool or and economist” Professor Tim Jackson
Quien crea que un crecimiento infinito es compatible con un mundo finito o es un tonto o un economista.
Hola! Si llegaste hasta acá y te gusta lo que hacemos en Muta, medio independiente hecho en Argentina y Uruguay, siempre nos podés apoyar desde la plataforma de financiación Cafecito. Con un mínimo aporte nos ayudás no sólo con gastos corrientes, sino también con la alegría e importancia de saber que estás del otro lado.