Rebeca Pardo Sainz *
Domingo, 9 de abril 2023, 02:00
¿Qué tienen en común las recientes imágenes del Papa con un abrigo de plumas de Balenciaga, Donald Trump detenido y Pablo Iglesias de paseo ... con Yolanda Díaz poco antes de las elecciones? Todas ellas son imágenes impactantes que hemos visto en los últimos días y que responden al calificativo de 'deep fakes' (ultrafalsas). Término en inglés que comenzó a usarse para vídeos generados con Inteligencia Artificial (IA) en los que se ha llegado incluso a «resucitar» a Lola Flores para que anunciara cervezas.
Publicidad
Las imágenes generadas, tan falsas como aparentemente ultrarreales, ya han llegado a la fotografía con sistemas de IA, como MidJourney. El martes 4 de abril, una de estas imágenes ha ocupado la portada de un diario. Por tanto, la polémica ya salpica al fotoperiodismo y comienza a tener implicaciones en la credibilidad de los medios.
Como fotógrafa que investiga sobre representación visual y como miembro del Consell de la Informació de Catalunya (CIC), que vela por el cumplimiento del código deontológico, me interesan y preocupan por partes iguales las posibilidades y retos que plantean estas imágenes. Entre las sombras están, por ejemplo, la falta de supervisión de contenidos automatizados con sus repercusiones en la pérdida de calidad o en la desinformación. También es importante tener en cuenta el impacto de las transformaciones tecnológicas en la profesión, que ya sufre los efectos de la precarización.
La primera trampa visual la encontramos en las «inocentes» ilustraciones con las que se acompañan artículos y textos sobre IA. Habitualmente se representa a la «máquina» o el programa con una forma humana que realmente no tiene. Esto favorece que empaticemos con ella o que, al verla semejante a nosotros, nos abramos a planteamientos transhumanistas como la posibilidad de «mejorarnos» física e intelectualmente con las nuevas tecnologías. Imaginarnos inmortales con forma de 'cyborgs' es una cosa, pero si en las ilustraciones sobre IA viésemos un móvil o un ordenador, ¿nos plantearíamos de la misma forma transferirle nuestra memoria para «vivir» la eternidad atrapados en su interior?
Publicidad
Por otro lado, me preocupa especialmente la falta de información sobre las fuentes y la voz única de información, habitualmente interesada. Si lo que queremos de verdad es informar, ¿por qué no se nos muestran, por ejemplo, las fotografías de los equipos de informáticos o empresarios que hay tras esas tecnologías para que sepamos y tomemos conciencia de que hay personas concretas, intereses de todo tipo, tras los algoritmos y los sesgos?
Por tanto, desde la forma en la que se representa la propia IA hasta las imágenes que esta genera, pasando por la primera denuncia que ya se ha puesto por parte de autores cuyas imágenes se utilizan como base del proceso sin reconocimiento ni pago por el uso... considero que hemos de darnos prisa, y no únicamente en lo visual, por señalar fronteras, nuevas normas y trazar límites claros. La Unión Europea propone identificar el contenido generado por la IA para diferenciarlo del producido por los seres humanos. Al menos, seamos transparentes.
Publicidad
Últimamente pienso mucho en Jean Baudrillard, en la denuncia que hacía en 'Cultura y simulacro' al afirmar que asistimos a una especie de final de lo social en el que la lógica de los hechos se sustituye por la de la simulación. Lo que afirma, en el fondo, es que ya no se trata de interpretar la realidad con mayor o menor ideología, veracidad o falsedad, sino de ocultar que la realidad, sencilla y llanamente, ya no es necesaria.
Incluso podríamos ir más allá y afirmar que la realidad nos estropea la foto. Por tanto, lo que me preocupa, en el fondo, es que la realidad parece ser prescindible y es con frecuencia incómoda y difícil de controlar, mientras que las imágenes generadas por la IA suelen ser más divertidas, espectaculares y cómodas para una gran mayoría.
Publicidad
Me preocupa que se humanice a la IA y al algoritmo, mientras se nos deshumaniza o invisibiliza a las personas. Me preocupa que juguemos a generar imágenes que generalizan sobre temas que tienen un gran impacto, las veamos como neutrales porque son obras de la IA (como si esta fuera una tecnología científica infalible) y no seamos capaces de identificar sus sesgos y estigmas a tiempo. Me preocupa que, tras ciertos divertimentos aparentemente inocentes, haya intereses de todo tipo que se nos escapan porque ni siquiera sabemos quién está detrás, y no, la IA no es objetiva ni neutral. Hay seres humanos detrás dando las instrucciones, seleccionando los datos y generando los algoritmos... y los sesgos. Pero ¿quién los audita, regula o supervisa?
* Rebeca Pardo Sainz es profesora e investigadora en la Facultad de Ciencias de la Comunicación, Universitat Internacional de Catalunya
¡Oferta especial!
¿Ya eres suscriptor? Inicia sesión
Te puede interesar
Publicidad
Utilizamos “cookies” propias y de terceros para elaborar información estadística y mostrarle publicidad, contenidos y servicios personalizados a través del análisis de su navegación.
Si continúa navegando acepta su uso. ¿Permites el uso de tus datos privados de navegación en este sitio web?. Más información y cambio de configuración.