La recolección y uso de los datos es una actividad cultural que implica riesgos, como los sesgos o la propiedad intelectual
Álex Rayón Jerez
CEO de Brain & Code
Domingo, 18 de agosto 2024, 00:01
En el tiempo que le lleve leer este artículo, se sacarán tantas fotografías en el mundo como todas las tomadas en el siglo XIX y parte del XX. Buena parte de ellas acabarán en servicios 'online' como TikTok, Instagram, Facebook o Google. En 2018, tras los escándalos y la entrada en vigor del Reglamento General de Protección de Datos, Facebook introdujo la opción de descargar todo nuestro historial generado en la plataforma. Yo lo hice. Llevaba doce años haciendo uso de un servicio que se tradujeron en una carpeta comprimida. Los 'me gustas' (cosas que me han gustado) eran un informe de 687 páginas. El del histórico de localizaciones (con latitud y longitud y día), algo más de 1.000 páginas (!). El histórico de búsquedas que he hecho (con las palabras exactas), más de 714 páginas (!). El de los comentarios realizados, más de 600 páginas. Luego, hay carpetas de todo tipo: fotos y vídeos, la carpeta de los sitios que he visitado, mi histórico de conexiones a Facebook... Era, en definitiva, lo que ha decidido Facebook facilitarme generar. Como es el caso de ustedes también.
Hemos venido a bautizar como Big Data un nuevo paradigma que permite generar, procesar y sacar valor del gran volumen, variedad y velocidad a la que generamos datos en nuestro día a día. Los datos a la sombra o datos involuntarios (acceso, búsquedas, lugares que frecuentamos...) ofrecen una visión de nosotros que las empresas y organizaciones están aprovechando. La reciente polémica por el uso de cámaras de seguridad durante los Juegos Olímpicos de París es el enésimo caso.
Como ven, estoy poniendo apellido al nombre 'dato'. Lo necesita. En el libro 'Raw data is an oxymoron' (Los datos brutos son un oxímoron), Lisa Gitelman elabora una reflexión: nos hemos acostumbrado a decir que los datos son el nuevo petróleo, pero sin embargo nunca hemos caído en entender que los datos distan mucho de ser crudos. La autora sostiene que no deberíamos pensar en los datos como un recurso natural, sino como uno cultural que necesita ser generado, protegido e interpretado. Los datos son cocinados en los procesos de su recolección y uso. En las primeras bases de datos siempre había alguien decidiendo qué recorte de periódico tomar. En los primeros modelos financieros, alguien puso el ojo en unos valores y no en otros. En los datos astronómicos, mirábamos una estrella y no otra. Siempre hay alguien decidiendo qué hacer y cómo hacerlo.
Las referencias anteriores ya nos anticipan que no podemos entender la era de los datos como algo neutro. Es una actividad subjetiva y cultural. Necesita de personas para tomar decisiones de elección de datos (como hacía Facebook por mí) y equipos para interpretarlos (para saber qué quieren expresar, como hacían los primeros diseñadores de bases de datos). Por eso, es lógico que se hable tanto de la gestión de riesgos de la Inteligencia Artificial. Si entendemos esta actividad técnica como una forma de estudiar los datos para localizar patrones, tendencias o relaciones ocultas, evidentemente, los datos y su naturaleza condicionan esa capacidad de estudio. Y por ello, sin esa neutralidad en la materia prima en origen, es evidente que cuando hablemos de riesgos, debemos poner el foco en tres riesgos humanos: los sesgos, la propiedad intelectual y la apropiación cultural.
Un sistema de IA al final replica los sesgos o prejuicios de una sociedad. Los datos, como decimos, no son brutos. Así, los sesgos algorítmicos hacen que discriminen en muchas ocasiones que un humano no lo haría. ¿Quitamos las características personales de los algoritmos? Entonces no acertarían ni servirían tanto. ¿Comparamos las decisiones con las que tomaría un humano y decidimos quién es el que determina qué hacer? Entonces, ¿quién hace de juez en cada caso? El problema de fondo de este razonamiento es que los algoritmos y los ordenadores, aprenden con datos históricos. Heredan sesgos humanos, porque le estamos enseñando con las decisiones que nosotros hemos tomado previamente. ¿Debemos cambiar nosotros antes de programar? Pudiera ser un buen primer paso.
En cuanto a la propiedad intelectual, parece fácil quedarse en la idea de que las creaciones que no se originan en un humano no son susceptibles de ser protegidas. Sin embargo, la realidad es que tenemos numerosas herramientas de Inteligencia Artificial creando contenido a partir de una materia prima no neutral y por la que encima no está pagando. Llevándolo a la mirada de la persona, si Facebook me ayudó a crear todos esos datos en mi vida, uno podría pensar que la 'propiedad intelectual del dato' es de la empresa. ¿Pero es esto así? Se escudan en que hemos dado nuestro permiso para que esto sea así. Yo lo veo más como un contrato de adhesión. ¿Cuán conscientes somos de ello los consumidores y usuarios? ¿De qué nos sirve que nos digan que guardarán nuestros datos si luego no nos dicen qué harán con ellos? ¿Dónde está la frontera de 'lo privado' y 'lo público'?
Por último, tenemos la apropiación cultural como otro riesgo derivado de esta no neutralidad. Es un concepto que describe el uso de elementos de una cultura por parte de individuos ajenos a ella. En la era de la Inteligencia Artificial, entrenada con vastas cantidades de datos (creadas con intenciones, como decíamos, y sin pagar probablemente a su legítimo autor), puede replicar, modificar y difundir elementos culturales sin comprender su contexto o significado. Parafraseando a Hannah Arendt, esto puede resultar en la banalización de tradiciones culturales, además de perpetuar estereotipos y fomentar desigualdades. Como está pasando con el mundo de las imágenes, donde ahora cualquiera nos sentimos Picasso o Modigliani.
Podemos concluir así que los sistemas de Inteligencia Artificial se convierten en cámaras de eco que nos dan las cosas que queremos oír. Por eso hay cada vez más dispositivos para acompañarnos en el día a día con IA. Y es normal también que las propias empresas tecnológicas tengan también su efecto político. Al final, no dejan de ser albaceas de nuestros datos y voluntades humanas. Porque, como los datos, siempre cojean de algún lado, como toda actividad humana.
Comentar es una ventaja exclusiva para suscriptores
¿Ya eres suscriptor?
Inicia sesiónNecesitas ser suscriptor para poder votar.