Francisco Herrera, en la Real Academia de Ingeniería. José Ramón Ladra

Francisco Herrera | Catedrático de la Universidad de Granada

«La IA nos genera miedo a perder el control»

La entrevista ·

Estamos «ante un mundo que va a cambiar de forma radical», dice este asesor del Gobierno en la materia

Sábado, 12 de octubre 2024, 18:03

Francisco Herrera (Granada, 1966) es catedrático de Ciencias de la Computación e Inteligencia Artificial en la Universidad de Granada y ha impartido clases como profesor invitado en centros de Europa y Asia. Ha ganado los premios Nacional de Informática y Andalucía de Investigación y está ... en posesión de la Medalla de su comunidad autónoma. En 2020 fue nombrado miembro del Consejo Asesor de Inteligencia Artificial del Gobierno de España y entre 2021 y 2023 hizo una incursión en la política local, al asumir la Concejalía de Ciencia, Innovación y Ciudad Inteligente del Ayuntamiento de Granada. Herrera, que en 2019 fue elegido miembro de la Real Academia de Ingeniería -donde transcurre la entrevista-, es uno de los mayores especialistas en un ámbito que abre tantas posibilidades que termina por generar vértigo a muchos. Como dice durante esta larga conversación, se trata de tomar medidas cuanto antes para regular el uso de la Inteligencia Artificial (IA) y evitar que pase lo que ha sucedido en las redes sociales, donde la falta de normas las ha convertido en plataformas para la difusión de informaciones falsas, con efectos devastadores. Pero ni eso podrá terminar con algo inherente al ser humano: el miedo a perder el control del día a día. En cambio, asegura, el horizonte que se abre es promisorio: un futuro en el que la IA ayude a los humanos a tomar decisiones mejores que aumenten la calidad de vida, la salud, la gestión de las cosas y, también, la productividad de los procesos económicos.

Publicidad

- Comenzó a trabajar en la IA a finales de los ochenta, cuando la mayoría ni habíamos oído hablar de eso. ¿Pudo imaginar entonces a dónde hemos llegado?

- No. Hablábamos de sus posibilidades, eso sí. Salíamos entonces de lo que se etiquetó como 'invierno de la IA'. Eso viene de que años atrás había habido grandes expectativas sobre sus posibilidades y no se cumplieron, lo que generó decepción. Yo empecé a trabajar en la inteligencia computacional dentro de un departamento universitario recién creado. La estrategia entonces era trabajar en cosas muy concretas y se veía muy lejano lo que luego ha sucedido. Y está sucediendo.

- La IA ya está desde los cajeros automáticos a los aspiradores pasando por los coches, los diagnósticos médicos y los juegos. ¿Qué trabajos nos quedarán a los humanos? ¿Solo algunos de los estrictamente manuales además de los vinculados a la propia IA?

- Existen distintos enfoques sobre esa cuestión. Hay ámbitos en los que se ha avanzado muchísimo; por ejemplo, dos que acaba de citar: los coches autónomos y la medicina. Ahí no se da una sustitución de lo humano, sino un trabajo conjunto. Pero en el horizonte de otros campos sí está el riesgo de la sustitución de mano de obra, de manera que con pocas personas trabajando crecerá la productividad… Y, por supuesto, habrá más demanda de profesionales en el ámbito puramente digital.

- Eso parece invertir el sentido de la Historia, que ha ido de trabajo manual a intelectual. Ahora muchos trabajos manuales están a salvo.

- La Revolución Industrial automatizó labores manuales y ahora estamos en otra que afecta al conocimiento, y por tanto alcanza a tareas que hasta el momento no habían peligrado. Muchos de esos trabajos llamados 'de cuello blanco' se van a ver afectados. Ya lo están siendo. Entramos en una dimensión diferente. Muchos trabajos podrán realizarse con menos personal y eso también se ve en la Administración, donde un 'chatbot' puede responder de manera automática a las consultas más habituales sobre cómo pagar un impuesto u obtener un certificado. Pero no lo veo a corto y medio plazo como un fenómeno de sustitución de trabajadores sino para mejorar la atención.

Publicidad

- Pues eso es lo que muchos están denunciando.

- Lo entiendo, pero se puede ver de otra manera. Lo hicimos en el Ayuntamiento de Granada. Identificamos que el 95% de las consultas se centraban en muy pocos asuntos. Así, en vez de tener a un funcionario repitiendo lo mismo veinte veces a lo largo del día, utilizas para eso un 'chatbot' y puedes dedicar a ese funcionario a atender las cuestiones difíciles o a grupos de personas que no se pueden manejar en el mundo digital.

Uso de la IA

«Sirve para ayudar, pero la decisión última ha de estar en un humano»

Cambio continuo

- ¿Tenemos miedo a la IA o más bien a la velocidad a la que lo está invadiendo todo?

- La IA nos genera miedo a perder el control del día a día. Nuestros hijos no lo tienen porque han nacido ya en un mundo en cambio continuo. Quienes tienen menos de 30 años no entienden el mundo sin esas tecnologías y lo viven de manera natural, de igual forma que consideran que es normal cambiar de trabajo unas cuantas veces a lo largo de su vida. Creo que el riesgo es de otro tipo y se centra en tres cuestiones: la pérdida de privacidad, la discriminación de las minorías y el riesgo de desinformación.

Publicidad

- Pues empecemos por la privacidad.

- La privacidad se ha perdido. Nada es gratis, así que todas esas aplicaciones que se nos ofrecen sin pagar o pagando una cantidad mínima valen justo para eso, para obtener muchos datos sobre nosotros. Estamos muy perdidos en ese ámbito. La única forma de que no te escuchen, de que no obtengan información incluso de conversaciones privadas, es apagar el móvil.

- Y la cuestión de las minorías y la desinformación. Los algoritmos hacen que recibamos solo cierto tipo de noticias, de procedencias concretas. A quienes son diferentes o piensan diferente casi no los vemos. ¿Eso no es una amenaza para la democracia?

Publicidad

- En realidad, algunos de esos efectos no son por la IA sino por el uso que de la misma hacen las redes sociales. Buscan así nuestra atención porque ahí está su negocio, con el resultado de que nos hace más monolíticos. La ventana para ver el mundo se empequeñece, en buena parte porque no hay una regulación de las redes sociales. Y luego está la información falsa que refuerza posiciones por más que se aleje de la realidad. Esa desinformación me preocupa.

- ¿Cómo se resuelve eso?

- Creo que Europa ha sentado las bases para una buena regulación de la IA basada en tres pilares: ética, legalidad y robustez de los sistemas. Estamos ante algo que debe servir para asesorar pero la decisión última debe tenerla un humano.

Publicidad

Diferencias

«Lo que nos separa de las máquinas son los sentimientos»

- Luego está la resistencia. Hay quienes no van a un supermercado con cajas de autopago o no cogen gasolina en una estación de servicio sin empleados. ¿Qué actitud es la más sensata en términos individuales y sociales?

- No tiene sentido ponerse a la cola en una ventanilla de un banco a sacar dinero cuando hay un cajero que te lo da en treinta segundos. Aceptemos que muchos procesos se van a ir automatizando. Pero de nuevo ahí está ese miedo a perder el control. Amenaza a algunas profesiones, cierto, pero asumamos que es preciso aumentar la productividad y en ese sentido veamos la IA como una aliada. Esta ha sido la norma desde finales del siglo XIX. El debate no es tanto ese, como saber si la pérdida de empleo debida a ello se compensará con la creación derivada de la propia IA. Estamos ante un mundo que va a cambiar radicalmente y habrá que ver cómo se hace sostenible y al mismo tiempo que los humanos sigamos siendo el centro. Por eso el gran reto es que nos asista para que los humanos mejoremos.

Noticia Patrocinada

- ¿La rebelión de la IA contra nosotros, como sucedía con HAL 9000 en '2001. Una odisea del espacio', es posible?

- Kubrick fue asesorado para esa película por uno de los padres de la IA. Creían que a comienzos del siglo XXI, de ahí el título, se habría alcanzado el desarrollo del que hablan. Por eso hoy es fundamental que un sistema de IA no pueda tomar de forma independiente decisiones que afecten a los humanos. La ONU ha elaborado un documento que plantea la gobernanza de la IA.

Riesgos

«Los hombres siempre hemos usado la tecnología para el mal»

Daños buscados y fortuitos

- ¿Y el factor humano? No faltará quienes la usen para hacer el mal.

- Por supuesto. La Historia demuestra que los humanos hemos usado siempre cuanto estaba en nuestra mano para hacer el mal. Cualquier tecnología puede servir para el bien y para el mal. Ahí está lo nuclear, en las bombas y en la medicina. Es necesario adelantarse a los riesgos. No lo hicimos con las redes sociales y ya lo estamos pagando.

Publicidad

- ¿Se está haciendo?

- Creo que se están dando pasos para regularla. Y pienso que nunca va a haber una IA autónoma que tome el control.

- Pero aunque se evite un mal uso, la tecnología nos deja cada vez más expuestos a una paralización total. Pasó hace unos meses con el fallo de Microsoft.

- Un error puede llevarnos a una parálisis total de horas, con fallos en el funcionamiento del sistema financiero, los transportes y otros sectores básicos. El problema está en la concentración de esa tecnología en unas pocas corporaciones de EE UU y China. El funcionamiento del mundo depende de esas firmas y no hay 'plan B'. Esa es la razón por la que esas empresas deben reforzar la seguridad. Afortunadamente sus propios sistemas reparan los daños de forma rápida pero aún así deben mejorar. En la regulación europea se habla de una protección muy especial de lo que se denomina 'instalaciones críticas'.

Publicidad

Restricciones

«Las redes sociales hacen que la ventana para ver el mundo empequeñezca»

- ¿Puede la IA tener sentimientos?

- Hay aspectos que los humanos asociamos de forma clara a la inteligencia y uno de ellos es el de los sentimientos. Pero la IA no tiene por qué parecerse a la inteligencia humana. La máquina no tiene sentimientos, no tiene temor a perder. Se ve con claridad cuando compite en un juego de gran complejidad, como el ajedrez o incluso otros más difíciles, contra un humano. Al humano le pesa en sus decisiones el miedo a perder. A la máquina, no. ¿Por qué debería la IA parecerse a un humano?

- ¿Y entonces?

- Dice el neurocientífico Antonio Damasio, premio Príncipe de Asturias de Investigación, que lo que separa la máquina del ser humano son los sentimientos. Una máquina puede ganar al ajedrez, pero no disfruta con las jugadas que conducen al triunfo ni se frustra con la derrota. Quizá en el futuro puedan simular tristeza o alegría, pero no será lo mismo. En Japón se desarrollan robots para acompañar a personas mayores y se les introduce empatía para que se preocupen por ellos. El debate allí es que quizá no deberían ser antropomórficos para evitar precisamente ese asunto de los sentimientos. Puede ser mejor que el robot sea un artefacto que no parezca humano en absoluto y que controle la medicación, los riesgos, que incluso dé conversación. Pero no está demostrado que la forma humana sea la mejor para resolver problemas ni para aspectos cognitivos.

Este contenido es exclusivo para suscriptores

¡Oferta 136 Aniversario!

Publicidad