Amparo Alonso Betanzos: “Debemos ser capaces de auditar los datos de los que se nutren los algoritmos”

La Catedrática de Ciencias de la Computación de la Universidad de La Coruña, Amparo Alonso Betanzos.

Analía Iglesias / Agencia SINC

Amparo Alonso Betanzos (Vigo, 1961) asume que hoy es difícil pensar en un área de conocimiento en la que no haya implantados sistemas de Inteligencia Artificial (IA). Por ello defiende con vitalidad la iniciativa de la Unión Europea de impulsar una IA centrada en las personas, ética, responsable y con garantías de privacidad, un testigo que recogió el Gobierno español al proponer a España como “campo de pruebas de la puesta en marcha de la regulación europea”, en palabras de esta líder en investigación puntera en esta disciplina.

Alonso Betanzos es catedrática de Ciencias de la Computación en la Universidad de La Coruña, llegó a ser presidenta de la Asociación Española de Inteligencia Artificial (AEPIA), actualmente es la responsable del nodo IA en la Cidade das TIC, en La Coruña, y ha trabajado por la candidatura de esta ciudad para acoger la sede de la Agencia Española de Supervisión de IA, que finalmente resultó la elegida, en diciembre pasado. De ahí que sea una de las personas indicadas para hablar de la propuesta de reglamentación de la UE, basada, según explica, en “niveles de riesgos de sistemas inteligentes”, cada uno de los cuales “tiene aspectos que deberían ser evaluados”.

Mientras el resto de países de la UE ponen en marcha la idea de la agencia estatal de supervisión de IA, España ya ha creado la primera de estas agencias, que, entre las tareas fundacionales, trabajará “en el diseño de pruebas y en la certificación, por ahora voluntaria, de las empresas respecto a la reglamentación, así como en labores de formación y divulgación de la IA responsable y ‘verde’ (más sostenible, con menos consumo de energía)”, comenta Alonso. En este sentido, la entrevista de SINC con la investigadora procura abordar los aspectos humanos, sociales y ecológicos que se ponen en juego en el territorio de las tecnologías de IA.

¿Cuáles son los desafíos que, en el plano social, se observan prioritarios en los diseños de IA y que tendrá que afrontar la agencia como organismo de certificación? 

En la actualidad, existen muchas aplicaciones en ciencias sociales en la IA. Yo misma he trabajado en proyectos europeos en los que el objetivo era poder afinar en las políticas sociales para poder ir hacia una Europa más sostenible. En un proyecto de hace algunos años lo que intentábamos ver era qué políticas se podían implementar en organizaciones de diferentes tipos, de distintos países, grandes, pequeñas, públicas y privadas.

Nos tocó modelar una universidad y una empresa privada en Rumania. En otro proyecto, lo que hacíamos era ayudar a entes locales, como ayuntamientos o cabildos, a ajustar políticas sociales para intentar transmitir mejor a la población los requerimientos en asuntos ambientales —como el consumo de energías más limpias— o el aprovechamiento de diseños urbanos como las supermanzanas —por ejemplo, las de Vitoria o Barcelona—, que llevan a las ciudades a una escala más humana.

El apoyo a las ciencias sociales no solo se traduce en que desarrollemos mejores algoritmos desde el punto de vista de la ingeniería, sino también algoritmos buenos desde el punto de vista de las personas

¿Qué mejoras de la IA son esperables, teniendo en cuenta los problemas de los sesgos que pueden tener los seres humanos que crean los algoritmos?

En cuanto a mejoras de los algoritmos, ya se está trabajando en aspectos que tienen que ver con las ciencias sociales… En los sistemas de traducción automática, en los asistentes virtuales, y en algoritmos que pueden presentar sesgos en lo que se refiere a grupos sociales, por razones de género, religión o raza, entre otros. Todo eso se está detectando y se trabaja en ello. El apoyo a las ciencias sociales no solo se traduce en que desarrollemos mejores algoritmos desde el punto de vista de la ingeniería, sino también algoritmos buenos desde el punto de vista de las personas. De eso hablamos: de poner a las personas en el centro de los algoritmos.

Para especificar: ¿Cuáles serían los principales déficits de esos algoritmos?

Necesitamos algoritmos que se definan con la privacidad por diseño: que no incluyan sesgos que puedan discriminar a personas o que impliquen la violación de sus datos. Entre las labores de la agencia está, justamente, la supervisión ética de esos algoritmos para que esto no suceda.

Desde la propia disciplina se sugiere que los peores sesgos son los inconscientes, desconocidos incluso para la persona que diseña, y también los interseccionales, por las combinaciones que pueden arrojar. ¿Cómo hacer para calcular tales interferencias?

Es evidente que hay sistemas de IA muy complejos y que pueden tener muchos sesgos, sobre todo porque la IA está basada en datos y lo que usa son datos del mundo real, que está sesgado, no es un mundo perfecto. En ese sentido, de lo que se trata es de que seamos capaces de auditar los datos que se utilizan para saber si ese conjunto de datos está desbalanceado o no, en base a algún tipo de población, género, raza u otros. Ver si el algoritmo está tratando correctamente todas esas variables. Por eso, otra de las cuestiones que se plantea es la transparencia o, al menos, la auditabilidad de los algoritmos. El poder saber lo que pasa desde el inicio hasta el final.

Hay que aclarar que los algoritmos están trabajando en un entorno determinado, no estamos hablando de una IA ancha que tenga que responder a muchos problemas diferentes, por lo que las combinaciones no tienen por qué confluir en el mismo sistema. Por otra parte, para no mantener sesgos que se han dado, históricamente, con respecto a determinadas poblaciones, tienes que trabajar con tu base de datos para que este no sea un sesgo para el futuro.

Tenemos sistemas inteligentes en dominios concretos. Si un sistema está jugando al ajedrez y quieres que juegue a las damas tienes que entrenarlo desde cero

¿Qué significa que la IA es de ‘nicho estrecho’?

Ahora mismo, esta tecnología funciona con unos niveles de inteligencia muy altos pero en dominios muy concretos. No tenemos una inteligencia artificial que sea ancha, que se ocupe de resolver un conjunto de temas variados. Por ejemplo, si uno tiene una IA para ayudar a que recursos humanos resuelva cómo proponer a la persona más idónea para un puesto concreto, esto no significa que el mismo sistema sea capaz, a la vez, de recomendar un mejor plan nutricional para alguien.

No hay un único sistema para varias cosas: tenemos sistemas inteligentes en dominios concretos. Si uno quiere que esa inteligencia artificial se entrene en otro dominio tiene siempre que empezar desde el principio. Es decir, si un sistema está jugando al ajedrez y quieres que juegue a las damas tienes que entrenarlo desde cero en ese juego. A propósito, estamos trabajando en algo que se llama ‘transferencia de aprendizaje’, pero es un dominio con el que estamos empezando.

En terrenos de IA se habla de la desconfianza de los usuarios. ¿Se supone que las auditorías van a intentar mitigarla? 

La UE ha planteado un sistema de desarrollo de IA de alta calidad científica, dentro de un ecosistema de confianza. De ahí que haya sido pionera en la elaboración de directrices para una IA justa, privada y sostenible. En esta propuesta de legislación en la que se pone a la persona en el centro y considera prioritariamente esos aspectos éticos somos, efectivamente, pioneros: tanto los derechos humanos como la privacidad están siendo cada vez más tenidos en cuenta para todas las aplicaciones.

La UE ha planteado un sistema de desarrollo de IA de alta calidad científica, dentro de un ecosistema de confianza. Ha sido pionera en la elaboración de directrices para una IA justa, privada y sostenible

¿Acerca de la robustez de los algoritmos qué capacidades únicas, inimitables, tiene lo humano?

La inteligencia humana es de amplio espectro. Las personas somos capaces de tratar un número importante de problemas a un nivel alto. No necesitamos un reentrenamiento de tareas que la inteligencia artificial sí necesita. Por ejemplo, en la medicina, un sistema de IA tiene niveles de precisión más altos que las personas en dominios concretos, como puede ser la detección del cáncer de mama, pero si lo comparamos con la medicina general, los humanos son mejores especialistas, porque es un campo mucho más amplio.

Aunque esta forma de plantear las cosas no es el más adecuado, porque no se pretende, en absoluto, un reemplazo de las personas. Es evidente que esta tecnología va a haber trabajos que van a desaparecer, y que ni siquiera son derivados de la IA; lo vemos cuando vamos a la caja del supermercado o pagamos el peaje, porque esto lo pueden hacer las máquinas.

Hombre y máquina, trabajando juntos, cometen menos errores que por separado. De eso se trata, de utilizar la IA para conseguir procesos más eficientes y centrados en las personas

Se trata de crear una simbiosis, que las tareas que las máquinas hacen mejor las hagan se automaticen y que las que hacen mejor las personas las sigan haciendo ellas. En este sentido, imagine cómo ha evolucionado la medicina y, sin embargo, el médico no ha desaparecido, pero cada vez tiene mayor asistencia de métodos de diagnóstico con los que interactúa. Hombre y máquina, trabajando juntos, cometen menos errores que por separado. De eso se trata, de utilizar la IA para conseguir que los procesos sean más eficientes y centrados en las personas.

¿En terrenos de Educación en qué facetas puede ser importante contar con mejores algoritmos?

Podremos personalizar la educación. Hablamos de que hay alumnos especiales, o que no todos los alumnos y alumnas aprenden de la misma forma, y este tipo de sistemas puede ayudar a personalizar. Esto cambiará nuestra forma de enseñar, pero necesitaremos, quizá, enfatizar más algunas especialidades, como la creatividad, la imaginación, el espíritu crítico y la comunicación.

Etiquetas
stats