Democratización y sesgos, dos incógnitas en el futuro de la Inteligencia Artificial

Rate this post

La Inteligencia Artificial (IA) salió a la palestra por primera vez en 1956, en la Conferencia Darmouth en Hanover (EE.UU). Entonces se hablaba de máquinas «capaces de entender el lenguaje, de imitar el pensamiento humano…». Hoy la entendemos como los programas creados por humanos, que «recolectan datos y actúan sobre el entorno» de manera autónoma. Pero, ¿pueden aprovecharla todos? ¿Qué precio pagamos por su uso?

Dos preguntas simples pero de compleja respuesta. Tanto que aún estamos inmersos en ella mientras surgen nuevas aplicaciones, en un intento por generar valor diferencial y hacernos la vida más fácil. La democratización y el abanico de sesgos que estamos dispuestos a asumir con cada nueva aplicación de machine learning han centrado el acto organizado por MIDE. La plataforma (que cumple hoy tres años) busca la manera de convertir la IA en una oportunidad para el ecosistema innovador y emprendedor de Madrid.

Potenciar la capital como un centro aglutinador europeo dedicado en exclusiva a la IA. Y donde también «se puedan reunir startups y empresas que hagan proyectos piloto y puedan demostrar el impacto de la IA en cualquier ámbito económico. Para que cualquier empresa pudiera ser receptora de esta tecnología como valor añadido», ha comentado el director de innovación y emprendimiento del Ayuntamiento de Madrid, Fernando Herrero.

Infraestructura y ‘small data’

Hemos pasado de fábricas y cadenas de montaje robotizadas, a coches que interactúan con el entorno, prendas inteligentes, exoesqueletos y microchips que potencian nuestras capacidades. Múltiples relaciones, pero que se basan en dos: máquina-máquina y hombre-máquina. La vicerrectora de investigación, innovación y estudios doctorales de la UPM,  Asunción G. Pérez, ha resaltado la importancia de diferenciar ambas interacciones.

«Debemos adquirir los conocimientos necesarios» para aprovechar las capacidades que bridan los sistemas de Inteligencia Artificial. Todo sistema tiene: datos, algoritmos y modelos, usuarios y una infraestructura, ha explicado. Para democratizar esta tecnología es en la última donde hay que trabajar para que no esté sólo al alcance de las grandes firmas.

La vicerrectora de investigación, innovación y estudios doctorales de la UPM,  Asunción G. Pérez, durante el acto.

«Cualquiera puede montar una mínima herramienta que le pueda ayudar», ha valorado Natalia Rodríguez, CEO de Saturno Labs. Pero las herramientas más personalizadas «requieren más personal y más especializado» para desarrollar sistemas de inteligencia artificial. Ahí está la brecha. El objetivo debe ser por tanto combinarlos para acercar la IA a otros sectores a costes competitivos: «Ocurrirá, no sé cuándo pero llegará».

Para democratizar la Inteligencia Artificial hay que «permitir que las pequeñas empresas accedan al small data«, ha defendido la investigadora de la UPM. Esto implicará «más usuarios y datos», por lo que se requiere tomar una serie de precauciones y principios éticos, como los 23 de la Conferencia Asilomar (2017) ha recordado (principios explicables, demostrables, respetuosos con el ser humano, en beneficio para toda la comunidad…).

Sesgo: el fallo sistemático

Además de las propias implicaciones que tendrán los sistemas computacionales en, por ejemplo, dispositivos para mejorar las capacidades humanas, sigue el tema del dato. Gestionados por los algoritmos, aglutinan información personal y pueden modular la conducta social. Hasta el punto de «causar pérdidas o estigmas a ciertos colectivos», ha señalado la vicerrectora de la UPM. «Por ello tomar precauciones es tan importante».

Un algoritmo para conceder o no la libertad condicional que es racista y sexista. Reconocimientos faciales que confunden personas de color oscuro con animales. Flagrantes desigualdades para acceder a puestos de trabajo… Son solo algunos ejemplos. Pero ¿dónde está el sesgo, ese «fallo sistemático» que ha resumido Pérez? ¿En los datos?

Según ha indicado, debemos gestionar el sesgo porque a veces «no es por los datos sino por los propios requisitos de la aplicación». Su argumento es que todos respondemos de forma diferente a una misma cuestión, por la socialización y educación recibida. Y eso se plasma también en el criterio para, por ejemplo, «acceder a una compañía» (perfil para ser bombero), o para dar un préstamo. «Y también están los requisitos de la propia selección de la aplicación. No es todo tan blanco y tan negro», ha matizado.

Nosotros decidimos

Mientras la regulación se las arregla para ponerse al día, serán las propias empresas las que «se tienen que adaptar». Así de claro lo ha dejado la de Saturno Labs. «Tenemos que ver cómo son nuestros algoritmos y cómo los entrenamos. Los usuarios son cada vez más reticentes con los datos que se recopilan, y pedirán más transparencia», ha abundado.

Para Juan Ignacio Rouyet, CEO de We The Humans «hay un punto de libertad». «Al diseñar un sistema inteligente se toma una decisión, que al final depende en gran parte de las personas. Luego los sistemas inteligentes no deciden nada al final: es un error conceptual. Lo dice alguien que ha definido ese sistema».

La elección podrá ser correcta o no, ha insistido, pero cómo intentar arreglarlo también pasa por explicar el por qué el sistema da un resultado u otro. «El problema de la IA y el machine learning es que a veces no llegamos a saber el por qué, o resulta muy complicado. Pero llegaremos a saberlo, y ya hay herramientas que lo analizan», ha cerrado con ánimo.