La Inteligencia Artificial aún “no puede actuar sola” para prevenir el fraude empresarial

Pablo Pascual (centro), durante su ponencia en el 1er Congreso Nacional Antifraude, celebrado este jueves en Madrid. |FOTOS: Alberto Orellana

“Estamos todavía en un entorno de decisión humana apoyado en un tratamiento automatizado de datos” para luchar contra el fraude. Nos movemos en un sistema que comparte y cruza datos, y planifica alertas que se derivan a los agentes humanos, especializados, que toman la decisión final. Es una de las principales ideas que se desprenden de la ponencia de Pablo Pascual en el I Congreso Nacional Antifraude celebrado este jueves en Madrid.

El secretario de la Asociación Española de Empresas Contra el Fraude (AEECF) presentó en su ponencia ‘Inteligencia Artificial en la lucha contra el fraude’ las posibilidades actuales y los límites de esta tecnología para prevenirlo. Tecnología que representa “un concepto muy amplio” y que aspira en un futuro a crear máquinas que “sean capaces de procesar el lenguaje natural” y lograr una “representación del conocimiento humano”, apuntó Pascual.

En un futuro, la Inteligencia Artificial (IA) pretende crear robots que repliquen lo que son capaces de hacer los humanos, y de ahí deberá extraerse su utilización para identificar y prevenir el fraude, además de las múltiples aplicaciones adicionales (capacidades motrices) que puedan generarse. “Probablemente estamos todavía lejos”, analizó Pascual, que destacó que la IA que tenemos hoy está representada en “sistemas expertos (machine learning) relacionados con el uso de grandes cantidades de ‘data’ (BigData) y herramientas capaces de extraer la información de ahí”.

El también doctor en Derecho constitucional explicó que, en materia de prevención de fraude, existen varios enfoques del concepto de IA. Por un lado, una tecnología que consiga replicar lo que hacen los seres humanos cuando piensan racionalmente (“ciborgs”), y por otro las posibilidades que brindarían máquinas automatizadas capaces de pensar de forma racional y “tomar decisiones” racionales. No obstante, “los seres humanos no siempre piensan de una forma racional”, sino que “a veces funcionamos de forma emocional”, señaló Pascual.

Es por ello que, en cuanto a este tratamiento de datos por parte de máquinas automatizadas para prevenir el fraude, hoy en día a menudo “se tiene miedo de la forma de pensar de las máquinas”. Es cierto que pueden pensar, pero “no como los humanos”, expresó el secretario de la AEECF. “Dicen que ya existe el primer robot abogado”, comentó Pascual (que ironizó sobre la buena idea de que sustituyan a los humanos, siempre que coticen). Pero, si preguntáramos a uno de estos robots, dijo el doctor en Derecho, este te diría que “las máquinas no pueden actuar solas”.

El ejemplo lo encontramos en la Regulación General de Protección de Datos (RGPD) para elaborar un contrato y prevenir el posible fraude en un trabajador nuevo en la empresa. Su marco regulatorio parte de ese “temor a las consecuencias de una decisión  tomada por una máquina sobre una persona”, explicó Pascual. Se utilizan sistemas automatizados, especialmente para elaborar perfiles de potenciales defraudadores, donde “la máquina puede pensar, incluso decidir, pero bajo unos límites muy notables”, explicó.

Es decir, que salvo excepciones legales o contractuales, un afectado por la acusación fraudulenta de una máquina “tiene derecho a no verse sometido” a esa decisión automatizada basada “únicamente en la elaboración de un perfil”, detalló Pascual. Además hay que tener presente que existen una serie de salvaguardas para el acusado. Podrá haber abogados robots, “pero no jueces”. Siempre habrá una regulación humana final.

No obstante, el secretario de la AEECF recordó que debemos entender que “la prevención del fraude es un tratamiento necesario para la ejecución de un contrato”. Se pueden recoger datos personales del afectado sin su consentimiento -nunca datos sensibles referentes a religión, salud, genética, ideas políticas…-, pero debe informarse en todo momento sobre “la lógica detrás de esta decisión”. Además de que el afectado siempre pueda impugnar la decisión automatizada.