Noticia Recursos Humanos

El uso de la inteligencia artificial en los procesos de reclutamiento, puede poner en peligro la credibilidad de las empresas

Por Redacción - Dic 9, 2025

La integración de herramientas de Inteligencia Artificial en funciones empresariales críticas, como la selección de personal, ha pasado de ser una promesa futurista a una realidad palpable, si bien no exenta de desafíos. Esta adopción tecnológica, impulsada por la búsqueda de eficiencia y escalabilidad, proyecta una sombra inesperada sobre la credibilidad y reputación de las marcas si no se implementa con la supervisión humana y las salvaguardas éticas necesarias. El ejemplo de un "reclutador de IA" como Alex, que ha conseguido recaudar una significativa cifra de 17 millones de dólares para conducir entrevistas de manera autónoma, subraya la velocidad con la que las decisiones sensibles están siendo transferidas al ámbito algorítmico, planteando la inquietud fundamental sobre el control efectivo cuando el juicio humano se minimiza.

El avance de la IA y el Internet de las Cosas (IoT) ya es una tendencia afianzada en el tejido empresarial europeo, tal como lo constató el informe “Connecting the future of business” de Kaspersky en 2024, que señalaba que casi la mitad, concretamente el 48%, de las empresas del continente ya había incorporado estas tecnologías, y un 30% adicional proyectaba hacerlo en los dos años siguientes. Este ímpetu por la modernización, sin embargo, contrasta con una notable brecha en la ciberseguridad, donde entre el 21% y el 30% de las organizaciones percibía estas herramientas como "muy difíciles" o "extremadamente difíciles" de proteger. Este desajuste evidencia que la vanguardia en la adopción tecnológica frecuentemente precede a la madurez en las estrategias de protección y uso responsable, un desequilibrio que resulta especialmente delicado al aplicarse a la gestión del capital humano.

La realidad española refleja un crecimiento acelerado en la utilización de la Inteligencia Artificial dentro de los procesos de negocio y, en particular, en el área de recursos humanos. Datos del Banco de España indicaban en 2024 que cerca de una de cada cinco empresas, el 20%, ya utilizaba alguna forma de IA, si bien la mayoría se encontraba aún en una fase de prueba, con solo un 6% reportando un uso estable o avanzado. Esta tendencia se ha intensificado, según un estudio de InfoJobs, que registró un aumento en la adopción de IA por parte de las empresas españolas del 24% al 38% entre 2024 y 2025. El uso efectivo y real en tareas como la búsqueda de candidatos o la planificación de entrevistas también experimentó un crecimiento sustancial, pasando del 47% al 59% en el mismo periodo. Este rápido escalamiento, si bien positivo para la eficiencia, amplifica el riesgo reputacional si las organizaciones carecen de una base de empleados debidamente formados en las implicaciones éticas y responsables de esta tecnología. Un 34% de las empresas españolas considera la falta de formación en IA un problema crítico, según el estudio de Kaspersky "Cyber defense & AI: Are you ready to protect your organization?", y casi la mitad de ellas teme que esta carencia derive en una pérdida de confianza o un daño reputacional significativo.

El riesgo más insidioso que acompaña el auge de los reclutadores impulsados por IA reside en su vulnerabilidad ante ataques de manipulación, especialmente la inyección de prompts o instrucciones ocultas. Esta técnica permite manipular los grandes modelos de lenguaje (LLM) para que alteren sus resultados o incluso generen respuestas completamente inapropiadas, socavando tanto la eficacia del proceso de selección como la imagen de la empresa. Un experimento reciente, protagonizado por el profesional tecnológico Cameron Mattis, ilustra esta fragilidad de forma vívida: al incluir una instrucción camuflada en su perfil de LinkedIn, que pedía al LLM incluir una receta de flan en su mensaje, recibió poco después una oferta de empleo genuina acompañada de la receta solicitada. Este suceso, que podría parecer anecdótico, revela una seria brecha de seguridad y credibilidad.

V. Tushkanov, Machine Learning Technology Research Group Manager en Kaspersky, enfatiza que este tipo de incidentes no son aislados. Argumenta que la externalización de funciones de reclutamiento a sistemas de IA sin la adecuada supervisión humana puede amplificar sesgos preexistentes en los datos, exponer información sensible o, peor aún, causar un perjuicio directo a la reputación corporativa. Un error como el del correo con la receta de flan no solo deteriora la imagen de marca, sino que también puede generar una desconfianza crítica entre los candidatos más cualificados, llevándolos a descartar oportunidades por la percepción de un proceso automatizado y poco serio. Esta perspectiva refuerza la tesis de que el factor humano (la supervisión, la ética y un escepticismo saludable) es un componente irremplazable en la cadena de selección.

Para mitigar estos riesgos y asegurar la credibilidad en la automatización del reclutamiento, los analistas de ciberseguridad proponen una aproximación multifacética. Resulta esencial establecer una supervisión humana en las fases más críticas del proceso, de modo que los profesionales de recursos humanos revisen y validen los mensajes o las evaluaciones generadas por la IA, actuando como un filtro contra sesgos o resultados indeseados. Además, se deben realizar pruebas periódicas contra la manipulación de los sistemas, evaluando la vulnerabilidad de las herramientas a instrucciones ocultas para prevenir incidentes que puedan ser tanto embarazosos como económicamente perjudiciales. La formación ética y técnica es otro pilar fundamental, orientada al diseño de sistemas de IA capaces de identificar y descartar instrucciones sospechosas en los datos de los candidatos. Asimismo, la transparencia en el uso de los algoritmos es crucial; las empresas deben informar a los candidatos cuando se utilicen estos sistemas, cultivando así un clima de confianza. Por último, la actualización continua de los modelos de IA y el fomento de la vigilancia interna por parte de los equipos de recursos humanos, alentándolos a reportar cualquier comportamiento anómalo de los sistemas automatizados, se presentan como medidas indispensables. En última instancia, el caso de “Alex” y el experimento de Mattis confirman que la automatización sin un control ético y técnico riguroso trasciende el mero riesgo técnico para convertirse en un riesgo directo para la confianza pública y la sostenibilidad reputacional de la empresa.

Más Leídos
Continua Leyendo...
Contenidos Patrocinados
ADS
Promocionados