Una de las preocupaciones de las redes sociales es la difusión de mensajes de odio que se distribuyen a través de los mensajes. Muchas compañías están trabajando para eliminar y prevenir la difusión de estos mensajes, pero ahora, un grupo de investigadores ha conseguido dar con la solución. Y es que han conseguido crear un algoritmo que identifica de forma automática las cuentas de Twitter que realizan acciones de ciberacoso contra otros usuarios.
La efectividad de este nuevo algoritmo, creado por este grupo de investigadores con el apoyo de Samsung y Telefónica, es de más del 90 por ciento, por lo que parece ser la solución a este problema. Los investigadores han publicado un estudio llamado ‘Detectando el ciberbullying y la ciberagresión en las redes sociales” en el que se han analizado 1,2 millones de cuentas de Twitter y más de 2,1 millones de tuits con temas de lo más variado, desde la NBA hasta la desigualdad de secos en los salarios, temas en los que se han registrado un abuso más frecuente de este tipo de contenido.
Este estudio también ha incluido el tema de GamerGate, una campaña que tuvo lugar en 2014 contra varias desarrolladoras de videojuegos y mujeres del sector que fueron objeto de amenazas de violación por un grupo de usuarios de Twitter.
Los investigadores, procedentes de la Universidad Aristóteles Tesalónica y el Centro de Investigación y Tecnología Hellas, los dos en Grecia, las universidades de Binghamton y Bostom, en Estados Unidos, y el University College de Londres, en Reino Unido, han indicado que en este estudio se pueden distinguir entre los agresores y el resto de usuarios de Twitter considerando los textos compartidos y otros atributos. En este estudio también se han filtrado las cuentas de spam gestionados por bots y no por personas y han contado con la API Streaming de Twitter que les daba acceso al uno por ciento de los tuits de la plataforma. Por tanto, se han dejado para su estudio las publicaciones de acosadores, agresivos, spam y normales.
El algoritmo se encargaba de buscar los hashtags relacionados con campañas de acoso en los que hubiera algún insulto, usando para ello una base de datos de términos de odio, llamada Hatebase.
Tras analizar los tuits, el algoritmo pudo identificar al 90.2 por ciento de los acosadores, aunque en los tuits de perfil “normal” el porcentaje se reduce al 82.7 por ciento.