Youtube elimina 58 millones de vídeos que violaban sus políticas de contenidos

Youtube continúa luchando por frenar la difusión de contenido violento en su plataforma y ha informado de que a lo largo del tercer trimestre de este año se han eliminado 58 millones de vídeos y más de 224 millones de comentarios que infringían sus reglas.

Según ha informado la compañía en un comunicado, recogido por Reuters, Youtube ha estado sometida a mucha presión por parte de grupos de interés de Estados Unidos, Europa y Asia que exigían la identificación y eliminación, lo antes posible, de este tipo de contenidos extremistas o que inciten al odio, así como contenido violento, de su plataforma.

Y es que la Unión Europea ha propuesto que este tipo de plataformas puedan ser multadas con altas cifras si no se hacen responsables de que se elimina este tipo de contenido en, al menos, una hora después de recibir una orden gubernamental para su eliminación.

La agencia de noticias ha indicado que Youtube está trabajando para eliminar lo antes posible este contenido violento de su plataforma de vídeo, informando a la sociedad de todos los resultados obtenidos a lo largo del trimestre.

Y así lo ha hecho ahora con la información relativa al tercer trimestre del 2018 en donde se han eliminado más de 58 millones de vídeos y más de 224 millones de comentarios que no seguían las normas específicas para publicar en su plataforma.

En concreto, la compañía ha afirmado que la mayoría de los vídeos que se ha retirado fue spam. Precisamente este tipo de contenido es la que más fácil resulta de identificar ya que Youtube cuenta con herramientas encargadas de su detección automática, al igual que otros contenidos como los relacionados con el extremismo o la desnudez.

De acuerdo con la compañía, el 90 por ciento de los casi 10.400 vídeos que se eliminaron por contenido violento o de los 276.600 vídeos retirados por contenido relacionado con problemas contra la seguridad de los niños recibieron menos de 10 visitas.

Uno de los grandes retos que tiene Youtube es identificar los vídeos que promueven el discurso del odio o el comportamiento peligroso, ya que la tecnología para detectarlo es relativamente nueva y son menos eficientes, por lo que Youtube depende de los propios usuarios para poder denunciar este tipo de vídeos. El problema estriba que al depender de los usuarios, el contenido en cuestión puede estar más tiempo del debido en la plataforma antes de ser retirado.

Ahora bien, Google ha ido incorporando moderadores a lo largo de este año, contando en sus filas con más de 1.000 con la intención de poder ser más rápidos en la revisión de este tipo de contenidos.

Ana Lacasa
Periodista y Filóloga. Dos áreas que se dan de la mano para informar de la actualidad emprendedora y tecnológica.