Internet

La razón por la cual Youtube eliminó 7,8 millones de videos en el tercer trimestre de 2018

By diciembre 25, 2018 No Comments

La plataforma de vídeo Youtube ha eliminado 7,8 millones de videos, 224 millones de comentarios y 1,6 millones de canales por violar su política de contenido en el periodo de julio a septiembre de este año, según un informe publicado este jueves por la compañía estadounidense propiedad de Google.

Gran parte de este contenido fue eliminado porque violaba las normas de la plataforma sobre contenido adulto (sexo) y “spam”. Según los datos hechos públicos hoy en su informe trimestral, el 90% de los canales y el 80% de los vídeos eliminados en septiembre correspondieron a estas razones. 

Youtube utiliza un sistema de control que combina revisores (personas) y tecnología “machine learning”. Esta última ha sido la responsable de la detección del 81 % de los videos eliminados y, esta rápida detección, consiguió que el 74,5 % nunca llegara a recibir visitas, reseñó la agencia de noticias EFE.

Los videos eliminados en septiembre por razones de protección de la infancia y violencia extrema, dos áreas con categoría especial para la plataforma, fueron vistos menos de diez veces, gracias a este sistema de control combinado, reseñó la agencia de noticias EFE.

En el caso de los comentarios suprimidos (224 millones), el 99 % también fue detectado por inteligencia artificial. En su mayoría fue retirado por estar considerado “spam” y, según la compañía, supone un mínimo porcentaje de los miles de millones de comentarios que se comparten cada año en la plataforma.

“La combinación de tecnología y humanos entrenados nos permite aplicar nuestras políticas sobre contenido con gran rapidez”, explica la compañía en su blog corporativo.

En el primer y segundo trimestre del año, Youtube retiró 9,1 y 7,1 millones de vídeos respectivamente.

Cada trimestre el número de contenidos eliminado puede fluctuar por cambios en la propia política de contenidos de la compañía, que se extrema o refuerza en caso de situaciones especiales.

El debate sobre la prolifera del discurso de odio, el acoso y el contenido terrorista en internet ha forzado a los gigantes tecnológicos como Facebook, Twitter y Google a incrementar sus esfuerzos en controlar los contenidos sus plataformas.

Con información de EFE