Cuando estamos viendo un vídeo en YouTube, la plataforma recomienda otros contenidos en su columna de la derecha. Se trata de clips que el algoritmo cree que nos pueden interesar, teniendo en cuenta, entre otros factores, otros vídeos que hemos visto y los canales a los que estamos suscritos. Si seguimos a youtubers, aparecerán muchos otros de estos creadores de contenidos, y si solemos ver videoclips, la plataforma propondrá más música. Este algoritmo de recomendaciones también es una herramienta que están usando algunos pedófilos para llegar a vídeos de menores. El escándalo le ha estallado a YouTube en las últimas horas.
Lo destapó el youtuber Matt Watson en un vídeo publicado en la plataforma el 17 de febrero y que acumula casi dos millones de reproducciones en menos de cuatro días. En su vídeo demuestra lo fácil que es llegar a lo que llama un “agujero de gusano” en el que la columna de recomendaciones de YouTube se llena de vídeos protagonizados por niñas y niños.
No son vídeos con contenido sexual explícito: aparecen los menores hablando de su rutina diaria o haciendo ejercicio, por ejemplo, pero los comentarios están llenos de expresiones desagradables. Incluso marcan los momentos del clip susceptibles de ser sexualizados, a pesar de que se trata de gestos o situaciones inocentes protagonizadas por niños que muchas veces no tienen ni 10 años. También hay enlaces a otros vídeos (que ahora aparecen como borrados) y propuestas para añadirse unos a otros como contactos.
En algunos casos se trata de canales creados por los menores, pero en otros es contenido robado y vuelto a subir desde cuentas anónimas. Algunos de estos vídeos tenían además publicidad. La plataforma compensa económicamente y de forma automática a los canales que incluyen anuncios en antes de la reproducción de sus vídeos, lo que se conoce como pre-roll.
Hemos replicado el método para llegar a este “agujero de gusano” que denuncia Watson: basta con hacer una búsqueda como “yoga”, “gymnastics stretch” (estiramientos de gimnasia) o “bikini haul”, que son vídeos en los que mujeres (adultas) muestran bikinis. Tras pinchar alrededor de cinco veces en los vídeos de las recomendaciones, la columna de la derecha se llena de escenas con menores. Algunos de estos vídeos tienen millones de reproducciones a pesar de tratarse de menores desconocidos.
Miles de comentarios y cientos de canales borrados
YouTube ha reaccionado tras esta denuncia. En un comunicado que remite a Verne, la compañía explica que "cualquier contenido -incluyendo comentarios- que ponga en peligro a menores es abominable y contamos con políticas claras que lo prohíben en YouTube”.
La empresa explica que, en los últimos días, ha "deshabilitado comentarios en decenas de millones de vídeos que incluyen a menores". También ha "revisado y borrado miles de comentarios inapropiados", ha eliminado 400 perfiles y los ha denunciado a las autoridades. La plataforma también ha eliminado “docenas de vídeos publicados con intenciones inocentes, pero que claramente ponían a menores en riesgo”.
YouTube recuerda que los menores de 13 años no pueden crear o gestionar cuentas en su servicio, y que cada semana se eliminan miles de canales por este motivo. “Hay más por hacer, y continuamos trabajando para mejorar y detectar el abuso cada vez más rápido".
canal https://t.co/x7OtMhmrBG
— @nonymousOpPedoHunt (@WeArePedoHunter) 13 de julio de 2018
video https://t.co/rgTpYMEUqD#Youtube exije 4,000 horas de visitas y 1,000 subs para monetizar un canal
Y muchos enfermos se dedican a esa actividad ilegal #OpYoutube 👊
A pesar de reportar no eliminan el canal ni el video #YoutubeWakeUp https://t.co/ay35oiXVPx
Aun así, y tras la publicación del vídeo de Watson, muchas empresas han anunciado que retiran su publicidad de la plataforma hasta que esto se solucione. Entre ellas, y según han confirmado varias empresas a Bloomberg –como Doctor Oetker, Nestlé y la creadora de Fortnite, Epic Games–. Otras, como Purina y Canada Goose, han anunciado la misma acción en Twitter.
Watson recuerda que el hashtag #YouTubeWakeUp se había usado con anterioridad para denunciar estos hechos. No cuesta encontrar tuits con estas denuncias de hace meses. Algunos de los canales denunciados en estos mensajes siguen activos, si bien muchos de los vídeos tienen comentarios deshabilitados.
Desde Verne hemos preguntado a YouTube si se van a llevar a cabo cambios en el algoritmo que decide los vídeos recomendados. La empresa nos remite al trabajo de prevención que hace con asociaciones en contra del abuso infantil, como la Internet Watch Foundation, y su colaboración con las autoridades cuando detecta contenido ilegal.
También recuerda las decisiones que tomó la empresa a finales de 2017 para combatir situaciones similares. En 2017, YouTube ya tuvo que bloquear comentarios en contenido dirigido expresamente a menores, además de comentarios en los que algunos usuarios proporcionaban datos de contacto para compartir otros vídeos. Ese mismo año, la plataforma tuvo que actualizar sus términos de uso después del llamado “ElsaGate”, en el que el algoritmo recomendaba contenido sexualizado a niños. Y en 2013 modificó el funcionamiento de su algoritmo para evitar que aparecieran contenidos como los denunciados por Watson en búsquedas directas tanto en Google como en YouTube.
* También puedes seguirnos en Instagram y Flipboard. ¡No te pierdas lo mejor de Verne!