En YouTube están teniendo un último tramo de año especialmente agitado: la proliferación de vídeos y comentarios totalmente inapropiados e incluso aterradores tanto en el servicio tradicional como en YouTube Kids ha hecho que las críticas de los usuarios se unan a una desbandada por parte de algunos anunciantes.
Estos acontecimientos han provocado una reacción en este servicio de vídeo en internet, cuya CEO, Susan Wojcicki, ha anunciado una serie de medidas para luchar contra el contenido inapropiado en la plataforma.
Cuatro grandes pilares
La máxima responsable de YouTube explicaba en el anuncio oficial cómo ha comprobado cómo YouTube ha sido "una fuerza para impulsar la creatividad, el aprendizaje y el acceso a la información", pero también destaca que "puede haber otro aspecto, más problemático, relacionado con la apertura de YouTube. He visto cómo algunas malas personas están explotando nuestra transparencia para confundir, manipular, abusar o incluso para hacer daño".

Eso ha hecho que en YouTube pongan en marcha unas medidas para atajar los graves problemas detectados en las últimas semanas. Todas ellas estarán dirigidas a ampliar el plan de acción que ya se había iniciado, y que se centra en cuatro grandes pilares:
- Más personas revisando más contenidos: uno de los problemas de YouTube en la gestión de este tipo de contenidos era la excesiva dependencia de algoritmos que no lograban atajar contenido inapropiado. Ahora el equipo de moderadores humanos se ampliará tanto para revisar esos vídeos que se van subiendo como para entrenar a los sistemas de "enseñanza artificial". El personal dedicado a esta tarea se ampliará a más de 10.000 personas en 2018 "dedicadas a la revisión de contenidos que infringen nuestras políticas".
- Eliminar cinco veces más vídeos gracias al aprendizaje automático: es evidente que los sistemas de aprendizaje automático que ayudan a filtrar contenidos inapropiados siguen siendo críticos ante la enorme cantidad de vídeos que inundan la plataforma. En Google indican que estos algoritmos "han revisado y marcado el contenido que habría requerido 180.000 personas trabajando 40 horas a la semana". Los algoritmos mejorados permiten detectar el 98% de los vídeos que detectan como contenidos violentos o extremistas, y "casi el 70% de contenidos violentos y extremistas a las 8 horas como máximo después de haber sido subidos a la plataforma".
- Mayor transparencia: la poca información que Google y YouTube han ofrecido sobre estos problemas también ha provocado un cambio en sus políticas de comunicación y transparencia, y Wojcicki hablaba de cómo en 2018 crearán un informe periódico con información sobre avisos recibidos y acciones llevados a cabo para "eliminar vídeos y contenidos que infringen nuestras políticas".
- Nuevo enfoque para la publicidad: la última parte de este plan de acción está dedicada a tratar de proteger sus ingresos por publicidad, y aquí el objetivo es "realizar más revisiones manuales e incrementar en gran medida la cantidad de expertos en nuestros equipos encargados de revisar la publicidad, para garantizar que los anuncios se utilizan solo en aquellos lugares donde deberían hacerlo". La CEO de YouTube indica que en las próximas semanas en YouTube "hablaremos con ambos grupos para poner a punto este enfoque".
Más información | YouTube
En Xataka | YouTube Kids y el terror: hay quien se dedica a asustar y traumatizar a los niños de forma sistemática, automatizada y masiva
Ver 12 comentarios
12 comentarios
ikaro_vs
Es un sistema roto. No hay más. La plataforma va en decadencia.
No tiene sentido que en tendencias haya siempre 4 vídeos de los mismos 4 chavales, haciendo la misma cosa en una mansión.
Bromas ridículas, saltos en piscinas, y salseo absurdo y falso.
Mientras tanto el contenido de calidad como el de Lechero, con sus vídeos de historia, queda desmonetizado por hablar de "cataluña", "la guerra de Vietnam" etc... es surrealista.
Ojalá alguien les hiciera competencia, se iban a quedar solos con sus niños rata.
whisper5
Según Google ( https://www.google.com/intl/en/about/behind-the-scenes/youtube-video/ ) se cargan a YouTube más de 400 horas de vídeo cada minuto. Eso son más de 24.000 minutos cada minuto. Por tanto, para ver todo eso en tiempo real hacen falta más de 24.000 personas 24 horas, pero como nadie puede estar las 24 horas del día viendo vídeos en realidad hacen falta muchísimas más.
El problema surge cuando ahora no emplean ni 10.000 personas para revisar vídeos y dejan casi todo en manos de una inteligencia artificial que tiene muchas carencias. Esto lo hacen así porque las máquinas salen mucho más baratas que las personas. Cada año Google duplica la facturación de YouTube, así que no creo que estén justificadas las escusas "He visto cómo algunas malas personas están explotando nuestra transparencia para confundir, manipular, abusar o incluso para hacer daño". Es una cuestión de poner los medios para dar un buen servicio.
daniel3241
Espero que controlen los anuncios sobretodo en canales que no aportan nada bueno a Internet (y no hablo de canales violentos que tambien) como todos esos canales absurdos de bromas pesadas, y de llenar una piscina con bolas solo para tirarse. Canales de ese estilo deberían de desaparecer y fomentar canales educativos de ciencia, matematicas, informatica, etc...