YouTube por fin avanza en su estrategia de combatir los vídeos inapropiados

Una de las mayores quejas que se han suscitado contra YouTube, principalmente en los últimos años, es la recomendación de vídeos que se ubican en la frontera entre lo aceptable y lo prohibido por su normativa. Muchos usuarios han criticado la manera en que funciona el algoritmo de sugerencias, pues incluso se ha presentado el caso en que menores llegan a encontrar contenido inapropiado para su edad. Sin embargo, parece que los cambios realizados recientemente están dando resultados positivos.

En junio del presente año, la plataforma anuncio importantes cambios al algoritmo de recomendación de vídeos, permitiendo que las personas tuvieran un mayor control sobre aquello que desean ver. Tras casi medio año en funcionamiento, ahora YouTube afirma que ha logrado reducir en un 70% el tiempo de visualización de material inadecuado. No obstante, la estadística solo se aplica cuando los usuarios no se encuentran suscritos a los canales que comparten este tipo de contenido.

Según la compañía, durante 2019 se han realizado más de 30 cambios a la recomendación de vídeos. Además, humanos intervienen en la moderación de los mismos, lo que permite a un sistema de aprendizaje automático analizar patrones que pudieran ayudar a identificar otros contenidos que violan las reglas. De hecho, también intervienen expertos en temas concretos, como la medicina, para que la clasificación sea más acertada:

Cada video evaluado recibe hasta nueve opiniones diferentes y algunas áreas críticas requieren expertos certificados. Por ejemplo, los médicos brindan orientación sobre la validez de los vídeos sobre tratamientos médicos específicos para limitar la propagación de información médica errónea. Según el aporte de los evaluadores, utilizamos sistemas de aprendizaje automático bien probados para construir modelos.

Ahora bien, un problema que acecha a YouTube es su criterio para determinar que un vídeo no viola sus normas. En reiteradas ocasiones han mencionado que los moderadores siempre analizan el contexto del material, por lo que una frase ofensiva no siempre resultará en un vídeo prohibido. Han aprovechado este informe para dejar claro que su servicio pretende que todas las voces sean escuchadas, incluso aquellas que no comparte la mayoría del público:

Nada es más importante para nosotros que garantizar que estamos cumpliendo con nuestra responsabilidad. Seguimos enfocados en mantener ese delicado equilibrio que permite que florezcan diversas voces en YouTube, incluidas aquellas con las que otros no estarán de acuerdo, al mismo tiempo que protegemos del contenido dañino a los espectadores, creadores y el amplio ecosistema.

Parte de los cambios introducidos tiene que ver con las fuentes que respaldan la información. Por ejemplo, el vídeo de un medio con mayor reputación y prestigio tiene más opciones de ser recomendado, pues previamente se conoce que los datos que aportan son confiables. Esto evita que se masifiquen las noticias falsas o erróneas, primordialmente las relacionadas con un hecho reciente.

Fuente: Hipertexto

¿Alguna denuncia o solicitud? Dilo aquí