¿Qué está pasando en Youtube con el algoritmo?

YouTube es la segunda página más visitada a nivel mundial, registra alrededor de 1.900 millones de usuarios que tienen la posibilidad de ver un sinnúmero de publicaciones. Después de Google, su buscador es el más utilizado.

El material que recomienda es influyente, ofrece su visión y argumenta las imágenes que presenta, aunque le traiga consecuencias. Cada usuario observa en su página principal recomendaciones que aparecen en una pila de vídeos. Es aquí donde entra en juego el algoritmo y quien busca la información dura un prolongado tiempo en la plataforma.

Es decir, que si el interesado necesita ver una publicación e indagar; se le sugieren noticias sucesivas y este se deja llevar por la dinámica, manteniéndose en la página sin percatarse del número de horas que le dedica.

Un semanario español realizó un experimento que consistía en averiguar datos sobre temas políticos y sociales. Abrió en el navegador una sesión privada para que su historial no interviniera en las disposiciones del algoritmo. Escribió en la barra de búsqueda una palabra clave y eligió una de las alternativas. Aparecieron sucesivamente videos y comprobó que el algoritmo hizo de las suyas, al proporcionar distintas propuestas.

¿Cómo se mueve el algoritmo?

Youtube no lo explica, su objetivo es satisfacer al usuario. Continuamente lo rediseña, le conviene más que se vean los videos y el like. El Instituto Reuters de la Universidad de Oxford registra que un 26% de españoles emplean ese algoritmo para informarse.

En idioma anglosajón, los ítems políticos o pseudocientíficos se abordan y precisamente YouTube trabaja para evitarlo. Esto denota que su algoritmo opone resistencia ante divulgaciones consideradas tóxicas en estas materias, hecho que no ocurría.

Incluso con el aumento del algoritmo sus contenidos convencen o generan rechazo en la población más vulnerable. El fundador de la web Algotransparency.org y en el pasado ingeniero de Youtube, Guillaume Chaslot, revela que “el algoritmo actúa como una bola de nieve que crece paulatinamente y ansía que haya menos intervención manual”.

El algoritmo percibe que si averiguas asuntos polémicos, permanecerás más tiempo viendo vídeos. El idioma aquí es determinante. Según el especialista y catedrático Ricardo Baeza Yates, son tres las razones; “hay menos contenido en español, menos usuarios, y menos polarización que en Estados Unidos”.

La página notificó a inicios del año que recomendaría pocos contenidos que tocaran la pseudociencia y meses después hubo una disminución de 50% de las visualizaciones. Lo mismo se hará en otras naciones, no se conoce si también en España. YouTube ha tenido que actuar en casos de bulos, supremacismo blanco y acoso por homofobia. Los contenidos sociopolíticos al parecer son medianamente tóxicos, por ello la web transmite vídeos de programas de radio, entrevistas y conferencias que ayuden a los consumidores a no sugestionarse; dándoles la oportunidad de elegir.

 

 

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *