GA4 - Google Analitycs
Suscríbete
Suscríbete

Recibe todas las noticias
en tu e-mail

Salud Mental

Algoritmo de TikTok se dirige a adolescentes vulnerables, según ONG

El informe sobre TikTok proviene del Center For Countering Digital Hate.

Por Vanesa Rojas

TikTok es una red social muy utilizada por jovenes.

TikTok es una red social muy utilizada por jovenes.

Un nuevo informe de una ONG informó que el algoritmo de TikTok se dirige a "adolescentes vulnerables". La aplicación, según Center for Countering Digital Hate, recomienda contenido dañino como cada 27 a 39 segundos.

Define contenido dañino sobre temas como trastornos alimentarios, vergüenza por el peso, autolesiones y agresión sexual.

Investigadores del centro realizaron un estudio y registraron ocho nuevas cuentas en los Estados Unidos, Canadá, el Reino Unido y Australia, estableciéndolas en una edad mínima de 13 años. Se veían videos que se referían a la imagen corporal y la salud mental.

La mitad de estas cuentas tenían nombres de usuario con "perder peso". Investigadores consideraron esto como cuentas "vulnerables". La otra mitad se consideró cuentas "estándar" sin un nombre de usuario "perder peso".

TikTok fue motivo de estudio. 

OPINIÓN DE REPRESENTANTES DE LA ONG SOBRE TIKTOK

Imran Ahmed, director ejecutivo del Center for Countering Digital Hate, informó que el contenido dañino que TikTok recomendó a las cuentas de adolescentes vulnerables fue más extremo que el contenido que se mostró a las cuentas de adolescentes estándar".

"Un aumento en los videos sobre trastornos alimentarios estuvo acompañado por un aumento en el contenido de autolesiones y suicidios, que incluía thinspo, métodos para autolesionarse y videos de adolescentes discutiendo planes para suicidarse".

Se grabaron  los primeros 30 minutos de contenido recomendado  viendo y dando me gusta a cualquier video sobre imagen corporal, salud mental o trastornos alimentarios.

Una vez que se activó el algoritmo de la aplicación, el contenido sobre el suicidio apareció en el feed de las cuentas "estándar" a los 2,6 minutos y el contenido sobre los trastornos alimentarios apareció en los 8 minutos.

Mientras tanto, a las cuentas "vulnerables" se les recomendaron tres veces más videos dañinos y 12 veces más videos de autolesiones que las cuentas "estándar".

Con información de Abcnews

En esta nota

Comentarios

Suscríbete

Recibe lo mejor de Mundo Sano en tu casilla de E-mail

Registrarse implica aceptar los Términos y Condiciones