TikTok propone a las mayores redes sociales crear una coalición para proteger a sus usuarios del contenido peligroso

TikTok propone a las mayores redes sociales crear una coalición para proteger a sus usuarios del contenido peligroso

La compañía señaló que había eliminado más de 104 millones de videos durante la primera mitad de este año por violación de sus políticas.

TikTok se dirigió a las mayores plataformas y redes sociales con la propuesta de crear una coalición para detener la propagación de contenido perjudicial, según un comunicado de la compañía, publicado el 22 de septiembre.

La jefa interina de la ‘app’ china, Vanessa Pappas, envió una carta con la propuesta en cuestión a los dirigentes de 9 plataformas, alentándolos a informar sobre este tipo de contenido.

«Trabajando juntos y creando un banco para el contenido violento y gráfico, podríamos reducir significativamente las posibilidades de que la gente lo encuentre y soporte el daño emocional que la visualización de tal contenido puede traer: no importa la aplicación que use», destacaron desde la plataforma de videos cortos. «Dicha colaboración ya está sucediendo» cuando se trata de algunos tipos de contenido, como las publicaciones relacionadas con el abuso sexual infantil, pero TikTok quiere ampliar las categorías de las publicaciones para el trabajo conjunto y agregar allí, por ejemplo, el contenido relacionado con suicidios.

Pappas declaró que la empresa quiere convocar una reunión de los representantes de las plataformas para abordar el mecanismo, «que nos ayudaría a todos a mejorar la seguridad de nuestros usuarios».

El comunicado no detalla quién recibió la carta, pero Theo Bertram, director de relaciones con los gobiernos y la política pública de la red en Europa, Oriente Medio y África, afirmó que se trata de Facebook, Instagram, Google, YouTube, Twitter, Reddit, Twitch, Snapchat y Pinterest, recoge Variety.

En otra publicación, difundida el mismo día, la compañía señaló que había eliminado más de 104 millones de videos durante la primera mitad de este año por violación de sus políticas. «De aquellos videos, encontramos y eliminamos el 96,4% antes de que fueran reportados y el 90,3% fueron eliminados antes de que recibieran cualquier visualización», indicó.

Fuente: RT