En los últimos años, la moderación de contenido en las plataformas digitales ha ganado relevancia, especialmente en lo que respecta a la propagación de discursos de odio en escenarios de conflicto. Uno de los casos más emblemáticos es el de Meta, la empresa detrás de Facebook e Instagram, que enfrenta crecientes acusaciones por no controlar efectivamente los contenidos dañinos durante el conflicto en la región de Tigré, Etiopía.
📉 Meta: ¿responsabilidad o inacción ante el discurso de odio?
El caso de Etiopía ha puesto en evidencia los peligros de la falta de moderación en redes sociales. Denuncias sobre cómo los algoritmos de Facebook amplificaron mensajes de odio contra la comunidad tigriana, a pesar de las advertencias previas de expertos, son solo algunos de los hechos que han sacudido a la plataforma. Amnistía Internacional señaló que Meta no cumplió con su responsabilidad, aunque ya se conocía el riesgo.
⚖️ Abrham Meareg: un testimonio doloroso de las consecuencias de la inacción
Uno de los casos más conmovedores es el de Abrham Meareg, quien acusa a Meta de contribuir a la muerte de su padre a través de amenazas de muerte difundidas en Facebook. En abril de 2025, la Corte Suprema de Keniadeterminó que Meta podría ser juzgada por su papel en el caso, un fallo que podría sentar un precedente legal en otros países.
Más presión sobre Meta: la comunidad internacional exige medidas
Organizaciones como la Liga Antidifamación (ADL) y la red de inversores judíos JLens están exigiendo que Meta sea más transparente en su manejo del discurso de odio en plataformas como Facebook e Instagram. Estas demandas buscan que Meta publique informes claros sobre cómo maneja contenidos antisemitas, anti-LGBTQ+ y contra personas con discapacidad. Además, la Comisión Europea ha abierto investigaciones sobre el manejo de la desinformación, especialmente en relación con el conflicto de Israel y las elecciones en varios países.
🔍 El riesgo de no intervenir: el caso de Sama y la moderación en África
El caso de Sama, el principal contratista de Meta para la moderación en África oriental, también ha puesto de relieve las dificultades de gestionar contenido en contextos sociales delicados. Sama suspendió sus servicios en 2023, lo que generó preocupación sobre la capacidad de Meta para evitar la propagación de contenidos dañinos. Este cambio también fue criticado por los moderadores, más de 100 exmoderadores en Kenia demandaron a la empresa por las graves secuelas psicológicas sufridas al estar expuestos constantemente a violencia gráfica.
💬 La moderación como responsabilidad ética y legal
El Dr. Iván Vladimir Meza Ruiz, experto en inteligencia artificial, plantea que la moderación de contenido es esencial para una experiencia digital segura. Si bien es difícil controlar todos los riesgos, las decisiones de Meta, en muchos casos, pudieron haber mitigado los daños, sobre todo al permitir que los algoritmos amplificaran contenido nocivo sin control. En su opinión, estas plataformas no pueden seguir argumentando que solo son intermediarias, y deben asumir su responsabilidad.
⚠️ La necesidad urgente de regulación y transparencia en las plataformas
El investigador subraya que, debido al impacto de los algoritmos, se requiere una regulación urgente. Meta y otras plataformas deben rendir cuentas por los efectos generados por sus algoritmos. La transparencia, las auditorías independientes y una mayor participación pública son esenciales para que estas plataformas asuman su rol en la moderación de contenidos.
🌍Un futuro más seguro para las plataformas digitales
La creciente preocupación sobre la moderación de contenido plantea interrogantes cruciales para el futuro de las plataformas digitales. A medida que la desinformación y el discurso de odio se expanden, el caso de Meta es solo el principio de un debate global sobre la responsabilidad de las empresas tecnológicas en el control de contenido.