Las redes sociales son los foros públicos de nuestro tiempo. El lugar donde circula buena parte de la conversación pública. Las corporaciones digitales que ostentan la propiedad de las redes sociales más utilizadas son quienes dan infraestructura, configuran y ejercen como “guardianes” de estas plazas públicas digitales (TEDH, Delfi AS c. Estonia [GC]; TEDH, Magyar Helsinki Bizottság c. Hungría [GC]). Por ello, sus prácticas de moderación de contenido hace tiempo que están en el foco del debate público. Este debate ha tomado nuevo vigor en las últimas semanas ante los anuncios de modificaciones en las prácticas de moderación que han realizado empresas como Meta.
Antes de los últimos acontecimientos, una de las prácticas que más controversia había generado es la que se conoce como shadowbanning o, en su traducción al español, invisibilización. Esta medida consiste en reducir la visibilidad de un usuario de una red social o de los contenidos que publica, generalmente sin su conocimiento. No se suprimen ni la cuenta del usuario ni sus publicaciones, pero se reduce su visibilidad en el feed de la red social.
Se trata de restringir la visibilidad de cuentas de usuario y/o de contenidos específicos. También puede neutralizar la posibilidad de que terceras personas interactúen con el contenido (compartir, responder, etc.) o «encuentren» fácilmente al usuario objetivo en la barra de búsqueda (sin sugerencia sobre el seudónimo del usuario en cuestión ni autocompletado). Por tanto, no se trata de una supresión de contenidos en sentido estricto.
El shadowbanning difiere de no promocionar o destacar un contenido, ya que para hablar de shadowbanning se requiere una acción específica para reducir la visibilidad, resultante de una decisión humana o de un proceso automatizado, por lo que tiene un carácter sancionador. Para ver el contenido, los usuarios de terceros deben ser proactivos y visitar la cuenta del usuario en cuestión.
Una de las características principales de esta práctica de moderación de contenido es su carácter secreto, dada la ausencia de notificación al usuario de la medida emprendida contra él. Tanto es así que su mera existencia es objeto de debate. Numerosos usuarios, influencers y activistas han denunciado haber sido objeto de invisibilización, pero algunas redes no admiten abiertamente que lo utilicen (Cotter, 2021) y, en el caso de que lo hagan, no explican claramente los supuestos (vid. META y, anteriormente, Twitter). De hecho, cuando en algunos casos se ha advertido sobre la existencia de invisibilización a un tipo de contenido, las plataformas han aludido a supuestos errores técnicos.
En relación con su contenido, existirían dos tipos principales de shadowbanning: (1) la que se dirige a contenidos «límite» por su naturaleza explícita o sexualmente sugerente y (2) la que se dirige a contenidos «límite» por su carácter políticamente «sensible». Centrándonos en este segundo tipo, se refiere a contenidos «políticamente» sensibles –o divisivos–, que de acuerdo con las plataformas están en el límite de incitar al odio, contienen lenguaje grosero o imágenes sangrientas. Para ilustrarlo con un ejemplo, tras un ataque israelí contra el hospital Al-Shifa de Gaza y sus inmediaciones, se publicó un vídeo en Instagram (segunda semana de noviembre de 2023) con imágenes de personas muertas o gravemente heridas, incluidos niños, tendidas en el suelo. Los sistemas automatizados de Meta eliminaron la publicación por infringir la norma comunitaria «Contenido violento y explícito». Después de que el caso fuera seleccionado por el Oversight Board de Meta para su revisión (diciembre de 2023), Meta decidió reinstaurar el contenido, con un mensaje de advertencia, y rebajar su visibilidad, impidiendo que fuera recomendado. Con respecto a esto último, el Oversight Board señaló que las recomendaciones de Instagram son generadas por sistemas automatizados que sugieren contenidos a los usuarios en función de sus intereses previstos. En consecuencia, eliminar contenido de los sistemas de recomendación equivale a reducir el alcance que este contenido obtendría de otro modo y eso interfiere en la libertad de expresión.
En este punto, se trata de analizar cómo afectan estas medidas de shadowbanning a los derechos humanos. Concretamente, a la libertad de expresión, aunque no es el único derecho afectado, ya que también puede interferir en el derecho a la no discriminación, en la libertad de reunión y asociación, en el derecho a participar en los asuntos públicos y políticos o en la transparencia y el derecho a un debido proceso, como analizamos en un reciente informe.
La libertad de expresión es un elemento clave de los procesos de toma de decisiones en los sistemas democráticos. Un pilar fundamental para la tolerancia y el pluralismo (véase CADH, Ajavon v. Benin, § 119; TEDH, Handyside v. United Kingdom; Corte IDH, Opinión Consultiva 5/85). Un componente esencial de la libertad de expresión es el «derecho a formarse una opinión y a desarrollarla mediante el razonamiento» (D. Kaye, A/73/348, § 23). De ahí que este derecho garantice no sólo el derecho a comunicar información, sino también el derecho del público a recibirla.
En este contexto, podemos ver el shadowbanning como una interferencia tanto en el derecho a difundir como a recibir información. Aunque no elimina el mensaje, el shadowbannning reduce su visibilidad en comparación con la norma aplicable a otras publicaciones. Desde el punto de vista del orador, interfiere en el vínculo entre el mensaje y su audiencia potencial. Esto es importante, ya que generalmente los individuos no se expresan simplemente por el placer de hacerlo, sino para ser escuchados, reconocidos y, potencialmente, para influir y modificar el comportamiento de terceros (Schauer, 1993, p. 947). Desde el punto de vista del público, el shadowbanning reduce considerablemente la posibilidad de acceder a la información y modifica la diversidad de puntos de vista a los que se está expuesto por defecto.
Sin embargo, no se trata de concluir que hay que prohibir medidas de moderación necesarias para el buen funcionamiento de las plataformas digitales, sino cuestionar el carácter y la aplicación de estas. El objetivo es, por tanto, evaluar los criterios que permiten distinguir entre una moderación respetuosa de los derechos humanos, justificada por objetivos legítimos (en particular, el mantenimiento de un entorno digital sano) y con un carácter proporcionado, de la que no lo es.
En este sentido, el test del artículo 19.3 del Pacto Internacional de Derechos Civiles y Políticos, recogido también en otros tratados de derechos humanos, aunque estrictamente aplicable a las empresas, proporciona una guía para evaluar sus acciones en relación con los derechos humanos (D. Kaye, A/HRC/38/35, § 45). El primer requisito, que las restricciones estén previstas por ley, pretende garantizar que las restricciones se basen en normas preestablecidas y que se haga una distinción «suficientemente precisa» entre comportamientos lícitos e ilícitos. El objetivo es que las restricciones sean conocidas por las personas afectadas y que sus efectos sean previsibles (véase D. Kaye, A/HRC/38/35, § 7; CADH, Ingabire Victoire Umuhoza c. Ruanda, § 136; TEDH, Sánchez c. Francia [GC], § 124; Corte IDH, Moya Chacón y otro c. Costa Rica, § 72). En este punto, la aplicación secreta y opaca de los mecanismos de shadowbanning y el hecho de que sus criterios no se definan con precisión en las «normas comunitarias» incumpliría este estándar. No cumple con las exigencias de transparencia y seguridad jurídica, permitiendo a los usuarios anticipar el riesgo de que su publicación sea degradada.
En consecuencia, todas las plataformas deberían hacer públicas sus prácticas de restricción de la visibilidad, especificando los criterios de aplicación, la duración de las restricciones y los métodos de detección utilizados (algoritmos, alertas, decisiones humanas). Del mismo modo, cualquier medida de shadowbanning debe notificarse a los usuarios afectados, indicando los motivos y la duración de la sanción. Esta transparencia permitiría a los usuarios comprender mejor las medidas adoptadas en su contra y, en su caso, impugnarlas.
El segundo y tercer requisito del test están relacionados con la persecución de un objetivo legítimo, la necesidad y la proporcionalidad de las medidas adoptadas. Aunque el shadowbanning pueda parecer inicialmente una medida menos restrictiva que la supresión, su aplicación práctica a conductas no sujetas a los requisitos establecidos por la ley o las normas comunitarias –lo que hemos definido como contenidos «límite»– corre el riesgo de ampliar el ámbito de la expresión “prohibida” hasta el punto de comprometer la libertad de expresión y el pluralismo. Este riesgo puede verse exacerbado por el uso de herramientas automatizadas (algoritmos, inteligencia artificial, etc.), debido a su potencial aplicación a gran escala y a que tienen limitaciones en su capacidad para evaluar los contextos del discurso, dada la amplia variación de los marcos lingüísticos de referencia, las particularidades culturales o su propensión a reforzar los sesgos discriminatorios incorporados en sus bases de datos (D. Kaye, A/73/348, §§ 15 y 16).
La implementación del shadowbanning debe evaluarse caso por caso. No obstante, conviene recordar que la libertad de expresión protege tanto las opiniones consideradas inofensivas como las que escandalizan u ofenden (TEDH, Handyside v. United Kingdom) y que existe una estrecha relación entre libertad de expresión, sociedad democrática y pluralismo. En consecuencia, la facultad de restringir la expresión política es muy limitada y el margen de apreciación para evaluar la «necesidad» de la medida es muy estrecho (véase TEDH, Sánchez c. Francia [GC]; CADH, Ingabire Victoire Umuhoza c. Ruanda, § 161). La aplicación generalizada de prácticas como el shadowbanning puede suponer una amenaza para estos principios en las redes sociales, al reducir la diversidad de discursos en uno de los espacios de debate y acceso a la información más relevantes de las democracias contemporáneas, especialmente cuando no se justifica debidamente el objetivo legítimo que se persigue.
Como ya se ha mencionado, es posible que el shadowbanning se dirija a un tipo de discurso, como el político; a temas concretos, y/o a grupos o comunidades específicos. En este caso, la infracción del pluralismo iría acompañada de una posible violación del principio de no discriminación, especialmente cuando implica silenciar a grupos vulnerables, desfavorecidos o excluidos de la sociedad (véase Meta Oversight Board, Shared Al Jazeera post, 2021).
No cuestionamos la utilidad de los mecanismos para reducir la visibilidad de los contenidos perjudiciales (en lugar de suprimirlos directamente), pero la invisibilización no debe conducir a la supresión encubierta de opiniones legítimas y las normas aplicadas deben ser compatibles con los derechos fundamentales. Conviene recordarlo, especialmente ahora, cuando la implicación política clara y abierta de los tecno-magnates parece cada vez más evidente.
*Aclaración: Una versión más extensa y detallada de este post puede encontrarse en el informe “Shadowbanning en las redes sociales. Desafíos para la normativa internacional de derechos humanos” (E. Boulvard-Chollet, R. García Higuera, V. Ndior [coord.]), en sus versiones en francés, inglés o español.