Por Richard Ashby Wilson y Molly Land
Las plataformas digitales son la nueva primera línea para la propaganda en contra de los defensores de derechos humanos. La difusión prolongada de amenazas y desinformación para desalentar y desacreditar el trabajo de los defensores de los derechos humanos se ha vuelto más sofisticado en el mundo digital con las compañías de redes sociales.
Las redes sociales nos llevan inevitablemente a recordar casos en donde las mismas se han utilizado para organizar movimientos que han derrocado regímenes dictatoriales y para pedir la liberación de presos políticos. Sin embargo, como lo dijo la Comisión Internacional Contra la Impunidad en Guatemala en un informe reciente, las mismas están siendo utilizadas para atacar y acosar a los defensores de los derechos humanos, incluidos periodistas y abogados; estos ataques en línea no sólo buscan intimidar a los oponentes, sino también exacerbar un clima de impunidad en el que se toleran altos niveles de violencia política.
Estos peligros deben ser de preocupación para las compañías de redes sociales en países donde hay un historial de atrocidades masivas o donde un evento desencadenante, como una elección, crea al primer plano de tensiones sociales e individuales que pueden desencadenar en violencia. En este contexto, las campañas coordinadas de desinformación en línea y el discurso de odio codificado plantean un desafío único para compañías de redes sociales. Como consecuencia de la facilidad de difusión de información y las dificultades con el control de la información falsa o maliciosa pueden hacer que la rendición de cuentas por el discurso de odio en línea y la incitación no ocurre en tiempo a prevenir intimidación y ataques violentos.
Un informe recientemente publicado por el Centro de Derechos Humanos de la American Bar Association, escrito por la Clínica de Derechos Humanos y Derecho Internacional de la Universidad de Connecticut, documenta la forma en que ciertos grupos de interés están utilizando las plataformas en línea para socavar, aislar y aumentar la vulnerabilidad de activistas, personal del sector de la justicia y periodistas. A pesar de que no es posible identificar una correlación uno a uno entre cualquier ataque que tuvo lugar en línea y uno real – el contexto de violencia en Guatemala, los discursos de odio generalizado contribuyen a un clima en el que la violencia y la impunidad es endémica. Los riesgos de una espiral que desencadene en violencia política son particularmente altos cuando hay una crisis constitucional o elecciones nacionales, y Guatemala está atravesando por ambos escenarios este año.
El discurso de odio vuela bajo el radar de la mayoría de las reglas de moderación de contenidos, ya que no es identificada como una amenaza directa, toda vez que el lenguaje de hostigamiento e incitación contra los defensores es codificado o eufemístico. El problema, sin embargo, no son las reglas débiles de control, sino los lineamientos que definen el discurso de odio y violento.
En lugar de más personal para controlar el lenguaje de odio en las plataformas digitales, las redes sociales necesitan una aplicación más inteligente de esos controles. La moderación del contenido debe tener en cuenta el impacto del discurso en los países con contextos históricos de violencia. Es por esta razón que el informe escrito por la Universidad de Connecticut recomienda tomar las siguientes medidas de control.
En primer lugar, las empresas de medios sociales deben, como medida temporal, incluir a defensores de los derechos humanos como una categoría protegida en virtud de sus políticas de contenido en los países donde los defensores se enfrentan a la persecución por parte del Estado, o no están protegidos por el gobierno de actos de venganza violenta.
En segundo lugar, las compañías de medios sociales deberían establecer procedimientos de revisión adicionales para tener más en cuenta las amenazas codificadas que contribuyen a un clima de violencia, pero que no necesariamente constituyen una amenaza personal y directa. En particular, estas empresas deben proporcionar un mayor control del contenido en países en crisis o «sensibles»; contratar personal que entienda el contexto del país que pueda descifrar el lenguaje codificado; y mejorar los procesos de marcado y reporte para facilitar la recopilación de información específica del contexto.
Las compañías también deben proporcionar un mayor escrutinio del discurso sobre la base de una revisión de los factores de riesgo conocidos a partir del contexto de violencia en el país, incluidos contextos de conflictos históricos intergrupales, cuando se van a realizar elecciones políticas de trascendencia nacional en los próximos 12 meses y un estudio sobre polarización significativa de los partidos políticos en general e información sobre conflictos interculturales.
En tercer lugar, las empresas de redes sociales deben utilizar usuarios verificados como moderadores de contenido; crear e implementar programas de capacitación en línea y de alfabetización en redes sociales; y crear procesos de apelación transparentes en los contenidos que son difíciles de identificar y eliminar. Las empresas deben archivar el contenido eliminado y permitir el acceso de los monitores de la plataforma. Un proceso de revisión transparente es la única manera de garantizar efectivamente que las políticas de moderación de contenido se aplican de una manera proporcional al riesgo real de daño.
Implementado con cuidado, estas recomendaciones podrían ayudar a asegurar que estas empresas cumplan con su promesa de proporcionar una plataforma para el debate abierto sin activar inadvertidamente incitación contra las poblaciones vulnerables y el silenciamiento de la voz de aquellos que abogan por los derechos humanos básicos de todos nosotros.