Nota conceptual

1. Contexto

Conforme a sus mandatos y en atención a los debates existentes sobre el impacto de las tecnologías digitales en el ejercicio de los derechos humanos, la Comisión Interamericana de Derechos Humanos (CIDH) y su Relatoría Especial para la Libertad de Expresión (RELE) se han enfocado particularmente en promover las garantías a la libertad de expresión en los espacios digitales, monitorear posibles limitaciones y alertar sobre los posibles vínculos entre el uso de discursos estigmatizantes en línea y acciones violentas contra ciertos grupos.

Los principales desafíos identificados se relacionan con el deterioro del debate público, evidenciado en el aumento de la violencia digital y física contra ciertas personas y grupos de personas que ejercen su derecho a la libertad de expresión, la desinformación deliberada y la falta de adecuación de las políticas de las compañías privadas conforme a los principios democráticos y de derechos humanos.

Entendiendo que internet es un instrumento indispensable para el ejercicio pleno de los derechos humanos, entre ellos la libertad de expresión, libertad de asociación y otros de carácter económico, cultural y político, se requieren acciones positivas para facilitar las condiciones de acceso, uso y aprovechamiento. Ello incluye un enfoque transversal que atienda las carencias y vulnerabilidades particulares de grupos históricamente discriminados, así como de la constante innovación tecnológica y los alcances de la misma.

En este sentido, la CIDH ha encomendado a la RELE adelantar un diálogo interamericano multisectorial relacionado principalmente con tres ejes temáticos:

  • Deterioro del debate público
  • Alfabetización digital para el desarrollo de habilidades cívicas
  • Compatibilización de las políticas de moderación de contenidos respecto a estándares de derechos humanos.

Durante las distintas fases del diálogo, la RELE abordará cada uno de los ejes temáticos a partir de dos enfoques del ejercicio del derecho de libertad de expresión por usuarios de internet: el primero, desde aquellos usuarios que acceden a información y el segundo, desde aquellos quienes producen contenido; ambos enfoques requieren un abordaje particular de cada uno de los ejes temáticos desde sus necesidades.

Esta nota resume lo que se entiende por moderación de contenidos en internet. Ella también apunta – no exhaustivamente – temáticas y sub-temáticas para facilitar esta discusión.

2. Definición

La moderación de contenidos es la práctica organizada de filtrar el contenido generado y visto por las y los usuarios y publicado en sitios de Internet, redes sociales y otros medios en línea. Hay varias formas diferentes de moderación de contenido; pre-moderación, post-moderación, moderación reactiva, moderación distribuida y moderación automatizada. El proceso puede ser hecho, por ejemplo, por medio de la acción directa de una persona (el moderador que actúa como agente de la plataforma) o por procesos automatizados basados en inteligencia artificial junto con el procesamiento de largas cantidades de datos de estos usuarios. Los procesos de moderación de contenido modernos tienen varias fuentes – desde proceso de palabras clave o imágenes hasta la iniciativa de otros usuarios que utilizan mecanismos de alerta para pedir que un contenido sea moderado. La moderación de contenido no siempre resulta en la eliminación del contenido. Puede también resultar en como un contenido es priorizado o, por ejemplo, si hasta aparece en los resultados de búsqueda. De esta forma, la moderación de contenido no solo afecta lo que a un usuario se le permite publicar (usuario como “creador”), sino también lo que a uno se le permite ver, consumir, comprar y creer (usuario como “destinatario”).

Por eso mismo, para fines del Diálogo de las Américas, moderación de contenido comprende todas aquellas regulaciones, decisiones o procesos que adopta en forma interna una plataforma de internet para controlar el tipo, alcance y forma en que fluye el contenido creado por terceros (“Declaración conjunta sobre Libertad de Expresión y “Noticias Falsas”, Desinformación y Propaganda”, Relatoría Especial para la Libertad de Expresión, 2017). La Moderación de contenidos también se refiere a toda injerencia que tenga el potencial de privilegiar o silenciar parte del debate democrático, incluso, por ejemplo, a través de los fenómenos de clusterización (“filter bubbles”), entre otros.

Categorías y subcategorías

Para analizar los principales elementos que influyen en la moderación de contenidos en internet se propone hacer un desglose partiendo desde los dos enfoques principales de usuarios de internet: quienes acceden y son destinatarios de información (“destinatarios”) y quienes crean contenido (“creadores”). Esta distinción se hace a sabiendas y atentos a que por la naturaleza misma de internet las personas alternan entre roles de creadores y destinatarios en sus múltiples y distintos usos de la tecnología. 

Dentro de cada enfoque, se encuentran categorías de acciones que delimitan e influyen en la moderación de contenidos, las cuales pueden comprender no exhaustivamente:

  • Filtrar / promover = acciones sobre contenidos en general y sobre discursos no protegidos (por ejemplo, discursos de odio) en específico, las medidas y políticas vinculadas con su manejo en plataformas y la acción de los Estados para limitar la difusión de contenidos.
  • Obstaculizar = acciones que impiden el acceso a información o dificultan que este sea difundido en línea.

Estas categorías (tipos generales de acciones) y subcategorías (contenidos impactados) no son exhaustivas y más podrá ser sumado durante el Diálogo de las Américas.

Categorías
Subcategorías
FILTRAR / PROMOVER
Desinformación deliberada
Discurso de odio
Propaganda de guerra
Incitación a acciones ilegales
OBSTACULIZAR
Bloqueo de páginas web
Ralentización y bloqueos de internet

4. Desafíos

Cada uno de los tres ejes temáticos del Diálogo de las Américas presenta desafíos en particular para su abordaje. Esto no significa que son las únicas problemáticas vinculadas, sino que son temas que deben analizarse para la construcción de propuestas de acción integrales y sostenibles en el tiempo. Esta división es artificial y podrá cambiar durante el Diálogo de las Américas, pero su intento es cubrir los desafíos ya documentados por la CIDH/RELE.

Con relación a la moderación de contenidos en internet estos desafíos se dividen en tres grandes categorías: políticos/legales, técnicos y sociales.

  • Desafíos de naturaleza política/legal comprende los retos relacionados a las acciones del Estado, sector privado y organizaciones en posición de poder para influir sobre reformas legislativas y políticas públicas que regulan la circulación de contenido en internet, políticas de moderación de contenido; así como para la adopción de medidas proporcionales y necesarias cuando se esté ante discursos que atentan contra los espacios seguros para la libertad de expresión; incluye también voluntad política para el respeto y no criminalización de la libertad de expresión y el establecimiento de alianzas para la ejecución de decisiones políticas.
  • Desafíos de naturaleza técnica incluye las prácticas y procesos que sostienen estas prácticas de moderación de contenidos, así como aquellas que garantizan la estabilidad de las conexiones e integridad de los espacios para la difusión de contenidos. Sobre estos desafíos tienen influencia tanto los Estados, instituciones públicas o privadas que toman decisiones sobre políticas y herramientas internas para el análisis de contenidos, medidas restitutivas para contenido retirado indebidamente y garantías para la estabilidad de las conexiones en momentos clave de difusión de contenidos.
  • Desafíos de naturaleza social. Por un lado, se ha puesto de manifiesto que internet es una plataforma imprescindible para la deliberación pública. Por otro lado, hay temores de que su uso con ciertos fines acelere la violencia, o a que se tomen decisiones sobre internet que resten voz a quienes quieren expresarse. Esto lleva a una generalizada percepción de excesos y censuras de discursos que aumenta los niveles de ansiedad por asegurar que la voz propia sea la única relevante. Sobre los ejemplos de este tipo de desafíos se profundizará durante el diálogo.

Retos de carácter económico y cultural también son reconocidos y afectan de forma transversal a las tres categorías previamente identificadas.

Naturaleza
Ejemplos de desafíos
Político
La discrecionalidad y grado de transparencia para la determinación de contenido que puede ser filtrado o obstaculizado, y por ende no protegido, y si las acciones de filtro o obstaculización son necesarias, proporcionales y conforme a estándares de derechos humanos.
La presión que pueden ejercer desde los Estados hacia las plataformas de redes sociales o intermediarios para que estos actores se adecuen a los criterios de moderación de contenidos propuestos por los Estados.
Técnico
La adopción de medidas positivas para que poblaciones en situación de vulnerabilidad puedan difundir contenido, sin ser criminalizados, y contar con las facilidades técnicas para hacerlo.
El grado de eficiencia y análisis de contextos para la mejor determinación – reducción de errores – dentro de la moderación de contenidos conforme a derechos humanos.
La calidad de las bases de datos que informan algoritmos y la “calidad” de los algoritmos empleados.