As part of the Content Moderation Survey, we have processed the first responses received through
October 24.
“He experimentado que contenido que he publicado
en una red social ha sido removido.”
“En caso de que la respuesta anterior fuera
positiva, Comprendí porqué el contenido fue removido.”
“Me fue provista una explicación de
porqué el contenido fue removido.”
“Estoy enterada y comprendo cómo funcionan los procesos de
moderación de contenido en las plataformas que utilizo.”
“Creo que los procesos y políticas de moderación
de contenidos son consistentes, claras y transparentes.”
“Los usuarios necesitan más transparencia sobre cómo ocurren
los procesos automatizados de moderación de contenidos.”
“Los usuarios necesitan mayor transparencia sobre cómo
las plataformas analizan y filtran contenido.”
“Las plataformas deberían lanzar públicamente una
base de datos anónima sobre requerimientos legales
o judiciales para remoción de contenidos.”
“Las plataformas deberían lanzar públicamente una base de datos
anónima sobre requerimientos para remoción de contenido de usuarios.”
“La transparencia y claridad en los Estándares de
Comunidad de las plataformas son esenciales para que
estos puedan ser aplicados de forma consistente.”
“La transparencia y claridad en los Estándares
de Comunidad de las plataformas son esenciales para
la rendición de cuentas de las plataformas.”
“Compartir data entre las plataformas sería beneficioso
para el sector privado al adoptar un
abordaje coordinado sobre la moderación de contenidos.”
“Todos los usuarios que generan contenido deben ser mantenidos activos
en las plataformas porque el derecho humano a la libertad de
expresión de todas las personas usuarias debe prevalecer sobre otros.”
“Todos los usuarios que generan contenido deben ser
mantenidos activos en las plataformas porque el lector tiene
derecho a creer en lo que escoja creer.”
“Es adecuado que las plataformas eliminen contenido legítimo
si este contenido puede causar daño a otros.”
“Todo el contenido ilegal
debe ser removido.”
“Todos los contenidos que sean identificados
como “Noticias Falsas” deben ser removidos.”
“Todo el contenido que sea identificado
como “Desinformación” deben ser removidos.”
“Cuando el contenido no es evidentemente ilegal, el usuario
que ha generado el contenido que está por removerse
debe ser siempre consultado antes de realizar la remoción.”
“Las plataformas deben poder ser
responsabilizadas por eliminar contenido legítimo.”
“Las plataformas deben contar con un procedimiento ágil
para restituir contenidos legítimos que fueron removidos.”
“La escala y rapidez del contenido generado por
personas usuarias hace imposible que las plataformas utilicen
solo moderación de contenidos gestionados por humanos.”
“Las personas usuarias deben tener la habilidad de
alertar sobre contenido que debe ser removido.”
“La moderación de contenidos debe ser hecha
solamente conforme a los Estándares de Comunidad.”
“La moderación de contenidos debe ser
hecha exclusivamente por seres humanos.”
“La moderación de contenidos debe ser
hecha exclusivamente con inteligencia artificial.”
“La inteligencia artificial no debe ser utilizada para
moderar contenidos hasta que las bases de datos
usadas para entrenarla sean más inclusivas y diversas.”
“La moderación de contenidos deben ser hechos
por una combinación de las siguientes (Estándares
de Comunidad, moderadores humanos e inteligencia artificial)”
“Dado que el contenido es publicado
en plataformas, las plataformas deben ser las
únicas regulando la moderación de contenidos.”
“El gobierno debe regular
la moderación de contenidos.”
“Dado que las plataformas regulan la moderación de
contenidos, los gobiernos deberían hacer responsables a las
plataformas por la violación de derechos humanos.”
“Los procesos de moderación de contenidos deben ser
conscientes del contexto y específicos a la cultura.”
“Las plataformas deben contratar moderadores de contenido
que sean hablantes nativos del lenguaje en
el que esas plataformas proveen de servicio.”