A escola e a alfabetização digital no desenvolvimento de habilidades cívicas
Español
so bruce thank you so much for joining us in the dialogue of americas
así que bienvenidos a todos al diálogo de las américas. Tengo el honor de estar
Español
so bruce thank you so much for joining us in the dialogue of americas
00:00:12,400 –> 00:00:18,080
así que bienvenidos a todos al diálogo de las américas. Tengo el honor de estar
00:00:18,080 –> 00:00:23,520
acompañado por el profesor thomas davidson um para que thomas pueda presentarse
00:00:24,880 –> 00:00:32,240
hola uh gracias por invitarme a participar mi nombre es thomas davidson actualmente soy profesor asistente
00:00:32,240 –> 00:00:38,720
de sociología en la universidad rutgers en new brunswick new jersey en los estados unidos
00:00:39,280 –> 00:00:45,920
y mi investigación se centra en cómo los partidos políticos, los movimientos sociales y otros actores
00:00:45,920 –> 00:00:52,000
están utilizando las plataformas de redes sociales, así como las tecnologías que se están desarrollando para realizar la
00:00:52,000 –> 00:01:00,080
moderación automatizada de contenido específicamente para detectar el discurso de odio en las redes sociales. plataformas de medios que de eso es
00:01:00,080 –> 00:01:06,320
perfecto, así que usted ha mencionado la moderación contenido correcto así que lo que entiende usted por la moderación de contenido
00:01:06,320 –> 00:01:12,560
y cuál es el papel de los conjuntos de datos artificiales máquina de inteligencia proceso de aprendizaje nos
00:01:12,560 –> 00:01:19,440
puedes caminar a través a través de todo eso, sí por lo que el contenido de la moderación es esta práctica que sociales las
00:01:19,440 –> 00:01:25,760
empresas de medios y otros sitios web se han desarrollado continuamente desde que han estado operando g
00:01:25,760 –> 00:01:34,080
para controlar el tipo de contenido que los usuarios están produciendo y compartiendo en estos sitios web y,
00:01:34,080 –> 00:01:39,920
por ejemplo, en el caso de Facebook y Twitter, podría determinar qué imágenes, qué tipos
00:01:39,920 –> 00:01:53,840
de enlaces, qué tipos de texto son apropiados o inapropiados en su plataforma de noticias. sitios web,
00:01:57,120 –> 00:02:04,080
por ejemplo, es posible que no quieran que las personas enumeren um productos ilegales en su sitio web y, por lo tanto,
00:02:04,080 –> 00:02:09,840
aún así lo consideraría como una forma de moderación de contenido, ¿cuál es el papel del aprendizaje automático
00:02:09,840 –> 00:02:15,520
y la inteligencia artificial en este proceso? Bueno, el desafío de hacer la moderación de contenido.
00:02:16,080 –> 00:02:22,720
en las plataformas de redes sociales y sitios web de hoy en día es que estas plataformas tienen una enorme cantidad
00:02:22,720 –> 00:02:30,720
de usuarios y, por ejemplo, Facebook tiene más de dos mil millones de usuarios, creo que ahora, lo que significa que
00:02:30,720 –> 00:02:38,480
tiene cientos de millones de elementos de contenido producidos probablemente cada hora por estos usuarios
00:02:38,480 –> 00:02:45,120
y, por lo tanto, no es algo que cualquier moderador de contenido humano pueda ver en los
00:02:45,120 –> 00:02:50,160
primeros días de Internet. Se ha dado el caso de que cada publicación podría ser revisada manualmente por
00:02:50,160 –> 00:02:54,800
un moderador de contenido humano y podría decidir si algo debe publicarse o no,
00:02:54,800 –> 00:03:02,480
pero con este enorme volumen de contenido, las plataformas de redes sociales y otros sitios web han recurrido al
00:03:02,480 –> 00:03:05,840
aprendizaje automático y inteligencia para tratar de desarrollar
00:03:05,840 –> 00:03:14,480
formas automáticas de hacer moderación de contenido perfecto muchas gracias y de hecho escribiste un artículo
00:03:14,480 –> 00:03:21,520
sobre ese derecho se llama sesgo racial en el discurso de odio y conjuntos de datos de detección de lenguaje abusivo
00:03:21,520 –> 00:03:28,640
¿puedes contarnos un poco sobre tus hallazgos? Dijo que trabaja en temas políticos
00:03:28,640 –> 00:03:34,880
, democracia y elecciones, entonces, ¿puede también relatar cómo todos esos
00:03:34,880 –> 00:03:42,800
temas están impactando en nuestro debate democrático nuestro espacio público y nuestro espacio adecuado para la discusión,
00:03:44,640 –> 00:03:48,880
así que creo que podría ser útil comenzar por decirle un poco sobre mi investigación
00:03:48,880 –> 00:03:55,360
sobre el discurso del odio en esta área y, por lo tanto, me interesé en este problema de cómo podemos detectar
00:03:55,360 –> 00:04:01,600
el discurso del odio en las redes sociales cuando era semental. Ying grupos de extrema derecha en Europa y cómo estos grupos
00:04:01,600 –> 00:04:06,480
estaban operando en plataformas como Facebook y obteniendo una gran cantidad de atención del público
00:04:07,200 –> 00:04:12,880
y uno de los desafíos de las empresas de redes sociales es determinar si tienen contenido
00:04:12,880 –> 00:04:19,120
que se considera discurso de odio, ¿cómo pueden Detectar este tipo de discurso de odio a gran escala y
00:04:19,120 –> 00:04:25,280
evitar que ocurra en la plataforma, ya sea eliminando el contenido, prohibiendo a los usuarios,
00:04:25,280 –> 00:04:29,200
haciendo que el contenido no aparezca. ¿Conoces diferentes
00:04:29,200 –> 00:04:35,120
intervenciones políticas que puedes elegir pero tú? Necesito una manera de determinar realmente qué constituye
00:04:35,120 –> 00:04:40,160
el discurso de odio en primer lugar y lo que encontré cuando comencé a trabajar en este tema hace
00:04:40,800 –> 00:04:46,080
unos cinco o seis años ahora es que mucho del trabajo que estaban haciendo los informáticos
00:04:46,080 –> 00:04:52,960
tendía a ser excesivo simplista que dirían que la presencia o ausencia de una
00:04:52,960 –> 00:04:59,280
sola palabra como cierto término odioso indica si algo es odioso o no odioso
00:05:00,080 –> 00:05:05,360
y lo que encontramos está ahí Gran parte del contenido que este tipo de algoritmos marcaba como detestable
00:05:05,360 –> 00:05:10,640
era en realidad bastante inocuo; a menudo se trataba de contenido en el que las personas podían usar
00:05:10,640 –> 00:05:15,360
una palabra que podía ser un insulto en un contexto, pero la usaban en un contexto
00:05:15,360 –> 00:05:20,720
muy diferente donde una fuente de observador razonable nunca consideraría que el contenido es odioso
00:05:21,360 –> 00:05:27,040
y, por lo tanto, en lo que trabajamos en algunos de nuestros primeros trabajos en esta área es tratar de desarrollar un algoritmo
00:05:27,040 –> 00:05:33,600
que pudiera distinguir entre un lenguaje que puede ser ofensivo y que puede contener ciertas malas palabras o
00:05:33,600 –> 00:05:42,080
calumnias. y el lenguaje que en realidad es discurso de odio, por lo que se dirige a ciertos grupos y potencialmente está
00:05:42,080 –> 00:05:48,080
dirigiendo la violencia hacia esos grupos o se basa en algún tipo de categoría protegida
00:05:48,080 –> 00:05:55,200
como estasis de discapacidad o sexualidad o raza o etnia y está usando esa categoría como algo
00:05:55,200 –> 00:06:01,280
negativo hacia ese grupo y así demostramos que esto es algo que puede hacer y que tener
00:06:01,280 –> 00:06:07,680
estos tipos de clasificaciones más matizadas puede realmente ayudar a mejorar estas t Tipos de sistemas
00:06:07,680 –> 00:06:13,280
para detectar el discurso del odio ahora lo que mostramos en el artículo posterior, el que mencionaste
00:06:14,000 –> 00:06:19,520
es que muchos de estos sistemas diferentes y, por lo tanto, en ese artículo tomamos varios conjuntos de
00:06:19,520 –> 00:06:26,240
datos diferentes que habían sido creados por investigadores como una forma de entrenar algoritmos para detectar el discurso de odio
00:06:27,200 –> 00:06:33,680
y lo que encontramos es que casi en todos los ámbitos estos algoritmos tendían a marcar el lenguaje utilizado por los
00:06:33,680 –> 00:06:40,560
usuarios de Twitter afroamericanos como potencialmente más odioso más ofensivo más abusivo que el lenguaje
00:06:40,560 –> 00:06:47,440
utilizado por los usuarios blancos de Twitter y esto se basa en la determinación de La raza del usuario se
00:06:47,440 –> 00:06:52,560
basa en otro modelo, por lo que es algo imperfecto, pero lo que pensamos es el lenguaje utilizado por los
00:06:52,560 –> 00:06:58,400
usuarios de Twitter afroamericanos y blancos, y lo que esto significa es que este tipo de sistemas
00:06:59,120 –> 00:07:04,400
potencialmente estarán sesgados contra los mismos grupos. que en realidad están diseñados para
00:07:04,400 –> 00:07:10,320
proteger el derecho, por lo que si piensa en el contexto de los Estados Unidos, es posible que deseemos tener
00:07:10,320 –> 00:07:15,200
empresas como Facebook y Twitter. Desarrollar sistemas de moderación de contenido donde puedan
00:07:15,200 –> 00:07:22,480
detectar el discurso de odio contra los afroamericanos y eliminar de manera proactiva ese contenido para reducir el daño
00:07:22,480 –> 00:07:27,840
hacia esa comunidad de este tipo de discurso de odio y estos sistemas en realidad detectaban
00:07:27,840 –> 00:07:34,160
potencialmente el lenguaje utilizado por los afroamericanos y lo clasificaban de manera desproporcionada como discurso de odio.
00:07:34,160 –> 00:07:42,080
en sí misma y, por lo tanto, las implicaciones para la democracia aquí son que es posible que haya ciertos grupos minoritarios
00:07:42,080 –> 00:07:49,200
donde su lenguaje y sus expresiones en línea en realidad están siendo controlados por este tipo de
00:07:49,200 –> 00:07:55,200
sistemas algorítmicos y, por lo tanto, vale la pena enfatizar aquí que esto no se debe necesariamente a ningún
00:07:55,840 –> 00:08:03,280
um La mala atención de las personas que crearon estos sistemas es en realidad una función de la forma en que se
00:08:03,280 –> 00:08:10,640
recopilan los datos que componen estos sistemas y, en este caso, creemos que los datos recopilados
00:08:10,640 –> 00:08:17,760
fueron una muestra excesiva de usuarios afroamericanos de Twitter, por lo que estaban exagerados. representados en los
00:08:17,760 –> 00:08:24,480
datos que iban a entrar en estos modelos de aprendizaje automático y también es potencialmente ca Usado por sesgo
00:08:24,480 –> 00:08:30,080
la etapa de anotación, por lo que cuando tiene un modelo de aprendizaje automático que detecta el discurso de odio, lo
00:08:30,080 –> 00:08:37,040
que realmente está haciendo es usar un conjunto de clasificaciones humanas donde mostramos varios miles de
00:08:37,040 –> 00:08:41,680
ejemplos en los que los humanos han determinado si algo debe considerarse o no como discurso de odio. y
00:08:41,680 –> 00:08:47,520
luego la máquina está aprendiendo efectivamente de estos ejemplos humanos para luego aplicarlos a otros
00:08:47,520 –> 00:08:52,400
ejemplos, por lo que es posible que existan prejuicios humanos de que las personas que hicieron estos
00:08:52,400 –> 00:08:57,840
ejemplos tal vez tendieron a considerar que parte del lenguaje utilizado por los afroamericanos es más odioso
00:08:57,840 –> 00:09:04,080
que luego se internaliza en el modelo mismo y luego potencialmente amplifica y
00:09:04,080 –> 00:09:11,520
reifica estos prejuicios humanos y, por lo tanto, el peligro real es que tenemos sistemas de moderación de contenido que tienen un
00:09:11,520 –> 00:09:17,600
tipo de prejuicios sociales inherentemente existentes y luego los reproducen potencialmente como una escala muy grande
00:09:18,880 –> 00:09:26,080
que es extremadamente interesante, así que hay mucha discusión sobre la igualdad
00:09:26,080 –> 00:09:32,080
y la representación en el sistema de datos. ts, pero esto en realidad va más allá de eso, no es que
00:09:32,080 –> 00:09:38,720
quizás el conjunto de datos en sí sea el problema, sino también quién organizó esa información
00:09:38,720 –> 00:09:46,480
o etiquetó esa información correctamente y, um, no sé si tiene alguna idea sobre eso
00:09:46,480 –> 00:09:52,960
y y Creo que eso también nos lleva a la discusión sobre el derecho de representatividad de la fuerza laboral
00:09:52,960 –> 00:09:59,200
y todos estos temas, por lo que uno de los ejemplos que vimos en nuestro artículo
00:09:59,200 –> 00:10:06,400
fue en realidad un conjunto de datos donde las personas que estaban haciendo la anotación eran feministas autodeclaradas
00:10:06,400 –> 00:10:11,840
y estaban determinando si ciertos tweets eran sexistas o no sexistas y aún así encontramos este
00:10:11,840 –> 00:10:18,720
sesgo en este conjunto de datos, por lo que es algo que aún necesita más investigación, pero no está necesariamente claro
00:10:18,720 –> 00:10:23,280
que incluso si tenemos las personas adecuadas, potencialmente, estos sesgos desaparecen,
00:10:24,400 –> 00:10:30,720
hay alguna evidencia experimental eso muestra que hacer que las personas sean conscientes de este tipo de problemas
00:10:30,720 –> 00:10:36,960
antes de ellos durante la anotación podría reducir el sesgo posterior, por lo que si les dice a las personas que realizan la
00:10:36,960 –> 00:10:42,000
anotación, debe Debería ser muy sensible a la forma en que las personas usan el lenguaje y
00:10:42,000 –> 00:10:46,000
es posible que las personas de diferentes grupos usen el lenguaje de una manera diferente si
00:10:46,000 –> 00:10:52,000
les deja eso claro, entonces en realidad puede reducir el tipo de sesgo que estos modelos aprenden
00:10:52,000 –> 00:10:56,400
y, por lo tanto, hay algunas intervenciones que pueden ayudar aquí, pero todavía estamos en una
00:10:56,400 –> 00:11:03,840
etapa muy temprana de comprensión de esto, al menos en la investigación académica ahora en términos de la fuerza laboral.Creo
00:11:03,840 –> 00:11:09,520
que, como ustedes conocen a los miembros del público, simplemente no sabemos cuál es la composición de la fuerza laboral
00:11:09,520 –> 00:11:16,480
es que estas grandes plataformas de redes sociales están utilizando para construir este tipo de conjuntos de datos que
00:11:16,480 –> 00:11:21,840
utilizan para entrenar sus modelos internos, por lo que una empresa como Twitter tendrá conjuntos de
00:11:21,840 –> 00:11:28,240
modelos de aprendizaje automático y estos se basarán en datos que el propio Twitter está anotando. ya sea de
00:11:28,240 –> 00:11:34,480
forma proactiva las personas que informar a twitter o sus propios experimentos internos y simplemente no saber
00:11:34,480 –> 00:11:39,840
quién está haciendo este trabajo y que los seres humanos que son que están ayudando a formar a estas máquinas
00:11:39,840 –> 00:11:46,800
um Ciertamente, ha habido algunas críticas a los laboratorios de um ai y este tipo de investigación en la que, de manera
00:11:46,800 –> 00:11:53,200
desproporcionada, los hombres y los hombres blancos y asiáticos, al menos en los Estados Unidos, trabajan en
00:11:53,200 –> 00:11:58,240
este tipo de sistemas, por lo que hay evidencia de que cosas como la tecnología de reconocimiento facial
00:11:58,800 –> 00:12:04,640
es menos precisa. Al detectar los rostros de las personas con piel más oscura y, en particular,
00:12:04,640 –> 00:12:10,560
los rostros de las mujeres negras, en parte, muchos han argumentado porque las mujeres negras simplemente no están representadas en
00:12:10,560 –> 00:12:16,240
los equipos que están construyendo esta tecnología y, por lo tanto, no necesariamente piensan en
00:12:16,240 –> 00:12:22,080
incluir a personas con una variedad de diferentes tonos de piel o apariencias en los datos de entrenamiento
00:12:22,080 –> 00:12:27,360
que están usando para entrenar este tipo de modelos, por lo que ciertamente hay un problema de representación,
00:12:27,920 –> 00:12:34,640
pero desafortunadamente desde el exterior, realmente no sabemos cómo se desarrolla esto dentro de los sitios web
00:12:34,640 –> 00:12:43,680
y las redes sociales las empresas exactamente muchas gracias um y um cómo um ha observado
00:12:43,680 –> 00:12:49,520
estos problemas uh con respecto a otras poblaciones vulnerables uh a través de su trabajo
00:12:51,680 –> 00:13:00,080
y eah, entonces uno de los temas sobre los que llamamos la atención en nuestro trabajo es este problema de falsos positivos
00:13:00,080 –> 00:13:04,640
donde alguien puede decir algo que realmente no deberíamos considerar como un discurso de odio
00:13:04,640 –> 00:13:10,000
y, sin embargo, la máquina detecta esto y lo considera un discurso de odio, así que otro ejemplo. aquí serían
00:13:10,000 –> 00:13:16,080
minorías sexuales que hay personas de la comunidad lgbt que usan ciertos términos en
00:13:16,080 –> 00:13:23,120
su idioma en línea para que puedan usar una palabra como queer y para ellos queer es una identidad
00:13:25,360 –> 00:13:33,840
de empoderamiento y el problema es
00:13:39,360 –> 00:13:47,600
como un término hiriente y, por lo tanto, lo que termina pasando un problema con mi internet que ha dicho
00:13:47,600 –> 00:13:55,760
que se detuvo en el unqueer puede uh mover, sí lo siento así por ejemplo los miembros de los grupos LGBT van a
00:13:55,760 –> 00:14:01,440
utilizar la palabra extraña en discusiones en línea y para ellos es que sabes considera que es un término
00:14:01,440 –> 00:14:06,320
identidad es potencialmente una término de empoderamiento y no tiene esta connotación negativa,
00:14:07,040 –> 00:14:12,400
pero si tiene un modelo que está entrenado en un lenguaje tomado de, por ejemplo, twitter
00:14:12,400 –> 00:14:17,600
, es posible que algunos usuarios de twitter usen la palabra quee r en un contexto negativo y lo usan
00:14:17,600 –> 00:14:23,840
como un insulto y como un insulto, por lo que lo que terminará sucediendo es que el lenguaje usado por los
00:14:23,840 –> 00:14:29,200
miembros de esta comunidad para describirse potencialmente a sí mismos sea marcado como discurso de odio
00:14:29,200 –> 00:14:34,880
debido a esta asociación que estos modelos he aprendido y, por lo tanto, en mi trabajo me enfoco principalmente en
00:14:35,760 –> 00:14:40,720
cómo esto afecta a las comunidades afroamericanas en los Estados Unidos, pero ciertamente hay evidencia de
00:14:40,720 –> 00:14:46,720
que esto ocurre de una manera de género que ocurre en el contexto de minorías sexuales
00:14:46,720 –> 00:14:53,200
y potencialmente otros grupos raciales y étnicos um Pero la investigación académica sobre este tema aún
00:14:53,200 –> 00:14:59,840
se encuentra en una etapa muy temprana.Creo que lo importante a considerar aquí es cuando se piensa en las
00:14:59,840 –> 00:15:05,680
grandes plataformas de redes sociales que están operando en todo el mundo en muchos contextos diferentes
00:15:06,480 –> 00:15:12,640
y, por lo tanto, en los tipos de modelos que que estamos usando para la moderación de contenido automatizada tienen que escalar a
00:15:12,640 –> 00:15:18,880
muchos idiomas diferentes y muchos contextos, por lo que es probable que si elegimos diferentes países y analizamos
00:15:18,880 –> 00:15:23,200
di Diferentes idiomas y observamos diferentes dialectos dentro de estos países, que
00:15:23,200 –> 00:15:28,800
podemos ver los mismos tipos de problemas que ocurren, que estos modelos pueden estar sesgados sistemáticamente
00:15:28,800 –> 00:15:33,280
a favor de ciertos grupos étnicos, ciertos idiomas o dialectos,
00:15:33,280 –> 00:15:39,040
por lo que se necesita hacer mucha más investigación para entiendo esto a escala global,
00:15:39,040 –> 00:15:45,120
creo que el ejemplo más famoso de esto es el caso de myanmar y cómo se utilizó facebook en myanmar
00:15:45,120 –> 00:15:51,520
para incitar al genocidio contra la minoría musulmana rohingya y uno de los argumentos que facebook
00:15:51,520 –> 00:15:56,000
trató de hacer para absolverlos de La responsabilidad aquí fue bueno, no teníamos
00:15:56,560 –> 00:16:02,640
um personas que hablaran el idioma trabajando en Facebook y, por lo tanto, simplemente no tenían suficientes
00:16:02,640 –> 00:16:10,160
personas que hablaran birmano y mucho menos otros dialectos locales e idiomas regionales para hacer la
00:16:10,160 –> 00:16:15,840
moderación de contenido humano que es necesaria como un primer paso para escalarlo de forma automatizada,
00:16:17,360 –> 00:16:22,960
por lo que espero que estos problemas estén ocurriendo en muchos contextos diferentes y simplemente Simplemente
00:16:22,960 –> 00:16:29,680
no sé sobre ellos en esta etapa exactamente, sí, creo que hubo muchos ejemplos de salir
00:16:29,680 –> 00:16:35,680
de Brasil y de la fotografía y los problemas de la desnudez y cosas así, así que eso, uh
00:16:36,240 –> 00:16:43,120
um, estaba nuevamente fuera del contexto brasileño que tenía un un significado completamente diferente correcto y
00:16:43,120 –> 00:16:48,720
correcto eh imagina los estadounidenses bien tenemos tantos idiomas y culturas diferentes dentro de los
00:16:48,720 –> 00:16:58,480
países um así que creo que una última pregunta aquí es eh ¿cómo ves todo lo que afectan
00:16:58,480 –> 00:17:06,880
los derechos humanos o derechos civiles son estas comunidades? terminan siendo menos representados
00:17:06,880 –> 00:17:15,360
uh en Internet porque son discursos que están siendo uh moderados, sí, así que creo que el peligro aquí
00:17:15,360 –> 00:17:24,160
es que tenemos grupos que ya están reprimidos en la sociedad que luego estos sistemas tecnológicos
00:17:24,160 –> 00:17:28,560
terminan potencialmente exacerbando y perpetuando la represión de estos grupos
00:17:29,120 –> 00:17:35,040
ahora creo que para los grupos oprimidos las redes sociales pueden ser extremadamente poderosas, pueden ser una
00:17:35,040 –> 00:17:41,440
forma en que las personas pueden difundir información y correr la voz y llegar, por ejemplo, a organizaciones de noticias
00:17:42,000 –> 00:17:48,640
o conectarse con redes de activistas transnacionales y estas tecnologías tienen la capacidad de ser
00:17:48,640 –> 00:17:54,000
muy, muy empoderadoras, ¿verdad? Estamos viendo ahora mismo en Cuba que los activistas cubanos que solo tienen
00:17:54,000 –> 00:17:58,320
Internet se han abierto mucho más en los últimos años. en Cuba y en realidad pueden
00:17:58,320 –> 00:18:04,160
enviar videos a personas en los Estados Unidos y en otros países y mostrar directamente la
00:18:04,160 –> 00:18:10,720
represión que está ocurriendo en el terreno en el país, por lo que creo que hay un gran potencial para el
00:18:10,720 –> 00:18:19,040
empoderamiento, el peligro es que estas mismas plataformas están reprimiendo ciertos tipos de discurso
00:18:19,040 –> 00:18:24,960
o ciertos tipos de contenido y, por lo tanto, para llevar este ejemplo cubano más allá, ¿qué sucede si el
00:18:24,960 –> 00:18:31,280
gobierno cubano le dice a Facebook que queremos que elimine este contenido o que no muestre ciertos
00:18:31,280 –> 00:18:37,760
términos, ciertas palabras en las redes sociales? Sé que es realmente la relación entre estas
00:18:37,760 –> 00:18:45,200
plataformas y los gobiernos estatales lo que creo que va a dictar cómo son estas políticas de moderación de contenido.
00:18:45,200 –> 00:18:49,920
Afecta los derechos humanos de las personas de una manera directa Sé que Cuba probablemente no sea
00:18:49,920 –> 00:18:55,360
un buen ejemplo aquí porque creo que Facebook no opera oficialmente dentro de Cuba y no tiene
00:18:55,360 –> 00:19:01,840
nada. Creo que en realidad está bloqueado desde Cuba, no puedes. acceda a él a menos que use una vpn um, pero
00:19:01,840 –> 00:19:10,240
el peligro es que otros países y estados presionarán a las plataformas para que incorporen
00:19:11,200 –> 00:19:18,400
su punto de vista de que usted sabe cuál es la conducta y el discurso aceptables en cómo estas plataformas hacen la moderación de
00:19:18,400 –> 00:19:23,920
contenido y, en algunos casos, pienso Podemos pensar en ejemplos aceptables, por lo que en Alemania, por
00:19:23,920 –> 00:19:30,960
ejemplo, tienen leyes muy estrictas sobre ciertos tipos de discurso de odio y, por ejemplo, el contenido nazi
00:19:30,960 –> 00:19:36,800
y cualquier contenido que glorifique al partido nazi está completamente prohibido en Alemania,
00:19:38,160 –> 00:19:42,560
Brasil y varios países de América Latina, por lo que hay presión
00:19:42,560 –> 00:19:47,920
sobre estas plataformas de redes sociales para que se adhieran a las leyes locales del país,
00:19:47,920 –> 00:19:52,960
el peligro es lo que sucede si sabes que consideramos que un país es un régimen opresivo
00:19:53,600 –> 00:20:00,720
y sabemos que en estas plataformas de redes sociales se vuelven um un poco implicadas en la represión
00:20:01,520 –> 00:20:11,440
um sí, lo estoy y um algún pensamiento final o cualquier esperanza para este diálogo o has visto alguna
00:20:11,440 –> 00:20:17,680
buena noticia o buenas prácticas en las que podríamos profundizar más?
00:20:18,240 –> 00:20:25,520
Soy optimista en el sentido de que creo que estos sistemas están adivinando mucho mejor y hay mucha
00:20:25,520 –> 00:20:31,280
presión sobre las plataformas para que sean sensibles a los tipos de problemas que han surgido en mi investigación
00:20:31,280 –> 00:20:36,560
y, por ejemplo, Twitter ahora está haciendo algunos análisis internos. evaluaciones de sus sistemas
00:20:36,560 –> 00:20:43,920
para detectar sesgos en parte en respuesta a los usuarios de la plataforma que se quejan de problemas de
00:20:43,920 –> 00:20:49,680
sesgos, por ejemplo, tenían un algoritmo que recortaba automáticamente las imágenes en las noticias de Twitter
00:20:49,680 –> 00:20:55,280
y tendía a recortar a las personas con piel más oscura en una tasa más alta de personas con piel más clara
00:20:55,280 –> 00:21:02,080
y, por lo tanto, hicieron un pedido interno, por lo que es bueno ver que hay más atención a estos problemas
00:21:02,080 –> 00:21:07,200
y también que la tecnología está avanzando de una manera que permite que estos sistemas ems quizás se
00:21:07,200 –> 00:21:15,360
mejore, pero creo que lo más importante es que todavía necesitamos algunos humanos en el ciclo para evaluar
00:21:15,360 –> 00:21:21,360
y asegurarnos de que estos sistemas funcionan como deberían y realmente necesitamos transparencia, por lo que
00:21:21,360 –> 00:21:28,800
como investigador es muy difícil para mí conseguir muy buenos datos sobre este tipo de problemas para poder
00:21:28,800 –> 00:21:34,080
medir la prevalencia en el mundo, por lo que gran parte de mi trabajo en la detección del discurso del odio
00:21:34,080 –> 00:21:41,040
ha sido una especie de replicación de este tipo de sistemas en el laboratorio de una manera que se puede
00:21:41,040 –> 00:21:47,600
aproximar cómo está funcionando en las principales plataformas o sitios web, pero realmente no sabemos
00:21:47,600 –> 00:21:53,680
exactamente qué está pasando dentro y creo que lo más importante en este momento desde
00:21:53,680 –> 00:22:00,400
mi perspectiva como investigador es abogar por la transparencia creativa directa, un mayor intercambio de datos
00:22:00,400 –> 00:22:04,880
y para estos que las empresas se abran realmente sobre cómo están haciendo la moderación de contenido
00:22:04,880 –> 00:22:10,320
y realmente muestren a sus usuarios por qué ciertos elementos de contenido se consideran aceptables
00:22:10,320 –> 00:22:16,560
o inaceptables increíble muchas gracias Thomas, esto fue increíblemente
00:22:16,560 –> 00:22:23,760
revelador y muchas gracias por toda su investigación. Esperamos
00:22:23,760 –> 00:22:35,360
que salga más de su investigación. Es tan relevante no solo para nosotros y eso es todo.
Portugués
El barco avanzaba con paso firme a través de pequeñas olas que lo abofeteaban y, luego, se desvanecían como agua efervescente, dejando un pequeño borde de burbujas y espuma a ambos lados. El cielo incoloro de octubre estaba ligeramente nublado, como si se tratara de un rastro de humo de una hoguera, y el aire era maravillosamente salado y enérgico. De hecho, hacía demasiado frío para quedarse quieto. La Sra. Ambrose se abrazó a su marido y, mientras se alejaban, se podía ver, por la forma en que su mejilla inclinada se acercaba a la de él, que tenía algo privado que comunicarle.
00:00:12 – 00:00:15
so bruce thank you so much for joining us in the dialogue of americas