Beatriz Cardoso

A escola e a alfabetização digital no desenvolvimento de habilidades cívicas

Español

00:00:12 – 00:00:15

so bruce thank you so much for joining us in the dialogue of americas


00:00:12

así que bienvenidos a todos al diálogo de las américas. Tengo el honor de estar

Español

00:00:12 – 00:00:15

so bruce thank you so much for joining us in the dialogue of americas


00:00:12,400 –> 00:00:18,080

así que bienvenidos a todos al diálogo de las américas. Tengo el honor de estar

00:00:18,080 –> 00:00:23,520

acompañado por el profesor thomas davidson um para que thomas pueda presentarse

00:00:24,880 –> 00:00:32,240

hola uh gracias por invitarme a participar mi nombre es thomas davidson actualmente soy profesor asistente

00:00:32,240 –> 00:00:38,720

de sociología en la universidad rutgers en new brunswick new jersey en los estados unidos

00:00:39,280 –> 00:00:45,920

y mi investigación se centra en cómo los partidos políticos, los movimientos sociales y otros actores

00:00:45,920 –> 00:00:52,000

están utilizando las plataformas de redes sociales, así como las tecnologías que se están desarrollando para realizar la

00:00:52,000 –> 00:01:00,080

moderación automatizada de contenido específicamente para detectar el discurso de odio en las redes sociales. plataformas de medios que de eso es

00:01:00,080 –> 00:01:06,320

perfecto, así que usted ha mencionado la moderación contenido correcto así que lo que entiende usted por la moderación de contenido

00:01:06,320 –> 00:01:12,560

y cuál es el papel de los conjuntos de datos artificiales máquina de inteligencia proceso de aprendizaje nos

00:01:12,560 –> 00:01:19,440

puedes caminar a través a través de todo eso, sí por lo que el contenido de la moderación es esta práctica que sociales las

00:01:19,440 –> 00:01:25,760

empresas de medios y otros sitios web se han desarrollado continuamente desde que han estado operando g

00:01:25,760 –> 00:01:34,080

para controlar el tipo de contenido que los usuarios están produciendo y compartiendo en estos sitios web y,

00:01:34,080 –> 00:01:39,920

por ejemplo, en el caso de Facebook y Twitter, podría determinar qué imágenes, qué tipos

00:01:39,920 –> 00:01:53,840

de enlaces, qué tipos de texto son apropiados o inapropiados en su plataforma de noticias. sitios web,

00:01:57,120 –> 00:02:04,080

por ejemplo, es posible que no quieran que las personas enumeren um productos ilegales en su sitio web y, por lo tanto,

00:02:04,080 –> 00:02:09,840

aún así lo consideraría como una forma de moderación de contenido, ¿cuál es el papel del aprendizaje automático

00:02:09,840 –> 00:02:15,520

y la inteligencia artificial en este proceso? Bueno, el desafío de hacer la moderación de contenido.

00:02:16,080 –> 00:02:22,720

en las plataformas de redes sociales y sitios web de hoy en día es que estas plataformas tienen una enorme cantidad

00:02:22,720 –> 00:02:30,720

de usuarios y, por ejemplo, Facebook tiene más de dos mil millones de usuarios, creo que ahora, lo que significa que

00:02:30,720 –> 00:02:38,480

tiene cientos de millones de elementos de contenido producidos probablemente cada hora por estos usuarios

00:02:38,480 –> 00:02:45,120

y, por lo tanto, no es algo que cualquier moderador de contenido humano pueda ver en los

00:02:45,120 –> 00:02:50,160

primeros días de Internet. Se ha dado el caso de que cada publicación podría ser revisada manualmente por

00:02:50,160 –> 00:02:54,800

un moderador de contenido humano y podría decidir si algo debe publicarse o no,

00:02:54,800 –> 00:03:02,480

pero con este enorme volumen de contenido, las plataformas de redes sociales y otros sitios web han recurrido al

00:03:02,480 –> 00:03:05,840

aprendizaje automático y inteligencia para tratar de desarrollar

00:03:05,840 –> 00:03:14,480

formas automáticas de hacer moderación de contenido perfecto muchas gracias y de hecho escribiste un artículo

00:03:14,480 –> 00:03:21,520

sobre ese derecho se llama sesgo racial en el discurso de odio y conjuntos de datos de detección de lenguaje abusivo

00:03:21,520 –> 00:03:28,640

¿puedes contarnos un poco sobre tus hallazgos? Dijo que trabaja en temas políticos

00:03:28,640 –> 00:03:34,880

, democracia y elecciones, entonces, ¿puede también relatar cómo todos esos

00:03:34,880 –> 00:03:42,800

temas están impactando en nuestro debate democrático nuestro espacio público y nuestro espacio adecuado para la discusión,

00:03:44,640 –> 00:03:48,880

así que creo que podría ser útil comenzar por decirle un poco sobre mi investigación

00:03:48,880 –> 00:03:55,360

sobre el discurso del odio en esta área y, por lo tanto, me interesé en este problema de cómo podemos detectar

00:03:55,360 –> 00:04:01,600

el discurso del odio en las redes sociales cuando era semental. Ying grupos de extrema derecha en Europa y cómo estos grupos

00:04:01,600 –> 00:04:06,480

estaban operando en plataformas como Facebook y obteniendo una gran cantidad de atención del público

00:04:07,200 –> 00:04:12,880

y uno de los desafíos de las empresas de redes sociales es determinar si tienen contenido

00:04:12,880 –> 00:04:19,120

que se considera discurso de odio, ¿cómo pueden Detectar este tipo de discurso de odio a gran escala y

00:04:19,120 –> 00:04:25,280

evitar que ocurra en la plataforma, ya sea eliminando el contenido, prohibiendo a los usuarios,

00:04:25,280 –> 00:04:29,200

haciendo que el contenido no aparezca. ¿Conoces diferentes

00:04:29,200 –> 00:04:35,120

intervenciones políticas que puedes elegir pero tú? Necesito una manera de determinar realmente qué constituye

00:04:35,120 –> 00:04:40,160

el discurso de odio en primer lugar y lo que encontré cuando comencé a trabajar en este tema hace

00:04:40,800 –> 00:04:46,080

unos cinco o seis años ahora es que mucho del trabajo que estaban haciendo los informáticos

00:04:46,080 –> 00:04:52,960

tendía a ser excesivo simplista que dirían que la presencia o ausencia de una

00:04:52,960 –> 00:04:59,280

sola palabra como cierto término odioso indica si algo es odioso o no odioso

00:05:00,080 –> 00:05:05,360

y lo que encontramos está ahí Gran parte del contenido que este tipo de algoritmos marcaba como detestable

00:05:05,360 –> 00:05:10,640

era en realidad bastante inocuo; a menudo se trataba de contenido en el que las personas podían usar

00:05:10,640 –> 00:05:15,360

una palabra que podía ser un insulto en un contexto, pero la usaban en un contexto

00:05:15,360 –> 00:05:20,720

muy diferente donde una fuente de observador razonable nunca consideraría que el contenido es odioso

00:05:21,360 –> 00:05:27,040

y, por lo tanto, en lo que trabajamos en algunos de nuestros primeros trabajos en esta área es tratar de desarrollar un algoritmo

00:05:27,040 –> 00:05:33,600

que pudiera distinguir entre un lenguaje que puede ser ofensivo y que puede contener ciertas malas palabras o

00:05:33,600 –> 00:05:42,080

calumnias. y el lenguaje que en realidad es discurso de odio, por lo que se dirige a ciertos grupos y potencialmente está

00:05:42,080 –> 00:05:48,080

dirigiendo la violencia hacia esos grupos o se basa en algún tipo de categoría protegida

00:05:48,080 –> 00:05:55,200

como estasis de discapacidad o sexualidad o raza o etnia y está usando esa categoría como algo

00:05:55,200 –> 00:06:01,280

negativo hacia ese grupo y así demostramos que esto es algo que puede hacer y que tener

00:06:01,280 –> 00:06:07,680

estos tipos de clasificaciones más matizadas puede realmente ayudar a mejorar estas t Tipos de sistemas

00:06:07,680 –> 00:06:13,280

para detectar el discurso del odio ahora lo que mostramos en el artículo posterior, el que mencionaste

00:06:14,000 –> 00:06:19,520

es que muchos de estos sistemas diferentes y, por lo tanto, en ese artículo tomamos varios conjuntos de

00:06:19,520 –> 00:06:26,240

datos diferentes que habían sido creados por investigadores como una forma de entrenar algoritmos para detectar el discurso de odio

00:06:27,200 –> 00:06:33,680

y lo que encontramos es que casi en todos los ámbitos estos algoritmos tendían a marcar el lenguaje utilizado por los

00:06:33,680 –> 00:06:40,560

usuarios de Twitter afroamericanos como potencialmente más odioso más ofensivo más abusivo que el lenguaje

00:06:40,560 –> 00:06:47,440

utilizado por los usuarios blancos de Twitter y esto se basa en la determinación de La raza del usuario se

00:06:47,440 –> 00:06:52,560

basa en otro modelo, por lo que es algo imperfecto, pero lo que pensamos es el lenguaje utilizado por los

00:06:52,560 –> 00:06:58,400

usuarios de Twitter afroamericanos y blancos, y lo que esto significa es que este tipo de sistemas

00:06:59,120 –> 00:07:04,400

potencialmente estarán sesgados contra los mismos grupos. que en realidad están diseñados para

00:07:04,400 –> 00:07:10,320

proteger el derecho, por lo que si piensa en el contexto de los Estados Unidos, es posible que deseemos tener

00:07:10,320 –> 00:07:15,200

empresas como Facebook y Twitter. Desarrollar sistemas de moderación de contenido donde puedan

00:07:15,200 –> 00:07:22,480

detectar el discurso de odio contra los afroamericanos y eliminar de manera proactiva ese contenido para reducir el daño

00:07:22,480 –> 00:07:27,840

hacia esa comunidad de este tipo de discurso de odio y estos sistemas en realidad detectaban

00:07:27,840 –> 00:07:34,160

potencialmente el lenguaje utilizado por los afroamericanos y lo clasificaban de manera desproporcionada como discurso de odio.

00:07:34,160 –> 00:07:42,080

en sí misma y, por lo tanto, las implicaciones para la democracia aquí son que es posible que haya ciertos grupos minoritarios

00:07:42,080 –> 00:07:49,200

donde su lenguaje y sus expresiones en línea en realidad están siendo controlados por este tipo de

00:07:49,200 –> 00:07:55,200

sistemas algorítmicos y, por lo tanto, vale la pena enfatizar aquí que esto no se debe necesariamente a ningún

00:07:55,840 –> 00:08:03,280

um La mala atención de las personas que crearon estos sistemas es en realidad una función de la forma en que se

00:08:03,280 –> 00:08:10,640

recopilan los datos que componen estos sistemas y, en este caso, creemos que los datos recopilados

00:08:10,640 –> 00:08:17,760

fueron una muestra excesiva de usuarios afroamericanos de Twitter, por lo que estaban exagerados. representados en los

00:08:17,760 –> 00:08:24,480

datos que iban a entrar en estos modelos de aprendizaje automático y también es potencialmente ca Usado por sesgo

00:08:24,480 –> 00:08:30,080

la etapa de anotación, por lo que cuando tiene un modelo de aprendizaje automático que detecta el discurso de odio, lo

00:08:30,080 –> 00:08:37,040

que realmente está haciendo es usar un conjunto de clasificaciones humanas donde mostramos varios miles de

00:08:37,040 –> 00:08:41,680

ejemplos en los que los humanos han determinado si algo debe considerarse o no como discurso de odio. y

00:08:41,680 –> 00:08:47,520

luego la máquina está aprendiendo efectivamente de estos ejemplos humanos para luego aplicarlos a otros

00:08:47,520 –> 00:08:52,400

ejemplos, por lo que es posible que existan prejuicios humanos de que las personas que hicieron estos

00:08:52,400 –> 00:08:57,840

ejemplos tal vez tendieron a considerar que parte del lenguaje utilizado por los afroamericanos es más odioso

00:08:57,840 –> 00:09:04,080

que luego se internaliza en el modelo mismo y luego potencialmente amplifica y

00:09:04,080 –> 00:09:11,520

reifica estos prejuicios humanos y, por lo tanto, el peligro real es que tenemos sistemas de moderación de contenido que tienen un

00:09:11,520 –> 00:09:17,600

tipo de prejuicios sociales inherentemente existentes y luego los reproducen potencialmente como una escala muy grande

00:09:18,880 –> 00:09:26,080

que es extremadamente interesante, así que hay mucha discusión sobre la igualdad

00:09:26,080 –> 00:09:32,080

y la representación en el sistema de datos. ts, pero esto en realidad va más allá de eso, no es que

00:09:32,080 –> 00:09:38,720

quizás el conjunto de datos en sí sea el problema, sino también quién organizó esa información

00:09:38,720 –> 00:09:46,480

o etiquetó esa información correctamente y, um, no sé si tiene alguna idea sobre eso

00:09:46,480 –> 00:09:52,960

y y Creo que eso también nos lleva a la discusión sobre el derecho de representatividad de la fuerza laboral

00:09:52,960 –> 00:09:59,200

y todos estos temas, por lo que uno de los ejemplos que vimos en nuestro artículo

00:09:59,200 –> 00:10:06,400

fue en realidad un conjunto de datos donde las personas que estaban haciendo la anotación eran feministas autodeclaradas

00:10:06,400 –> 00:10:11,840

y estaban determinando si ciertos tweets eran sexistas o no sexistas y aún así encontramos este

00:10:11,840 –> 00:10:18,720

sesgo en este conjunto de datos, por lo que es algo que aún necesita más investigación, pero no está necesariamente claro

00:10:18,720 –> 00:10:23,280

que incluso si tenemos las personas adecuadas, potencialmente, estos sesgos desaparecen,

00:10:24,400 –> 00:10:30,720

hay alguna evidencia experimental eso muestra que hacer que las personas sean conscientes de este tipo de problemas

00:10:30,720 –> 00:10:36,960

antes de ellos durante la anotación podría reducir el sesgo posterior, por lo que si les dice a las personas que realizan la

00:10:36,960 –> 00:10:42,000

anotación, debe Debería ser muy sensible a la forma en que las personas usan el lenguaje y

00:10:42,000 –> 00:10:46,000

es posible que las personas de diferentes grupos usen el lenguaje de una manera diferente si

00:10:46,000 –> 00:10:52,000

les deja eso claro, entonces en realidad puede reducir el tipo de sesgo que estos modelos aprenden

00:10:52,000 –> 00:10:56,400

y, por lo tanto, hay algunas intervenciones que pueden ayudar aquí, pero todavía estamos en una

00:10:56,400 –> 00:11:03,840

etapa muy temprana de comprensión de esto, al menos en la investigación académica ahora en términos de la fuerza laboral.Creo

00:11:03,840 –> 00:11:09,520

que, como ustedes conocen a los miembros del público, simplemente no sabemos cuál es la composición de la fuerza laboral

00:11:09,520 –> 00:11:16,480

es que estas grandes plataformas de redes sociales están utilizando para construir este tipo de conjuntos de datos que

00:11:16,480 –> 00:11:21,840

utilizan para entrenar sus modelos internos, por lo que una empresa como Twitter tendrá conjuntos de

00:11:21,840 –> 00:11:28,240

modelos de aprendizaje automático y estos se basarán en datos que el propio Twitter está anotando. ya sea de

00:11:28,240 –> 00:11:34,480

forma proactiva las personas que informar a twitter o sus propios experimentos internos y simplemente no saber

00:11:34,480 –> 00:11:39,840

quién está haciendo este trabajo y que los seres humanos que son que están ayudando a formar a estas máquinas

00:11:39,840 –> 00:11:46,800

um Ciertamente, ha habido algunas críticas a los laboratorios de um ai y este tipo de investigación en la que, de manera

00:11:46,800 –> 00:11:53,200

desproporcionada, los hombres y los hombres blancos y asiáticos, al menos en los Estados Unidos, trabajan en

00:11:53,200 –> 00:11:58,240

este tipo de sistemas, por lo que hay evidencia de que cosas como la tecnología de reconocimiento facial

00:11:58,800 –> 00:12:04,640

es menos precisa. Al detectar los rostros de las personas con piel más oscura y, en particular,

00:12:04,640 –> 00:12:10,560

los rostros de las mujeres negras, en parte, muchos han argumentado porque las mujeres negras simplemente no están representadas en

00:12:10,560 –> 00:12:16,240

los equipos que están construyendo esta tecnología y, por lo tanto, no necesariamente piensan en

00:12:16,240 –> 00:12:22,080

incluir a personas con una variedad de diferentes tonos de piel o apariencias en los datos de entrenamiento

00:12:22,080 –> 00:12:27,360

que están usando para entrenar este tipo de modelos, por lo que ciertamente hay un problema de representación,

00:12:27,920 –> 00:12:34,640

pero desafortunadamente desde el exterior, realmente no sabemos cómo se desarrolla esto dentro de los sitios web

00:12:34,640 –> 00:12:43,680

y las redes sociales las empresas exactamente muchas gracias um y um cómo um ha observado

00:12:43,680 –> 00:12:49,520

estos problemas uh con respecto a otras poblaciones vulnerables uh a través de su trabajo

00:12:51,680 –> 00:13:00,080

y eah, entonces uno de los temas sobre los que llamamos la atención en nuestro trabajo es este problema de falsos positivos

00:13:00,080 –> 00:13:04,640

donde alguien puede decir algo que realmente no deberíamos considerar como un discurso de odio

00:13:04,640 –> 00:13:10,000

y, sin embargo, la máquina detecta esto y lo considera un discurso de odio, así que otro ejemplo. aquí serían

00:13:10,000 –> 00:13:16,080

minorías sexuales que hay personas de la comunidad lgbt que usan ciertos términos en

00:13:16,080 –> 00:13:23,120

su idioma en línea para que puedan usar una palabra como queer y para ellos queer es una identidad

00:13:25,360 –> 00:13:33,840

de empoderamiento y el problema es

00:13:39,360 –> 00:13:47,600

como un término hiriente y, por lo tanto, lo que termina pasando un problema con mi internet que ha dicho

00:13:47,600 –> 00:13:55,760

que se detuvo en el unqueer puede uh mover, sí lo siento así por ejemplo los miembros de los grupos LGBT van a

00:13:55,760 –> 00:14:01,440

utilizar la palabra extraña en discusiones en línea y para ellos es que sabes considera que es un término

00:14:01,440 –> 00:14:06,320

identidad es potencialmente una término de empoderamiento y no tiene esta connotación negativa,

00:14:07,040 –> 00:14:12,400

pero si tiene un modelo que está entrenado en un lenguaje tomado de, por ejemplo, twitter

00:14:12,400 –> 00:14:17,600

, es posible que algunos usuarios de twitter usen la palabra quee r en un contexto negativo y lo usan

00:14:17,600 –> 00:14:23,840

como un insulto y como un insulto, por lo que lo que terminará sucediendo es que el lenguaje usado por los

00:14:23,840 –> 00:14:29,200

miembros de esta comunidad para describirse potencialmente a sí mismos sea marcado como discurso de odio

00:14:29,200 –> 00:14:34,880

debido a esta asociación que estos modelos he aprendido y, por lo tanto, en mi trabajo me enfoco principalmente en

00:14:35,760 –> 00:14:40,720

cómo esto afecta a las comunidades afroamericanas en los Estados Unidos, pero ciertamente hay evidencia de

00:14:40,720 –> 00:14:46,720

que esto ocurre de una manera de género que ocurre en el contexto de minorías sexuales

00:14:46,720 –> 00:14:53,200

y potencialmente otros grupos raciales y étnicos um Pero la investigación académica sobre este tema aún

00:14:53,200 –> 00:14:59,840

se encuentra en una etapa muy temprana.Creo que lo importante a considerar aquí es cuando se piensa en las

00:14:59,840 –> 00:15:05,680

grandes plataformas de redes sociales que están operando en todo el mundo en muchos contextos diferentes

00:15:06,480 –> 00:15:12,640

y, por lo tanto, en los tipos de modelos que que estamos usando para la moderación de contenido automatizada tienen que escalar a

00:15:12,640 –> 00:15:18,880

muchos idiomas diferentes y muchos contextos, por lo que es probable que si elegimos diferentes países y analizamos

00:15:18,880 –> 00:15:23,200

di Diferentes idiomas y observamos diferentes dialectos dentro de estos países, que

00:15:23,200 –> 00:15:28,800

podemos ver los mismos tipos de problemas que ocurren, que estos modelos pueden estar sesgados sistemáticamente

00:15:28,800 –> 00:15:33,280

a favor de ciertos grupos étnicos, ciertos idiomas o dialectos,

00:15:33,280 –> 00:15:39,040

por lo que se necesita hacer mucha más investigación para entiendo esto a escala global,

00:15:39,040 –> 00:15:45,120

creo que el ejemplo más famoso de esto es el caso de myanmar y cómo se utilizó facebook en myanmar

00:15:45,120 –> 00:15:51,520

para incitar al genocidio contra la minoría musulmana rohingya y uno de los argumentos que facebook

00:15:51,520 –> 00:15:56,000

trató de hacer para absolverlos de La responsabilidad aquí fue bueno, no teníamos

00:15:56,560 –> 00:16:02,640

um personas que hablaran el idioma trabajando en Facebook y, por lo tanto, simplemente no tenían suficientes

00:16:02,640 –> 00:16:10,160

personas que hablaran birmano y mucho menos otros dialectos locales e idiomas regionales para hacer la

00:16:10,160 –> 00:16:15,840

moderación de contenido humano que es necesaria como un primer paso para escalarlo de forma automatizada,

00:16:17,360 –> 00:16:22,960

por lo que espero que estos problemas estén ocurriendo en muchos contextos diferentes y simplemente Simplemente

00:16:22,960 –> 00:16:29,680

no sé sobre ellos en esta etapa exactamente, sí, creo que hubo muchos ejemplos de salir

00:16:29,680 –> 00:16:35,680

de Brasil y de la fotografía y los problemas de la desnudez y cosas así, así que eso, uh

00:16:36,240 –> 00:16:43,120

um, estaba nuevamente fuera del contexto brasileño que tenía un un significado completamente diferente correcto y

00:16:43,120 –> 00:16:48,720

correcto eh imagina los estadounidenses bien tenemos tantos idiomas y culturas diferentes dentro de los

00:16:48,720 –> 00:16:58,480

países um así que creo que una última pregunta aquí es eh ¿cómo ves todo lo que afectan

00:16:58,480 –> 00:17:06,880

los derechos humanos o derechos civiles son estas comunidades? terminan siendo menos representados

00:17:06,880 –> 00:17:15,360

uh en Internet porque son discursos que están siendo uh moderados, sí, así que creo que el peligro aquí

00:17:15,360 –> 00:17:24,160

es que tenemos grupos que ya están reprimidos en la sociedad que luego estos sistemas tecnológicos

00:17:24,160 –> 00:17:28,560

terminan potencialmente exacerbando y perpetuando la represión de estos grupos

00:17:29,120 –> 00:17:35,040

ahora creo que para los grupos oprimidos las redes sociales pueden ser extremadamente poderosas, pueden ser una

00:17:35,040 –> 00:17:41,440

forma en que las personas pueden difundir información y correr la voz y llegar, por ejemplo, a organizaciones de noticias

00:17:42,000 –> 00:17:48,640

o conectarse con redes de activistas transnacionales y estas tecnologías tienen la capacidad de ser

00:17:48,640 –> 00:17:54,000

muy, muy empoderadoras, ¿verdad? Estamos viendo ahora mismo en Cuba que los activistas cubanos que solo tienen

00:17:54,000 –> 00:17:58,320

Internet se han abierto mucho más en los últimos años. en Cuba y en realidad pueden

00:17:58,320 –> 00:18:04,160

enviar videos a personas en los Estados Unidos y en otros países y mostrar directamente la

00:18:04,160 –> 00:18:10,720

represión que está ocurriendo en el terreno en el país, por lo que creo que hay un gran potencial para el

00:18:10,720 –> 00:18:19,040

empoderamiento, el peligro es que estas mismas plataformas están reprimiendo ciertos tipos de discurso

00:18:19,040 –> 00:18:24,960

o ciertos tipos de contenido y, por lo tanto, para llevar este ejemplo cubano más allá, ¿qué sucede si el

00:18:24,960 –> 00:18:31,280

gobierno cubano le dice a Facebook que queremos que elimine este contenido o que no muestre ciertos

00:18:31,280 –> 00:18:37,760

términos, ciertas palabras en las redes sociales? Sé que es realmente la relación entre estas

00:18:37,760 –> 00:18:45,200

plataformas y los gobiernos estatales lo que creo que va a dictar cómo son estas políticas de moderación de contenido.

00:18:45,200 –> 00:18:49,920

Afecta los derechos humanos de las personas de una manera directa Sé que Cuba probablemente no sea

00:18:49,920 –> 00:18:55,360

un buen ejemplo aquí porque creo que Facebook no opera oficialmente dentro de Cuba y no tiene

00:18:55,360 –> 00:19:01,840

nada. Creo que en realidad está bloqueado desde Cuba, no puedes. acceda a él a menos que use una vpn um, pero

00:19:01,840 –> 00:19:10,240

el peligro es que otros países y estados presionarán a las plataformas para que incorporen

00:19:11,200 –> 00:19:18,400

su punto de vista de que usted sabe cuál es la conducta y el discurso aceptables en cómo estas plataformas hacen la moderación de

00:19:18,400 –> 00:19:23,920

contenido y, en algunos casos, pienso Podemos pensar en ejemplos aceptables, por lo que en Alemania, por

00:19:23,920 –> 00:19:30,960

ejemplo, tienen leyes muy estrictas sobre ciertos tipos de discurso de odio y, por ejemplo, el contenido nazi

00:19:30,960 –> 00:19:36,800

y cualquier contenido que glorifique al partido nazi está completamente prohibido en Alemania,

00:19:38,160 –> 00:19:42,560

Brasil y varios países de América Latina, por lo que hay presión

00:19:42,560 –> 00:19:47,920

sobre estas plataformas de redes sociales para que se adhieran a las leyes locales del país,

00:19:47,920 –> 00:19:52,960

el peligro es lo que sucede si sabes que consideramos que un país es un régimen opresivo

00:19:53,600 –> 00:20:00,720

y sabemos que en estas plataformas de redes sociales se vuelven um un poco implicadas en la represión

00:20:01,520 –> 00:20:11,440

um sí, lo estoy y um algún pensamiento final o cualquier esperanza para este diálogo o has visto alguna

00:20:11,440 –> 00:20:17,680

buena noticia o buenas prácticas en las que podríamos profundizar más?

00:20:18,240 –> 00:20:25,520

Soy optimista en el sentido de que creo que estos sistemas están adivinando mucho mejor y hay mucha

00:20:25,520 –> 00:20:31,280

presión sobre las plataformas para que sean sensibles a los tipos de problemas que han surgido en mi investigación

00:20:31,280 –> 00:20:36,560

y, por ejemplo, Twitter ahora está haciendo algunos análisis internos. evaluaciones de sus sistemas

00:20:36,560 –> 00:20:43,920

para detectar sesgos en parte en respuesta a los usuarios de la plataforma que se quejan de problemas de

00:20:43,920 –> 00:20:49,680

sesgos, por ejemplo, tenían un algoritmo que recortaba automáticamente las imágenes en las noticias de Twitter

00:20:49,680 –> 00:20:55,280

y tendía a recortar a las personas con piel más oscura en una tasa más alta de personas con piel más clara

00:20:55,280 –> 00:21:02,080

y, por lo tanto, hicieron un pedido interno, por lo que es bueno ver que hay más atención a estos problemas

00:21:02,080 –> 00:21:07,200

y también que la tecnología está avanzando de una manera que permite que estos sistemas ems quizás se

00:21:07,200 –> 00:21:15,360

mejore, pero creo que lo más importante es que todavía necesitamos algunos humanos en el ciclo para evaluar

00:21:15,360 –> 00:21:21,360

y asegurarnos de que estos sistemas funcionan como deberían y realmente necesitamos transparencia, por lo que

00:21:21,360 –> 00:21:28,800

como investigador es muy difícil para mí conseguir muy buenos datos sobre este tipo de problemas para poder

00:21:28,800 –> 00:21:34,080

medir la prevalencia en el mundo, por lo que gran parte de mi trabajo en la detección del discurso del odio

00:21:34,080 –> 00:21:41,040

ha sido una especie de replicación de este tipo de sistemas en el laboratorio de una manera que se puede

00:21:41,040 –> 00:21:47,600

aproximar cómo está funcionando en las principales plataformas o sitios web, pero realmente no sabemos

00:21:47,600 –> 00:21:53,680

exactamente qué está pasando dentro y creo que lo más importante en este momento desde

00:21:53,680 –> 00:22:00,400

mi perspectiva como investigador es abogar por la transparencia creativa directa, un mayor intercambio de datos

00:22:00,400 –> 00:22:04,880

y para estos que las empresas se abran realmente sobre cómo están haciendo la moderación de contenido

00:22:04,880 –> 00:22:10,320

y realmente muestren a sus usuarios por qué ciertos elementos de contenido se consideran aceptables

00:22:10,320 –> 00:22:16,560

o inaceptables increíble muchas gracias Thomas, esto fue increíblemente

00:22:16,560 –> 00:22:23,760

revelador y muchas gracias por toda su investigación. Esperamos

00:22:23,760 –> 00:22:35,360

que salga más de su investigación. Es tan relevante no solo para nosotros y eso es todo.

Portugués

El barco avanzaba con paso firme a través de pequeñas olas que lo abofeteaban y, luego, se desvanecían como agua efervescente, dejando un pequeño borde de burbujas y espuma a ambos lados. El cielo incoloro de octubre estaba ligeramente nublado, como si se tratara de un rastro de humo de una hoguera, y el aire era maravillosamente salado y enérgico. De hecho, hacía demasiado frío para quedarse quieto. La Sra. Ambrose se abrazó a su marido y, mientras se alejaban, se podía ver, por la forma en que su mejilla inclinada se acercaba a la de él, que tenía algo privado que comunicarle.

00:00:12 – 00:00:15

so bruce thank you so much for joining us in the dialogue of americas