Fake news y el referéndum contra la ley trans

Sin categoría

El año pasado se intentó derogar la ley trans en Uruguay. A pesar de las fake news y las campañas en redes, los sectores más conservadores no lograron su cometido, pero la democracia y el debate público sufrieron en el camino.

Contexto

En 2018 se aprobó en Uruguay la Ley Integral para Personas Trans. En marzo de 2019, dos integrantes del Partido Nacional (Carlos Iafigliola y Álvaro Dastague) presentaron firmas para iniciar el proceso para derogarla, a pesar de no contar con el respaldo de su partido como sector político. Finalmente, en agosto, la iniciativa fracasó en las urnas, tras la votación de un 10% del padrón electoral (se necesitaba un 25% para luego llevarse a consulta popular en las próximas elecciones nacionales).

Embarrando la cancha

Iafigliola y Dastague son reconocidos por sus posturas antiderechos. Iafigliola pertenece a la Corriente Social Cristiana y se define como defensor de la vida, los valores y la familia; se opuso a la ley del aborto y a la ESI en las escuelas públicas. Dastugue, por su parte, posee fuertes vínculos con la iglesia evangélica Misión Vida, los hogares Beraca y el movimiento Con mis hijos no te metas.

Mediante la campaña «Todos somos iguales», estos políticos recaudaron firmas (y luego votos) basados en la divulgación de información falsa. Por ejemplo, Iafigliola sostuvo que la ley permite «la hormonización de niños y adolescentes, introduce la ideología de género y otorga privilegios a las personas trans por encima del resto de los ciudadanos».

Unos meses antes, a fines de 2018, había surgido Verificado.uy, un grupo de medios, periodistas, organizaciones sociales y universidades cuyo objetivo era combatir la desinformación. La primera noticia que este colectivo investigó fue, justamente, un posteo de Facebook que se había viralizado y que compartía la afirmación de Iafigliola. El chequeo de Verificado.uy concluyó que la premisa era falsa.

Un paso más en la desinformación

Pero eso no fue todo. También se generaron placas y posteos con información que ya no atacaba directamente la ley ni se centraba en disputas ideológicas o religiosas, sino que buscaba confundir sobre la instancia electoral.

Tomé esta captura el 31 de julio de 2019. Me apareció como publicidad en Instagram mientras pasaba de historia a historia.

En un falso apoyo a la ley trans, el posteo invita a concurrir a las urnas y fomenta la “discusión” de la ciudadanía. Esto, además de falso, es preocupante en distintos niveles. Primero, porque la instancia electoral funcionaba exclusivamente para manifestarse en contra de la ley; es decir, si una persona votaba en ese referéndum, era porque estaba de acuerdo en derogar la norma.

Segundo, porque apela a la estética del movimiento LGBT+ (incluido el “love is love”) e intenta usar (no lo hace de forma correcta) la frase que guio la contracampaña: #LaLeyTransNoSeToca, lo que resulta engañoso y puede confundir a quien no está del todo familiarizado con estas causas o incluso a quienes las apoyan.

Como se puede ver, el contenido está pautado. Es decir: existió un grupo de personas que se encargó de formular este posteo e invertir dinero en Instagram para aumentar su alcance.

En su momento, recuerdo haber ingresado al perfil del “anunciante”. Me acuerdo de que me pareció una cuenta sospechosa, con una fecha de creación reciente y posteos muy genéricos. No era, en realidad, una persona, sino más bien un clásico troll. Hoy busqué ese perfil, pero, como era de esperar, ya no existe (o cambió su nombre de usuario).

El daño de las fake news

Más allá de las diferencias ideológicas que podamos tener con quienes presentan iniciativas que buscan recortar derechos adquiridos, generar a propósito mensajes confusos, como el de la historia de Instagram, resulta malicioso y hasta antidemocrático. El avance de los movimientos antiderechos en la región es evidente y se vuelve urgente cuando los discursos se traducen en acciones.

No debemos subestimar la fuerza de los sectores que atacan derechos adquiridos de minorías vulneradas, a pesar de que (como sucedió en este caso o en el intento de derogación de la ley del aborto) estas arremetidas no logren su comentido. Si bien Uruguay puede considerarse el país más laico de Latinoamérica, estas agrupaciones existen, tienen poder político (han logrado escaños en el Parlamento, entre otras cosas) y económico (algunos de sus exponentes son dueños de varios medios de comunicación), y están captando la atención de muchos jóvenes.


Ilustraciones: Camilo Bejarano

Internet inclusiva: sitios web accesibles

Sin categoría

Vivimos en un mundo digital, en el que el uso y el acceso a internet está cerca de convertirse en un derecho humano. Sin embargo, para muchas personas, por diferentes motivos, está lejos de formar parte de su día a día. O, al menos, no de la misma forma que para el resto.

Para el caso de personas en situación de discapacidad, navegar en internet, informarse, estudiar, leer, comprar, entre otras acciones (que no requieren demasiado esfuerzo ni son complejas para quienes no nos encontramos en ese contexto), pueden volverse difíciles. Acá es donde entra la accesibilidad.

¿Qué es la accesibilidad web?

Cuando hablamos de accesibilidad web nos referimos a la facilidad de acceso de cualquier persona a una web, sin importar sus características físicas ni otros factores. Un sitio accesible es aquel que permite el acceso efectivo a todos sus contenidos independientemente de la situación de discapacidad en la que se encuentre quien navega.

El objetivo de crear un sitio web accesible es disminuir o eliminar esas barreras que limitan a usuarios y usuarias al interactuar con una pantalla. Se trata de hacer que internet se vuelva un espacio más fácil, cómodo, intuitivo y amigable con todas las personas.

La atención a este tema surgió a partir de que el el Consorcio World Wide Web (W3C) desarrolló el documento Pautas de Accesibilidad al Contenido de la Web (WCAG o WAI en inglés). Estos lineamientos se utilizan para medir el grado de accesibilidad de un sitio web.

Importancia y beneficios

Además de ser lo correcto y lo justo, la accesibilidad facilita la navegación por internet para las personas en situación de discapacidad (permanente o temporal, como sería quebrarte un brazo), para quienes tengan dificultades asociadas a la edad (como temblores) y también para aquellas con una conexión a internet muy lenta.

Para quienes gestionan sitios web, los beneficios van desde aumentar la audiencia hasta mejorar el posicionamiento en los resultados de los motores de búsqueda (¡hola, Google!). Cuanto más rápido cargue tu web, Google la va a leer con mayor facilidad. En otras palabras: mejorar tu SEO trae ventajas para todas las partes.

El texto alternativo 

Una de las formas para mejorar la accesibilidad tiene que ver con incluir texto alternativo en las fotos. Esta optimización permite decirle a Google de qué trata tu imagen con unas pocas palabras clave. 

Sin embargo, su principal valor es que constituye una segunda opción para quienes utilizan lectores de pantalla o software como JAWS y NVDA (personas que normalmente presentan dificultades para ver). Es decir: agregar texto alternativo les permite leer literalmente tus imágenes, a pesar de que no puedan verlas.

¿Qué hay que tener en cuenta?

Algunas pautas para generar el texto alternativo:

– Describí la imagen de la forma más concreta y precisa posible.
– Prestá atención al contexto de la imagen.
– Si es necesario, incluí también la función de la foto en el sitio.
– Usá palabras clave, pero no abuses.
– Intentá limitarlo a 125 caracteres.
– No lo empieces con “imagen de”: andá al punto, porque el software de lectura y Google ya saben que es una imagen (por el HTML).

Encontrá más consejos y ejemplos de uso acá.


Referencias

Blaya, Y. (2019). “¿Qué es una página web accesible?”. El blog de Ensalza. Recuperado de: https://blog.ensalza.com/ 

Coppola, M. (5 de marzo de 2020). Texto alternativo: ¿qué es, para qué sirve y cómo incluirlo en tus imágenes? Recuperado de: https://blog.hubspot.es/marketing/texto-alternativo 

Servicio Nacional de la Discapacidad (2015). Requisitos básicos para un sitio web accesible. Ministerio de Desarrollo Social, Gobierno de Chile. Recuperado de: https://www.senadis.gob.cl/descarga/i/2163/documento

Texto alternativo para imágenes – 2020 Mejores prácticas de SEO para imágenes. Recuperado de: https://imageseo.io/es/alt-text-seo/

Ilustración: Uren

Publicidad y bien público: dos ejemplos

Sin categoría

Una campaña de bien público busca generar un bien social. Este bien puede ser un servicio público, un cambio en percepciones y creencias sobre cierto tema o la recolección de determinados recursos que tienen un valor social positivo (como donaciones o personas voluntarias).

Estas campañas, que en ocasiones se denominan de marketing social, deben pasar por el mismo proceso por el que pasan campañas de otro tipo (comerciales): objetivos, estrategia, acciones, medios, recursos y evaluación. Por su parte, suelen incluir elementos emotivos para apelar a la sensibilidad de sus públicos, que se sienten identificados con lo que las piezas buscan promover.

¿Cómo se llevan a la práctica estas campañas? Veamos algunos ejemplos.

Sistema de Cuidados

En el marco de la promoción del Sistema Nacional de Cuidados, Presidencia de la República elaboró en 2019 la campaña de bien público No se hace, se nace para abordar distintas percepciones en torno a los cuidados y las tareas del hogar. El objetivo general de la campaña es concientizar sobre la desigual distribución de tareas no remuneradas entre hombres y mujeres, así como derribar ciertos preconceptos en torno a este tema. 

Todas las piezas fueron creadas con los mismos recursos: voces en off que narran una historia y escenarios de la vida cotidiana (como una casa familiar, la sala de espera de un consultorio médico o una oficina). Al cierre de cada audiovisual, aparecen las frases “Compartir los cuidados nos acerca a la igualdad” y “No se hace, se nace”.

Varios de los videos se emitieron en radio y televisión en forma gratuita, gracias a un decreto de Presidencia, y se difundieron por las cuentas de las redes del Sistema de Cuidados (Instagram, Facebook, YouTube y Twitter).

Uno de los cortos se titula «Yo qué sé qué hay de comer, preguntale a tu madre». Observamos una casa de familia típica: la cocina, con la comida a medio hacer; el living, donde está prendida la televisión y hay una picada sobre la mesa. Escuchamos una conversación que podría tener lugar en cualquier hogar.

Si pensamos en la construcción de los roles de género que muestra el video, vemos que los varones están disfrutando de su tiempo libre, mientras que la esposa/madre continúa realizando actividades del hogar. La pieza también evidencia dos caras del rol femenino en el hogar: por un lado, la mujer es la que manda sobre las tareas domésticas, es la autoridad; esto se refleja en la respuesta del padre al hijo, «preguntale a tu madre». Por otro, muestra la opresión y subordinación a la que la esposa/madre está sometida, mientras los hombres de la casa se divierten. 

El video hace visibles las desigualdades que tienen lugar en el ámbito familiar y la división sexual del trabajo, así como las relaciones de poder que refuerzan esas desigualdades.

Otra de las piezas se titula «A mi viejo lo cuida mi hermana, a ella le sale mejor». En este caso, el foco se pone en la creencia de que a las mujeres, por naturaleza, se les da mejor cuidar a los integrantes de la familia. El hombre deja claro que su hermana «sirve más» para cuidar a su padre; su hermana, que posiblemente también trabaje y esté igual de cansada que él, tiene la responsabilidad de continuar con su jornada laboral, pero enfocada en el cuidado del adulto mayor, mientras que el hombre se va «volando» de la oficina a otras actividades (de ocio, descanso, etc.).

Los videos son simples y reflejan escenas de la vida cotidiana con la que cualquier integrante de la audiencia puede identificarse. A su vez, nos obligan a replantearnos esas relaciones que tenemos tan naturalizadas, por lo que promueven la reflexión sobre la redistribución equitativa del trabajo doméstico y de los cuidados, así como visibilizan las prácticas desiguales y sus preconceptos.

Movimiento Ayuda Cáncer de Mama (MACMA)

Otro ejemplo es el video que elaboró Movimiento Ayuda Cáncer de Mama (MACMA) en 2018. Tiene como objetivo promover el autoexamen mamario para detectar y prevenir el cáncer de mama en mujeres. 

La campaña, denominada Tetas x tetas, apela al humor y emplea un estilo sencillo, directo y claro. De paso, denuncia la censura de los cuerpos femeninos en redes sociales. Vemos un gran uso de la creatividad para evitar esta censura, mediante la demostración del autoexamen en un cuerpo masculino (que no es censurado en ninguna red). 

La música aporta a la construcción de la escena, ya que aporta también un toque humorístico. La narración acompaña y refuerza lo que va mostrando cada plano.

A diferencia de la campaña anterior, quizás el público no se sienta tan identificado con la pieza, ya que parece más armada que los videos anteriores, que buscan lo cotidiano, lo “real”; no por ello deja de ser efectivo ni valioso. La pieza funciona como un tutorial para realizarse el autoexamen mamario, que en este caso sería el bien social que se quiere promover.


Referencias

Guía metodológica: Módulo 6. Diseño de campañas. Mensajes en soportes digitales y redes sociales (2020). Flacso.

Ilustración: Brianna Ailie

Purplewashing y cotillón

Sin categoría

¿Qué es el purplewashing?

El purplewashing (que en español sería ‘lavado púrpura’) consiste en las estrategias políticas y de marketing para promocionar productos o marcas mediante un falso compromiso con la igualdad de género. 

El término fue acuñado en 2014 por la académica Brigitte Vasallo, quien lo vincula con la apropiación de luchas feministas con el objetivo de legitimar políticas de exclusión (que suelen ser racistas) contra ciertos grupos sociales oprimidos. Como ejemplo, menciona que el purplewashing se usa para justificar la islamofobia.

El concepto viene, a su vez, del pinkwashing, que denuncia a aquellas organizaciones o marcas que se aprovechan de la lucha por los derechos de las personas LGBT+ para obtener una imagen de entidades tolerantes e inclusivas. En muchos casos, se usa para apelar a las generaciones más jóvenes, que se muestran más abiertas a prestar atención y elegir productos y servicios ofrecidos por marcas con estas características, con las que (a veces) se identifican. 

Pero si vamos más atrás, el pinkwashing se originó cuando la organización Breast Cancer Action atacó las prácticas de marketing de las empresas que usan el cáncer de mama con el objetivo de mostrarse solidarias y vender más, en lugar de generar una consciencia real y a pesar de que para la fabricación de sus productos empleen ingredientes que aumentan el riesgo de esta enfermedad.

El washing también se aplica a otras causas, como sucede con el greenwashing (medioambiente y productos «sustentables») o el whitewashing (vinculado al racismo en la industria cinematográfica).

¿Dónde lo vemos?

Lo vemos cuando nos ofrecen descuentos en productos o servicios en marzo por el Día Internacional de la Mujer. También cuando grandes compañías textiles venden prendas con consignas feministas (como remeras con la frase Future is female) que fueron elaboradas por mujeres o niñas en condiciones de explotación laboral y que no reciben a cambio una remuneración adecuada.

Lo identificamos cuando una empresa se describe a sí misma como una aliada de la lucha por los derechos de las mujeres, pero (por ejemplo) no tiene a ninguna mujer en cargos directivos o paga salarios más bajos a sus empleadas que a sus empleados. Otro caso es el de las marcas de productos de belleza, que crean piezas publicitarias donde muestran cuerpos diversos en las que quieren convencernos a toda costa de que el empoderamiento femenino se reduce a usar maquillaje y “sentirnos bellas”.

¿Por qué no está bueno?

Porque es superficial y no genera cambios duraderos. Porque banaliza una lucha relevante, vigente y necesaria. Porque asocia objetivos comerciales con una causa que no los tiene.

Una compañía que busca obtener rédito de las inseguridades de las mujeres (como una marca de cosméticos) no está realmente ayudando a las mujeres. Si una marca organiza una charla por el 8M, pero no contrata ni asciende a mujeres, seguimos en la misma situación.

Peeero…

Para bien o mal, ciertas prácticas dentro de las compañías y las estrategias publicitarias empezaron a cambiar. El tema está sobre la mesa; algunas cosas ya no son aceptables y generan rechazo al elegir productos o servicios, sobre todo para los públicos más jóvenes. Esto invita a la reflexión y habilita otro tipo de conversaciones. 

¿Entonces?

Todavía falta mucho. Si los discursos, las narrativas y las imágenes audiovisuales no se corresponden con acciones, con transformaciones profundas en las políticas y en las concepciones de los roles de género, nada va a cambiar. Si las marcas siguen reproduciendo los modelos que ya conocemos, nos tapará el cotillón, una vez más.


Referencias

Barbijaputa (29 de agosto de 2016). “‘Purple washing’ o acordarse del feminismo cuando interesa”. ElDiario.es. Recuperado de: https://www.eldiario.es/opinion/zona-critica/burkini-barbijaputa-purple-washing_129_3856618.html

Demadonna, L. “El comercial de Nike #JuntasImparables y el purplewashing”. Género y trabajo. Recuperado de: https://generoytrabajo.com/2018/10/29/sobre-el-comercial-de-nike-juntasimparables-2/

“La publicidad engañosa en el siglo XXI: ‘causa-washing’” (12 de junio de 2020). Viva la moda. Recuperado de: https://www.vivalamoda.com.ar/secciones/blog/la-publicidad-enganosa-en-siglo-xxi-causa-washing-la-publicidad-enganosa-en-el-siglo-xxi-quotcausa-washingquot-3044

Lenore, V. (3 de abril de 2016). “Del pornoburka al purplewashing, los trucos más sucios contra el feminismo”. El Confidencial. Recuperado de: https://www.elconfidencial.com/cultura/2016-04-03/del-pornoburka-al-purplewashing-los-trucos-mas-sucios-contra-el-feminismo_1170764/

“¿Sabes qué es el ‘femvertising’? (7 de setiembre de 2020). La Vanguardia. Recuperado de: https://www.youtube.com/watch?v=FEt3THAYV7k&ab_channel=LaVanguardia

Ilustración: Sailor Johnny

Nuevas formas de consumo y la adaptación de los medios

Sin categoría

La masificación de internet y los cambios en cómo las personas consumen información y entretenimiento en los últimos años ha obligado a los medios tradicionales a adaptarse y ha facilitado el surgimiento de otros, nativos digitales. En muchos casos, las redes sociales han transformado cómo los medios se relacionan con sus públicos.

Usuarios y usuarias digitales

Las formas en que las personas acceden, consumen y comparten contenido se ha modificado a partir de las nuevas tecnologías. Las “nuevas pantallas” (Murolo, 2008) reúnen los aspectos que ya tenían los medios tradicionales (audio, video, imagen y texto) con el agregado de la interacción. Estos elementos conforman un ecosistema comunicativo con sus propias lógicas, pautas y narrativas, y permite identificar (en mayor o menor medida) al consumidor (Auyanet, 2020).

En el episodio “¿Podemos pensar redes sin likes?” del podcast La enredadera (Anfibia, 2020), el psicólogo argentino Santiago Deus señala que hoy en día nos constituimos como personas a partir de la mirada de quienes nos rodean; “el otro” se vuelve masivo, exponencial y constante. Lo que hacemos o dejamos de hacer nos configura como participantes (activos o pasivos) de un ecosistema digital; dice tanto de una usuaria publicar 15 historias de Instagram por día como jamás haber subido ninguna.

En este sentido, las y los consumidores digitales adoptan un papel activo ante los contenidos, que pueden elegir en función de sus intereses; dejan de ser solo receptores, noción que se asocia más a los medios tradicionales (Jódar, 2009), como la televisión o la radio. Por su parte, este nuevo perfil genera nuevos y nuevas profesionales que se adapten a los medios actuales y a las demandas de quienes los consumen (Jódar, 2009).

Un “me gusta”, por favor

Parte de esa exposición y necesidad de obtener la validación de los y las demás proviene de los números: las redes nos muestran cuántos me gusta, retweets o favoritos tiene una publicación (si bien algunas, como Instagram, lo han limitado), y nos hemos vuelto adictos a estar pendientes de estos valores. Según el profesor Pablo Boczkowski, entrevistado en el episodio del podcast, como los números son semipúblicos, se produce un ranking implícito vinculado a dónde está parada una persona respecto a quienes la rodean. En otras palabras: más likes suponen mayor éxito.

Por su parte, los botones que nos permiten interactuar con los contenidos terminan usándose como indicadores de aquello que supuestamente nos interesa. Acá es donde aparece una oportunidad para los medios (y las empresas en general): a partir del análisis de esa información, producen contenidos que consideran que nos pueden llegar a interesar.

Para Boczkowski, la industria de los medios siempre ha intentado entender qué quieren las audiencias: “En el caso de la [prensa] gráfica, es la circulación: cuántas revistas o publicaciones periódicas se venden en determinada unidad de tiempo. Nadie sabe cuáles son los artículos que se leen ni cuánto gusta lo que se lee: solo se sabe si el paquete se vendió. En el caso de la radiodifusión, hoy en día se usan más los ratings”. 

Y entonces aparecieron las redes para patear el tablero: “Las redes generan automáticamente una radiografía mucho más detallada (no es por diario ni por minuto, sino por posteo) y un poco más sofisticada, porque es por tipo de redacción”. Esto supone un salto cualitativo en cuanto a la capacidad de refinar las reacciones que tenemos como públicos hacia distintos contenidos.

Pero esto, si bien por un lado simplifica la obtención de datos sobre usuarios y usuarias, también tiene sus complejidades. En el conteo de interacciones, por ejemplo, no se tiene en cuenta el significado que cada persona da a esa acción. Alguien puede retweetear un contenido de manera irónica o por considerarlo absurdo, mientras que otra persona puede hacerlo porque realmente le gustó el contenido; pero la acción (el retweet) es la misma. De acuerdo con Boczkowski, “mucho de lo que se pierde en la discusión sobre los números es que son una aproximación a determinado tipo de comportamientos, prácticas o experiencias, pero no permiten una inferencia absoluta”. 

Deus, por su parte, entiende que se produce un quiebre entre leer un “me gusta” e interpretar su significado, ya que para alguien ese movimiento puede implicar la expresión de un deseo (algo profundo, lleno de sentido para quien lo hace) o puede ser algo superfluo, que compromete poco al sujeto y dice muy poco sobre él o ella.

15 segundos de fama

Otra de las caras de estas dinámicas tiene que ver con contra quiénes compiten los medios. Muchas plataformas permiten e incentivan a que quienes las usan generen contenidos, sobre todo audiovisuales, de manera constante. Los ejemplos más claros son Youtube y TikTok, pero también puede incluirse Instagram. La constitución de personas que se dedican (con o sin retribución económica) a producir contenidos para estas redes se evidencia en cómo los y las llamamos: instagrammers, youtubers, tiktokers.

Los videos virales creados por personas “reales”, que permiten la identificación de los públicos con lo que ven (“esa del video podría ser yo”), compiten contra las noticias y contra las fake news. 

A esto se agrega la temporalidad: el minuto a minuto pasó a ser el segundo a segundo. La rapidez de los posteos en redes como Twitter y las transmisiones en vivo que permiten otras como Instagram o Youtube constituyen algunas de las principales características de las redes.

El desafío de adaptarse

Si bien han surgido muchísimos medios nativos digitales, también ingresaron a las redes sociales los medios tradicionales, que se enfrentan al desafío de modificar sus pautas, sus contenidos, sus estructuras (por ejemplo, mediante la contratación de personal que gestione las redes) o incluso su modelo de negocio para seguir siendo relevantes y, en algunos casos, sobrevivir.

Esto no significa que los medios no sigan cumpliendo su principal función (informar), sino que además de este trabajo deben invertir en modos de atraer a sus lectores (y a las empresas que los eligen para pautar). Se trata de un cambio en cómo se conciben a sí mismos y, sobre todo, en cómo se presentan ante el resto de la comunidad digital.

Un buen ejemplo de cómo los medios producen contenidos para las redes es la sección Fake or Real de la cuenta de Instagram de The Guardian o el perfil de TikTok del periódico The Washington Post.


Referencias

Anfibia (25 de agosto de 2020). “¿Podemos pensar redes sin likes?”. La enredadera [podcast]. Recuperado de: https://anchor.fm/laenredadera/episodes/Podemos-pensar-redes-sin-likes-eil232/a-a31liu0

Auyanet, S. (2020). Módulo V. Nuevas dimensiones de los medios de comunicación. Montevideo: Flacso.

Jódar, J. A. (2009). “La era digital: nuevos medios, nuevos usuarios y nuevos profesionales”. Razón y palabra, 71.

Murolo, N. L. (2008). “Nuevas pantallas: un desarrollo conceptual”. Razón y palabra, 16.

Ilustración: Sushama Patel

Cine amarillo: la representación latinoamericana en Hollywood

Sin categoría

La representación de las culturas atraviesa al arte de diversas formas. En el cine, por ejemplo, puede verse en las construcciones de personajes (muchas veces cargados de estereotipos), en las historias que los componen y en la estética de las escenas.

Hace algunos meses, se volvieron virales memes relativos a cómo la industria mainstream (Hollywood) representa a México en el cine y las series. El caso más paradigmático fue el de Breaking Bad: la serie, a la que muchas personas consideran una de las mejores de la historia, muestra a México con un tono amarillento o sepia.

Si bien en algunos episodios esto corresponde a flashbacks (es decir, se produce un cambio respecto al color que tienen las escenas situadas en el presente, para ubicar al público en el pasado), esta práctica no es extraña en otras grandes producciones. 

Algunas personas (como Díaz, 2020) ubican el inicio de este filtro amarillento en el 2000, con la película Traffic (Steven Soderbergh), en la que se emplearon tonos sepia para mostrar los entornos mexicanos, mientras que para las escenas situadas en Estados Unidos se utilizaron tonos más bien azulados.

Simbolismos y significados

Estas elecciones se podrían explicar mediante la idea de que quien dirigió el audiovisual quiso generar una sensación desértica (recordemos que muchos de los paisajes que se muestran corresponden a esa variedad climática), calurosa, con mucho polvo y espacios sombríos. También refiere a lo antiguo, oxidado y hasta obsoleto. 

Pero no todas las escenas representan desiertos, y el tono sepia se aplica también en escenas de ciudades. Entonces, ¿cuál es la cuestión?

Los vínculos entre Estados Unidos y México dan cuenta de una relación jerárquica, en la que el primero demuestra de manera constante su poder ante el segundo, en distintos sentidos. La emigración mexicana hacia el norte y las medidas de los gobiernos estadounidenses para evitarla, así como la discriminación que sufren estas poblaciones, son solo algunos de los ejemplos; pero esto se traslada al ámbito cultural. 

Las ciudades mexicanas retratadas en películas y series estadounidenses suelen no ser brillantes, limpias, modernas, atributos que sí se observan en las de Estados Unidos. Estas diferencias se evidencian aún más cuando en una misma pieza (o serie) se representan escenarios en un país y el otro.

Como comenta el youtuber Iván Díaz, en su canal Coffee TV: “Podríamos suponer que la representación de México como este mundo amarillento, caluroso y desértico viene para asociar al color con este clima cálido y también para darle una identidad a este mundo, una identidad asociada con este color”.

Por otra parte, hay otra una fuerte carga simbólica detrás de los muros amarillentos: se trata de la representación de la otredad. Estas decisiones pueden ser fruto de una búsqueda de diferenciación cultural, en la que el otro es de un color diferente al de quien realiza y quien ve ese audiovisual. 

En la cultura y en el arte, esto data de muchos años atrás y se vincula con la teoría del orientalismo, de la que hablaremos más adelante. Por ejemplo, en Frankenstein, de Mary Shelley (1818), Victor Frankenstein describe a su monstruosa creación con mucho énfasis en los colores: su piel es “amarillenta” y sus ojos son “amarillentos y apagados”. Estos rasgos suelen ser tenidos en cuenta para definir la raza; como señala Pinyerd (2016), las personas de Medio Oriente y de Asia suelen ser identificados con la piel amarilla o amarronada, “como si estas variantes particulares fueran algo predeterminado” (p. 55).

No solo México

En el video, Díaz analiza distintos aspectos de estas ideas en el cine y comenta que el filtro sepia no se reduce a México, ni siquiera a Latinoamérica: territorios y personas de Medio Oriente, de Asia e incluso de África también son representados de esta forma. 

Sobre la teoría del color y qué significa, señala: “En el cine, el color amarillo suele asociarse a la alegría y felicidad, pero también a la enfermedad, al miedo y al peligro”. Esto implica que las representaciones de latinos, asiáticos o árabes queda directamente asociada a estereotipos: violencia, crímenes, terrorismo, guerra. En el caso de las personas latinas, agregamos bigotes, lentes de aviador y narcotraficantes. 

Respecto a cómo se muestran los lugares, el filtro amarillento responde a la construcción de lugares peligrosos y que con frecuencia suponen que el protagonista (normalmente blanco y europeo o estadounidense) no se encuentra en su hogar o ciudad.

El orientalismo

El orientalismo, según se comenta en el video, es un concepto creado a fines de los 70 por Edward Said. Refiere a una forma de ver el mundo que resalta, exagera o distorsiona los rasgos de personas y culturas consideradas más exóticas que Estados Unidos o Europa. Esto coloca a esas culturas como atrasadas, poco civilizadas e inferiores y contribuye a afirmar la supremacía de Estados Unidos sobre ellas.

Responde a estereotipos (racistas y xenófobos) de personas, lugares y culturas, y compone no solo la visión eurocentrista, sino también a la latinoamericana. Existen, por ejemplo, películas mexicanas (como Amar te duele) que aplican este filtro amarillento y, de este modo, refuerzan esta perspectiva.


Referencias

Díaz, I. [Coffee TV] (14 de mayo de 2020). ¿Por qué México y Latinoamérica se ven amarillas? [Archivo de video] Recuperado de: https://www.youtube.com/watch?v=sflvqudHaJI

Pinyerd, T. (2016). “The Other: Orientalism in Frankenstein”. En Hohonu, 14, pp. 55-56. Recuperado de: https://hilo.hawaii.edu/campuscenter/hohonu/volumes/documents/TheOther-OrientalisminFrankensteinTerriPinyerd.pdf

Ilustración: Minh Lê

El fin de la privacidad: inteligencia artificial en la ciudad

Sin categoría

Clearview AI: reconocimiento facial en tu teléfono

Una investigación de The New York Times reveló el misterio de una compañía que podría terminar con la privacidad como la conocemos. Se trata de Clearview AI, una empresa que vende una app de reconocimiento facial que emplea métodos hasta ahora inexplorados por los gigantes tecnológicos.

La app funciona así: subís la foto de cualquier persona y en segundos te muestra los resultados de todas las fotos públicas de esa persona disponibles en internet, así como los links de donde se tomaron. El sistema obtiene esas imágenes de millones de sitios (incluidas las redes sociales). Tiene, además, otra particularidad: el algoritmo permite la identificación en fotos en las que la persona esté de perfil, tenga la cara parcialmente cubierta (por ejemplo, con un gorro o lentes) e incluso en imágenes de baja calidad o borrosas.

Muchas ciudades estadounidenses, como San Francisco, han prohibido que los gobiernos locales utilicen este tipo de tecnologías; otras, sin embargo, ya la están usando. En el último año, más de 600 organismos policiales de ese país han empleado Clearview para resolver crímenes (como explotación sexual, asesinatos, robos, fraude) que hasta entonces permanecían impunes.

Derechos humanos en jaque

Los sistemas de reconocimiento facial siempre han sido controversiales por poner en peligro derechos fundamentales de quienes habitan la ciudad, y su uso ha estado limitado en muchos aspectos. 

En este sentido, a la incertidumbre sobre las políticas de protección de datos personales de Clearview se suma la tendencia de estos algoritmos a arrojar falsos positivos, sobre todo con ciertos grupos de personas (como afrodescendientes). Además, la herramienta no ha sido evaluada de manera independiente por expertos, a pesar de que ciertos organismos del Estado ya la están empleando. Otro punto para tener en cuenta es que la empresa tiene la capacidad de manipular los resultados de las búsquedas de sus clientes (como, por ejemplo, la Policía).

A estas cuestiones se agrega otra: las políticas de las redes sociales de las que se nutre Clearview. La periodista del Times logró conversar con su fundador, quien afirmó que la empresa solo obtiene imágenes públicas: si, por ejemplo, la persona cambiara su configuración de privacidad de Facebook para que los motores de búsqueda no puedan linkear a su perfil, sus fotos en esta red no aparecerían en la base de datos de Clearview. Pero si el perfil había sido escaneado por la app antes de este cambio, sus datos permanecerán en el sistema, incluso si la persona borrara esas imágenes. 

En otras palabras: una vez que tienen tus fotos, estas no son dadas de baja en la app, por más de que las elimines de tu cuenta de Facebook.

Los inversores de Clearview y los oficiales que la usan predicen que dentro de poco estará disponible para el público en general. Aunque esto no se concrete, podrían aparecer compañías similares, ahora que el tabú del límite sobre esta tecnología se ha roto.

¿Qué pasa en Latinoamérica?

En los últimos años, el uso de inteligencia artificial y de tecnologías de reconocimiento facial ha aumentado de forma notoria en Latinoamérica. Cuando son aplicadas por el Estado, algunos de sus fines van desde la seguridad ciudadana (como ha sucedido en Montevideo) hasta el control de servicios en espacios cerrados (como, por ejemplo, en el metro de Valparaíso, donde se emplea para vigilar que las personas que acceden a bonificaciones en la tarifa no presten a otras sus tarjetas de transporte) (Garay, 2020). 

La implementación de estos sistemas se ha debatido por su potencial de violentar derechos humanos. La dificultad de proteger los datos biométricos, el porcentaje de falsos positivos (que atenta especialmente contra personas de tez oscura o trans) y la poca transparencia que las autoridades manejan sobre el tema son algunos de los puntos para analizar con ojos críticos (Garay, 2020). Estas preocupaciones coinciden con las que expresa la periodista del Times.

Pero eso no es todo. En Latinoamérica se agregan otros inconvenientes, como la interpretación circunstancial de leyes que no fueron creadas para abordar las particularidades de este tipo de tecnologías, lo que da lugar a zonas grises vinculadas a las garantías fundamentales de ciudadanos y ciudadanas (Garay, 2020). 

Si tenemos en cuenta los usos que se le dan a estos sistemas, como la persecución criminal y el orden público, muchas veces el problema se agudiza, ya que la información se vuelve inaccesible y se oculta con el pretexto de la seguridad nacional (Garay, 2020). Esto supone una gran preocupación, dado que “en el marco de un sistema democrático, la adopción de tecnologías exige transparencia a los tomadores de decisiones” (Canales, 2020, p. 20). Es esencial que el Estado garantice un debate público sobre los fines que persigue la solución técnica, algo que muchas veces se ve opacado por la utopía que suponen las nuevas capacidades tecnológicas (Canales, 2020).

Por su parte, si bien no está confirmado que Clearview se libere al público general, podrían aparecer apps similares. Entonces, cualquier individuo será capaz de conocer en unos segundos cómo se llama la persona que tiene enfrente, dónde trabaja y vive, quiénes integran su familia, entre otros muchísimos datos. 

Consultado por el Times sobre las consecuencias de traer semejante poder al mundo, el fundador de Clearview se sintió tomado por sorpresa. ¿Su respuesta? “Tendría que pensar en eso. Creemos que este es el mejor uso que podemos darle a esta tecnología”.

¿Caminar por la calle se convertirá en un episodio de Black Mirror?


Referencias 

Barbaro, M.; Hill, K. (10 de febrero de 2020). “The End of Privacy as We Know It?”. The Daily [podcast]. The New York Times. Recuperado de: https://www.nytimes.com/2020/02/10/podcasts/the-daily/facial-recognition-surveillance.html

Canales, M. P. (2020). “¿De qué hablamos cuando hablamos de inteligencia artificial? Decisiones algorítmicas en América Latina”. En Garay, V. (ed.), Latin America in a glimpse, pp. 19-26.

Garay, V. (2020). “Mal de ojo. Reconocimiento facial en América Latina”. En Garay, V. (ed.), Latin America in a glimpse, pp. 8-13. 

Hill, K. (18 de febrero de 2020). “The Secretive Company That Might End Privacy as We Know It”. The New York Times. Recuperado de: https://www.nytimes.com/2020/01/18/technology/clearview-privacy-facial-recognition.html

Ilustraciones: Ana Duje

Milongas inadecuadas

Sin categoría

En marzo de 2015, dos amigas (una gestora cultural, licenciada en Turismo y alumna de tango y la otra bailarina, docente de tango y organizadora de milongas) concurrieron a un espectáculo en la Sala Zitarrosa. Como llegaron temprano, decidieron cruzar a la Plaza del Entrevero a mirar una iniciativa que se realizaba todos los domingos, llamada “Milonga del Entrevero”.

Como solían hacer en otros encuentros de tango, se pusieron a bailar juntas con el resto de las parejas. Antes de que terminara la primera pieza, una señora que estaba participando las increpó: “Dos mujeres acá no se permite, está prohibido”. Sin comprender, le consultaron a la señora quién respaldaba esa decisión, y les contestó que era la Intendencia de Montevideo (IM).* En ese momento, se acercó el organizador del evento y les comunicó, de manera poco amable, que debían retirarse porque “acá no queremos tortas ni maricones”. El hombre añadió que en ese espacio se reunían familias y niños, aludiendo a que resultaba “inapropiado” exhibir conductas como bailar con personas del mismo género.

El hecho tuvo varias repercusiones. Entre ellas, la suspensión del permiso para usar la plaza a la agrupación que organizaba las milongas, la disposición de que la pareja a cargo de la iniciativa concurriera a talleres sobre género e inclusión y la negativa del responsable a asistir (con el argumento de que esas instancias son para “lavarnos el cerebro”). Además, las involucradas publicaron en sus perfiles de Facebook una carta en la que contaron y repudiaron lo sucedido, así como algunas organizaciones sociales convocaron a una «Milonga inadecuada», en defensa del tango como una actividad que incluye a todas las personas, cualquiera sea su orientación sexual, género, edad o condición social.

Derechos vulnerados y libertad de expresión

Desde un punto de vista de derechos, en este hecho se vulneraron al menos tres:

1. Derecho a la no discriminación: en el ordenamiento nacional, la Ley 17.817 define discriminación como:

toda distinción, exclusión, restricción, preferencia o ejercicio de violencia física y moral, basada en motivos de raza, color de piel, religión, origen nacional o étnico, discapacidad, aspecto estético, género, orientación e identidad sexual, que tenga por objeto o por resultado anular o menoscabar el reconocimiento, goce o ejercicio, en condiciones de igualdad, de los derechos humanos y libertades fundamentales en las esferas política, económica, social, cultural o en cualquier otra esfera de la vida pública (art. 2).

En este caso, existe discriminación basada en género. Podría agregarse discriminación por orientación sexual, ya que quienes expulsaron a las mujeres del evento pensaron que ellas eran homosexuales (a pesar de que son heterosexuales).

2. Libertad de uso y goce de los espacios públicos: la Ley 19.120 (en su artículo 11) consagra el derecho de las personas a “expresarse y comportarse libremente en los espacios públicos, debiéndose respetar su libertad de acuerdo a lo consagrado por el artículo 7º de la Constitución de la República”. Las jóvenes no pudieron manifestarse libremente en un espacio público (la Plaza del Entrevero), algo que sí estaban haciendo las demás personas presentes.

Asimismo, la norma aclara que “este derecho se ejerce sobre la base del respeto a la libertad, la dignidad y los derechos reconocidos a las demás personas” (art. 11). Quienes excluyeron a las mujeres en el encuentro de tango no respetaron este último punto, ya que, basados en determinada creencia (que esas instancias y, por extensión, el tango en general no son lugares para «tortas ni maricones»), les negaron su derecho de participar libremente en el espacio público y desconocieron su dignidad.

3. Derecho a la participación de la vida cultural: desde una perspectiva más amplia, las mujeres vieron coartado su derecho a participar de la vida cultural, que está garantizado por el Pacto Internacional de Derechos Económicos, Sociales y Culturales (ratificado por Uruguay), en su artículo 15. También está contemplado en la Declaración Universal de Derechos Humanos (artículo 27).

Por otra parte, aparece el asunto de la libertad de expresión: se podría cuestionar que las personas que increparon a las mujeres están en su derecho de manifestar su opinión.

Pero ¿qué pasa cuando el ejercicio de la libertad de expresión entra en conflicto con el derecho de las jóvenes a no ser discriminadas? En el caso analizado, parece claro que expresar esas ideas supone una violación del derecho a la no discriminación (además de los otros dos mencionados).

Para Fiss (1996), en el ámbito del debate entre libertad de expresión, discursos de odio e igualdad, la intervención estatal debe garantizar la solidez del debate público (es decir, asegurar que la ciudadanía sea capaz de acceder a todas las posturas sobre determinado tema). Según el autor, si bien en ocasiones resulta suficiente con visibilizar y otorgar poder a grupos más débiles, a veces es necesario que el Estado se encargue de “disminuir las voces de unos para que pueda ser escuchada la voz de otros” (p. 23).

A partir de lo anterior, en el ejemplo se podría considerar el accionar de la IM (que suspendió el permiso de la agrupación que organizaba la Milonga del Entrevero y convocó a los responsables a talleres de sensibilización) como un intento por reducir el poder de quienes, en este caso, sostienen el discurso antiderechos y anti LGBT+.


* Luego, la comuna aclaró que esto no era cierto.

Referencias

Asamblea General de las Naciones Unidas (1948). Declaración Universal de Derechos Humanos.

Asamblea General de las Naciones Unidas (1996). Pacto Internacional de Derechos Económicos, Sociales y Culturales.

Fiss, O. (1996). «El efecto silenciador de la libertad de expresión». Isonomía, 4, pp. 17-27.

Ley 17.817. Lucha contra el Racismo, la Xenofobia y la Discriminación (6 de setiembre de 2004). Montevideo: Diario Oficial.

Ley 19.120. Faltas y Conservación y Cuidado de los Espacios Públicos (20 de agosto de 2013). Montevideo: Diario Oficial.

Ilustraciones: Ophélie LB (portada) y Alice Mollon.

Youtube y el “rabbit hole”: ¿cómo pensamos los algoritmos?

Sin categoría
¿Cómo intervienen los algoritmos que hacen funcionar internet en el pensamiento y comportamiento humano? ¿Cuál es el papel de las personas que los crean y qué responsabilidad tienen?

Hacer y deshacer a un radical

Hace un tiempo leí una investigación de The New York Times que se llama “The Making of a Youtube Radical”.1 Cuenta la historia de cómo un joven de 26 años se volvió adicto a Youtube, cómo la plataforma lo arrastró hacia videos de radicales de extrema derecha y cómo, luego de cinco años, se convirtió en un crítico de ese contenido. 

Caleb Cain se sentía a la deriva; entonces, comenzó a explorar Youtube para distraerse. Desde ahí fue seducido por una comunidad de creadores audiovisuales de extrema derecha que buscaban captar justamente a ese público: hombres jóvenes, en su mayoría blancos, muchas veces interesados en videojuegos y sin un rumbo claro en su vida.2

Pero ni estos creadores ni la alienación social que atravesaba Caleb fueron los únicos responsables de su radicalización. En el mismo año en que Caleb se sumergía en el rabbit hole de extrema derecha, Youtube introdujo un cambio en su algoritmo. En 2012, la compañía actualizó su algoritmo de recomendaciones (el “A continuación” que aparece en la barra a la derecha), que pasó a privilegiar el tiempo de reproducción sobre la cantidad de reproducciones.

De este modo, se estimulaba a que los creadores generaran contenido que los usuarios y usuarias terminaran de ver. Esto también permitía que la plataforma les mostrara más anuncios a los visitantes. El cambio fue un éxito (económico): según un reporte de 2017, el tiempo de visualización de Youtube aumentó un 50% por año durante tres años consecutivos.

Según la investigación del Times, ninguna de estas modificaciones pretendía beneficiar a la extrema derecha. Pero los radicales conservadores entendían el funcionamiento de la plataforma y se aprovecharon de los cambios: pasaron a crear videos más extensos y publicaron versiones filmadas de sus podcasts. Además, desde ese momento podían ganar dinero con su contenido, por lo que Youtube, aun sin quererlo, estimuló la creación constante y cada vez mayor de estos videos.

Recién en 2018, tras cuatro años de consumo de youtubers de extrema derecha, la plataforma comenzó a sugerirle a Caleb videos de una comunidad de realizadores de izquierda, que imitaban la estética y los contenidos de los primeros pero en tono de burla. A partir de ese momento, Caleb comenzó a cuestionar lo que decían los videos que había consumido durante varios años y su modo de pensar cambió. Luego del atentado a la mezquita de Christchurch (en 2019, en Nueva Zelanda), Caleb decidió ayudar: abrió su propio canal de Youtube, en el que repasa acontecimientos recientes y discute sobre política desde una perspectiva progresista.

Los algoritmos de Youtube no son estáticos, sino que la compañía introduce año a año mejoras que intentan evitar la radicalización en distintos sentidos (como los discursos autoritarios o de odio). O, al menos, eso dicen.

¿Cómo pensar los algoritmos?

El ejemplo es interesante porque refleja una de las discusiones que plantea Finn (2017): la necesidad de comprender el funcionamiento de las TIC desde una perspectiva híbrida, que contemple tanto lo abstracto como lo humano. 

Si pensáramos el caso que plantea el Times desde la lógica de la máquina cultural que comenta Finn (2017), el algoritmo constituiría la abstracción que responde a un objetivo que se plantearon quienes dirigen Youtube: aumentar el tiempo que los usuarios pasan en la plataforma (según comenta un exingeniero de la empresa en el artículo del Times).

Como propone Finn (2017), es fundamental analizar los procesos detrás de los productos finales, para ser conscientes de su impacto real y, si es necesario, corregirlos. El autor señala: “When algorithms cross the threshold from prediction to determination, from modeling to building cultural structures, we find ourselves revising reality to accommodate their discrepancies” (p. 50). 

Volviendo al ejemplo de Caleb y su experiencia con Youtube, el algoritmo había impulsado una adicción a un tipo de contenido y determinado una dirección única de su pensamiento, dentro del rabbit hole de la extrema derecha. Se requirió (y todavía requiere) intervención humana para identificar este resultado y modificar el algoritmo para promover otro tipo de videos.

Debemos recordar que, además de ponerse en discusión el concepto de libertad de expresión (al que muchos apelan para escudar sus discursos antiderechos), estas prácticas funcionan dentro de una lógica de lucro o mercado: las decisiones sobre qué y cómo se modifica el funcionamiento de estas plataformas responde a intereses económicos y a modelos de negocio, que no siempre coinciden con la prohibición de algunos contenidos ni la pluralidad. Como plantea el artículo del Times: 

The radicalization of young men is driven by a complex stew of emotional, economic and political elements, many having nothing to do with social media. But critics and independent researchers say YouTube has inadvertently created a dangerous on-ramp to extremism by combining two things: a business model that rewards provocative videos with exposure and advertising dollars, and an algorithm that guides users down personalized paths meant to keep them glued to their screens.


1 Esta investigación también llevó al periódico a producir un podcast, Rabbit Hole, en el que profundiza sobre distintos temas que se abordan en el artículo. Entre otras cosas, conversan con Caleb, entrevistan a la CEO de Youtube y al youtuber con más suscriptores del mundo (cuyo nombre pronunció el responsable del atentado en la mezquita en Nueva Zelanda, mientras transmitía el hecho por redes sociales).

2 En el espectro de extrema derecha se abarcan contenidos antiinmigrantes, racistas, antifeministas, anti LGBT+, entre otros.

Referencias

Finn, E. (2017). What algorithms want: imagination in the age of computing. Cambridge: MIT Press.

Kevin, M. (2019, june 8). “The Making of a Youtube Radical”. The New York Times. Recuperado de: https://www.nytimes.com/interactive/2019/06/08/technology/youtube-radical.html

Ilustraciones: Ghost Paper