imagen ilustrativa
22 octubre, 2020

Privacidad y discriminación en tiempos de COVID-19.

Por Natalia Rios

Las nociones de cuerpo, origen y territorio son programables.

Este artículo también se publicó en la revista digital Afrofeminas: https://afrofeminas.com/2020/10/08/privacidad-y-discriminacion-en-tiempos-de-covid-19-las-nociones-de-cuerpo-origen-y-territorio-son-programables/

En el cuento La culpa es de los traxcaltecas (1) Elena Garro nos recuerda las ideas superficiales de la modernidad; reseña sus separaciones, desigualdades e injusticias. En su cuento la protagonista entiende que su actual cuerpo es valorado por ser blanco, mientras que su antigua mujer indígena es estigmatizada por su origen y color de piel. El tiempo y el espacio se entrelazan en este cuento, haciendo evidente lo equívocos que son los conceptos que sustentan esta sociedad, sentencias que rompen personas, degradan orígenes y manipulan intenciones. 

Hoy en día, estas condenas se automatizan por medio de algoritmos en el capitalismo de vigilancia (2). Los algoritmos se han convertido en los árbitros que dan forma a nuestras realidades y valor a nuestros cuerpos. El algoritmo es el actual editor de contenidos, es la fórmula matemática arrojando resultados; se han apropiando de los procesos de edición y de la existencia, se han convertido en nuestros maquetadores, verificadores y correctores de información. Los algoritmos determinan la verdad, imponen conceptos y elecciones de compra, son los productores y reproductores de esta nueva normalidad. Están respaldados por hombres blancos ricos que desde su poder hegemónico matizan la red de manera imprudente y discriminatoria, propagan violencias y fomentan creencias supremacistas blancas.

¿Cómo impactan los algoritmos en tiempos de Covid?

imagen ilustrativa algoritmos
Photo by Antonio Batinić from Pexels

El capitalismo de vigilancia asigna valores económicos, políticos y culturales a los datos de las personas que habitamos en Internet. Estas estipulaciones se basan en pautas que favorecen la usabilidad de la red de manera discriminatoria. Por ejemplo en 2018, Safiya Noble en su libro Algorithms of oppression subrayó las practicas racistas en los algoritmos de Google los cuales arrojaban resultados pornográficos en búsquedas usando las palabras “chicas negras” (3). Noble también cuestionó la usabilidad de AdWords como herramienta publicitaria discriminatoria posicionando cualquier  anuncio sin importar el contenido del mismo. Los señalamientos que hizo Noble fueron previos al Covid, ahora el impacto que generan estos algoritmos racistas va en aumento en época de pandemia. Esto se hace evidente al notar el comportamiento de gobiernos y monopolios tecnológicos quienes están usando este momento de crisis para impulsar sus tecnologías de vigilancia que amenazan la privacidad, la democracias y la igualdad de todas las personas en el mundo (4)

La pandemia ha sido usada para aumentar la penetración tecnológica y la vigilancia ciudadana de manera desproporcionada. El proyecto de vigilancia policiaca en Estados Unidos es una muestra de ello; este incluye drones, cámaras corporales, lectores automáticos de placas vehiculares, vigilancia predictiva y cámaras de reconocimiento facial, todas estas colocadas a lo largo y ancho del país (5). El nivel de penetración que se muestra en este mapa es impresionante, sin embargo, las organizaciones han remarcado que aunque la cantidad de dispositivos es enorme apenas muestra la punta del iceberg. Han subrayado la necesidad de sumar esfuerzos de diferentes áreas de la población tales como periodistas, organizaciones sin ánimos de lucro y ciudadanos en general, para exigir mayor transparencia dado que estos dispositivos de vigilancia se están usando como medios para identificar supuestos delincuentes, como recurso mediático para deportar migrantes o como herramienta para justificar todo tipo de discriminaciones. 

La violencia policial en la pandemia sustentada desde algoritmos discriminatorios

imagen ilistrativa silence allows violence
Photo by Anete Lusina from Pexels

La violencia policial en la pandemia se ha incrementado de manera exponencial. Este es un tiempo que favorece el uso de violencias físicas y psicológicas que debilitan a personas negras y morenas en todo el mundo. Al principio de la pandemia, se citaba al coronavirus como el peligro, se propuso el rastreo digital de contactos como método para combatir al virus. Sin embargo, al pasar los meses el discurso ha cambiado de tal manera que ahora negrxs, latinxs y las poblaciones indígenas se han convertido en los grupos más infectados y afectados por el virus. Este no es un tema aislado, el abuso de cientos de años se recrudece en la pandemia. Las injusticias que ha arrastrado la colonización derivan en abusos laborales, mala calidad del aire, insuficiencia educativa y la pésima atención médica para el Sur Global. Esta realidad no se retoma en tiempos de pandemia, no se hace mención a la justicia pendiente que le merece a todos estos grupos; al contrario se resaltan impresiones racistas y discriminatorias justificadas desde un discurso sanitario (6). En este sentido, académicos se han pronunciado por medio de investigaciones en las que sostienen las evidencias en torno al racismo estructural que genera la pandemia (7)

Una de las consecuencias racistas recrudecidas en tiempos de coronavirus, es el atropello a derechos humanos fundamentales, como es el aumento en la incriminación de presuntos delincuentes por medio de cámaras de reconocimiento facial que ubican a sospechosos en función del color de piel. Un ejemplo de ello es Michael Olover, un joven de 26 años y Robert Williams, de 42 años quienes fueron arrestados injustamente por un algoritmo que determinó habían cometido un crimen que posteriormente se demostró no habían hecho. Esto es posible ya que el software de reconocimiento facial tiene una tasa de error sustancial entre las personas negras y morenas. Estos casos van en aumento, dado que los criterios que dan sentido a la actual tecnología no son neutros ni objetivos, por lo que se esperan más arrestos y encarcelamientos injustos a personas de color y a grupos vulnerables (8)

No podemos permitir que nuestro futuro este trazado por algoritmos que identifican desproporcionadamente a personas latinas como inmigrantes, a personas negras como delincuentes o a personas indígenas como pobres. Es imprescindible que más personas apoyemos la gestión de tecnologías incluyentes. Continuemos el debate para derribar las facultades desafortunadas de estos algoritmos. La lógica desde la que han sido programados fomenta desigualdades raciales, étnicas o de género. Tan solo ahora los algoritmos cuentan con la autoridad para negar créditos de vivienda a personas negras, impedir que poblaciones morenas accedan a préstamos bancarios o hacer casi imposible que grupos indígenas encuentren trabajo (9). Lo anterior no es error del sistema, es un plan que afecta a la humanidad de muchas maneras. Los saberes desde los que fueron programados estos algoritmos no son los únicos, existen otras formas de comprender la vida y la existencia humana.

Privacidad y discriminación en COVID-19

imagen ilustrativa vigilancia
Photo by Scott Webb from Pexels

¿Qué hacemos ahora?

Esta no es la primera vez que enormes corporaciones ganan miles de millones de manera inmoral, con propósitos egoístas y racistas que afectan a todo el mundo. Para contrarrestar estos abusos sistemáticos es necesario comprender a la tecnología de otras maneras. La tecnología no es una simple herramienta esperando a ser usada, no es un servicio gratis que sin más, ayuda a resolver problemas. Consideremos por ejemplo que no es casualidad que Facebook sea un arma cargada con 2,700 millones de personas promoviendo racismo, desinformación y odio en todo el mundo (10). Reflexionemos en las motivaciones que llevan a Twitter a usar algoritmos racistas que dan preferencia a personas blancas al momento de recortar una imagen (11). Ponderemos las consecuencias políticas y económicas que este tipo de manipulaciones han generado, por ejemplo, las implicaciones que el caso de Cambridge Analytica trajo al manipular a millones de usuarios en Facebook para favorecer la campaña electoral de Trump (12)

Internet forma parte de nuestro territorio, ahí habitamos todas y todos y por ello debemos defender este espacio. Este terreno digital alberga nuestros miedos, deseos, proyectos, contiene nuestro pasado, presente y futuro. Hoy el intermediario es el algorítmico, sin embargo nadie debe corregir, matizar, maquetar o verificar de manera engañosa los datos. Los efectos que genera delegar nuestro libre albedrío, deriva en sociedades con altos niveles de depresión, promueve consecuencias políticas desfavorables, ocasiona crisis económicas, guerras y mucho más (13) (14).

Reflexiones de antes y de ahora

La historia de la humanidad convoca la reflexión. Las problemáticas sociales y el caos que sostiene esta sociedad emana de la mente y pensamientos de generaciones. Clarisa Pikola Estés en su cuento de La mujer esqueleto (15) nos recuerda que la psique de la humanidad funciona por medio de causas y efectos. Los pendientes de la mente son los pendientes históricos de muchas generaciones. La única manera de reconocer la sombra es viéndola y comprendiéndola. La seres humanos hemos ocultado nuestra sombra, la hemos hundido en el inconsciente colectivo, este pendiente nos mantiene alienados. El ego nos retiene lejos de la conciencia. La ignorancia, la imprudencia, el desconocimiento del pasado, los continuos atropellos y violencias se promueven a partir de este incesante sopor de negligencias. Para trascender la sombra, la humanidad ha de reconocer su sombra. El continuo mental corre actualmente desde categorías marginales, los algoritmos emulan este continuo mental.

1 Garro, E. (1964). La culpa es de los tlaxcaltecas.

2 Holloway D. (2019, Junio 24) Explainer: what is surveillance capitalism and how does it shape our economy? The Conversation https://theconversation.com/explainer-what-is-surveillance-capitalism-and-how-does-it-shape-our-economy-119158

3 Noble, Safiya (2018). Algorithms of oppression: How search engines reinforce racism. New York, NY, US: New York University Press. p. 230.

4 Klein N., Zuboff S., Browne S. (September 11, 2020) Surveillance in an Era of Pandemic and Protest. The Intercept https://theintercept.com/2020/09/11/coronavirus-black-lives-matter-surveillance/ 

5 ATLAS of Surveillance Documenting Police Techin Our Communities A project of the Electronic Frontier Foundation https://atlasofsurveillance.org/  

6 Minority Rights Group (2020, September 10) Inequality and the impact of Covid-19: How discrimination is shaping the experiences of minorities and indigenous peoples during the pandemic. Publication. https://minorityrights.org/publications/covid-briefing/ 

7 Tamene M., Hailu E., Berkowitz R-, Gao X. (2020, September 15) Why Black, Indigenous and Other People of Color Experience Greater Harm During the Pandemic Scholars take a deep dive into how structural racism intersects with public health. Smithsonia Magazine https://www.smithsonianmag.com/smithsonian-institution/why-blacks-indigenous-and-other-people-color-experience-greater-harm-during-pandemic-180975773/

8 McIlwain C. (Junio 3, 2020) Of course technology perpetuates racism. It was designed that way.Black Americans have seen technology used to target them again and again. Stopping it means looking at the problem differently https://www.technologyreview.com/2020/06/03/1002589/technology-perpetuates-racism-by-design-simulmatics-charlton-mcilwain/ 

9 O’Neillby N. (September 4, 2020) Faulty Facial Recognition Led to His Arrest—Now He’s Suing Michael Oliver is the second Black man found to be wrongfully arrested by Detroit police because of the technology—and his lawyers suspect there are many more   https://www.vice.com/en_us/article/bv8k8a/faulty-facial-recognition-led-to-his-arrestnow-hes-suing

10 García M. (2020, Agosto 28) Los intocables de Mark Zuckerberg El Pais.https://elpais.com/economia/2020-08-28/los-intocables-de-mark-zuckerberg.html 

11 Martínez Alonso (Septiembre 21, 2020) Twitter tiene un algoritmo racista (pero hay otras fallas de la tecnología) GQ https://www.gq.com.mx/estilo-de-vida/articulo/twitter-su-algoritmo-racista-y-el-racismo-en-la-tecnologia

12 Lapowsky I. (October 26, 2017) What Did Cambridge Analytica Really Do for Trump’s Campaign? https://www.wired.com/story/what-did-cambridge-analytica-really-do-for-trumps-campaign/  

13 Orlowski J. (Director). (2020). The Social Dilema [Film]. Exposure Labs; Argent Pictures; The Space Program.

14 Komasa J. (Director). (2020). The Hater [Film]. Naima Film

15 Pinkola Estés, C. (2001). Mujeres que corren con los lobos. LIBERDOPLEX


Leer otras entradas de Blog

¿De qué se trata RioVmedia?

Se trata de un proyecto que recabamos opiniones, datos e ideas, es un espacio libre en el que publicamos lo que pensamos. Como resultado, notarás que no tenemos un objetivo por lo que los temas son diversos.