Murilo Duarte Costa Corrêa[1]
Giuseppe Cocco[2]
Esta panoplia analítica, junto con la atmósfera emocional que movilizan, pueden converger en lo que Shoshana Zuboff (2020) ha denominado «capitalismo de la vigilancia». Condensado en esta expresión, el término «vigilancia» pretende anunciar una nueva etapa del «capitalismo», marcada ahora por una condición ultraorwelliana de control y transparencia totales. Lo que Zuboff propone no es la noción de un gran hermano espiando las vidas de todos, sino la de un gran otro, una idea inoculada por una nueva configuración de la economía política del poder denominada «poder instrumental».
Cuando el determinismo tecnológico parece haber sido abandonado, el enfoque del capitalismo de vigilancia reintroduce el determinismo económico del neoliberalismo y sus nuevas técnicas de poder (Han, 2018), con el aire de una matriz crítica general y seductora. Sin embargo, en lugar de proporcionar herramientas y alternativas para la acción política, sostenemos que este camino no hace más que trazar una servidumbre general a la tecnología de la que se habría vuelto imposible desertar.
Si la aceleración algorítmica[3] implica y moviliza el desarrollo de la nube informática, estos enfoques críticos dan lugar a su vez a una niebla intelectual que lleva a un callejón sin salida el pensamiento sobre la técnica, la tecnología y el capitalismo contemporáneos. Por un lado, abordan el «malestar» de la cultura algorítmica (Supiot, 2015). Por otro, en lugar de aportar soluciones, esta perspectiva crítica no hace sino paralizarnos ante los verdaderos y urgentes retos que se nos avecinan. El éxito editorial de dicha literatura circundante atestigua el impacto de las ansiedades psicosociales generadas por la aceleración algorítmica,ante las crecientes incertidumbres engendradas sobre el futuro.
Si, por un momento, la noción de capitalismo cognitivo (Boutang, 2012) captó adecuadamente las transformaciones del valor, fue porque tenía como punto de partida el análisis de las transformaciones del trabajo, particularmente vinculadas a los temas del general intellect. Estos análisis proponían un capitalismo posfordista enredado con las luchas de la multitud del trabajo inmaterial -el que tiene lugar en la circulación metropolitana, como inteligencia organizada en red, y que resulta de la cooperación entre las singularidades que componen la multitud (Hardt y Negri, 2005).
Para nosotros, el problema del argumento crítico del capitalismo de vigilancia reside en que su análisis pasa por alto el punto de vista del trabajo y de las luchas, y no tiene suficientemente en cuenta la cuestión de la coordinación social. El capitalismo es, en efecto, un modo de explotación del trabajo, pero es también (y antes que eso) un modo de gestión de la sociedad. Pasar por las luchas no es una cuestión moral, sino más bien una cuestión de método. Como diría Marx, las luchas son internas al capitalismo, incluso en su configuración postindustrial o algorítmica.
Necesitamos aprehender la técnica de un modo no esencialista. Problematizarla requiere la reactivación de sus dimensiones políticas: las luchas transversales inmanentes a los ensamblajes tecnosociales. En otras palabras, nos parece que el verdadero impasse reside en las luchas sociales, y no en el «capitalismo». Por lo tanto, necesitamos pensar la técnica en un sentido operacional, procedimental y metaestable. Sólo las luchas hacen que la técnica sea pensable como problema, y ya no como «cuestión».
Para ello, necesitamos concebir los algoritmos como objetos o seres técnicos, abiertos a la exterioridad y al desdoblamiento, inacabados, en el sentido en que los ha visto el filósofo de la técnica y la individuación Gilbert Simondon. Esto significa entender los algoritmos como procesos reales desarrollados por las «líneas [de su] génesis como única esencia verdadera» (Simondon, 2020, p. 233). En el vocabulario de Simondon, la «esencia» ya no se refiere al «ser en general» o a la «ontología», sino a la relación, al proceso y al devenir, condición para que el pensamiento de la técnica supere el impasse de la crítica y pueda redescubrir sus luchas.
El problema nunca ha sido la técnica ni los algoritmos, sino las luchas que constituyen el significado de los objetos técnicos y producen sus modos de existencia. El callejón sin salida en el que nos encontramos no lo define el capitalismo ni la vigilancia, sino las dificultades para captar las luchas que lo atraviesan. Paradójicamente, definir el capitalismo en términos de vigilancia nos adentra aún más en un callejón sin salida. Dejémoslo claro: no tenemos respuestas sobre cómo salir de él. Pero eso no nos exime de intentar formular problemas apropiados que puedan liberar caminos.
Para ello, argumentaremos en dos secciones de este ensayo que el enfoque del capitalismo de vigilancia oscurece la perspectiva del trabajo y de las luchas, sumiéndonos en un callejón sin salida y en el inmovilismo político. La primera, titulada «El capitalismo de vigilancia», está dedicada a definir, con los contrapuntos críticos adecuados, los contornos de la atmósfera intelectual y emocional que constituyen este enfoque, revisando la literatura contemporánea que contribuye a su formalización. Esta sección organiza la prospección a partir de las ideas de «instrumentalismo», que se manifiesta en el poder instrumental, y de «extracción de datos» mercantilizada, encarnada en el modelo económico-político de las big techs; por último, sobre la idea de «reiteración» (recursividad o bucle de retroalimentación), que nombra el régimen de reproducción automática de las sociedades gobernadas por algoritmos.
Como veremos, las tres principales constataciones correspondientes a cada eje de análisis serán: el inmovilismo político ante el impasse tecnológico y extractivo; la desconexión entre la crítica del capitalismo y las luchas sociales; y, por último, la representación de un automatismo social generalizado, regido por algoritmos, que cierra esta cadena de razonamientos en una tautología emanada del impasse que describimos.
La segunda sección, titulada «La brecha entre vigilancia y seguridad», vuelve a situar la brecha entre vigilancia y seguridad en el contexto de la pandemia de Covid-19, y propone vías para salir del callejón sin salida del capitalismo de la vigilancia. Para ello, interpreta el capitalismo algorítmico como un terreno material en el que las luchas y los procesos sociotécnicos se potencian mutuamente. El argumento se desarrolla articulando dos dimensiones de esta brecha y tres luchas recientes en las que podemos verlas manifestarse. Esta brecha se extiende tanto a la acción política de los movimientos sociales contemporáneos, de algún modo atravesados por las tecnologías digitales, como a la dimensión de las políticas públicas.
En la dimensión vertical de la brecha vigilancia/seguridad, hemos recuperado la relación entre la seguridad y el control genuinamente biopolítico de la crisis sanitaria desencadenada por la pandemia del Covid-19. En la dimensión horizontal de la misma brecha, recuperamos la noción de sousveillance (vigilancia desde abajo) como contrapunto a la surveillance (vigilancia desde arriba) para detectar las tendencias de las luchas que emergen tanto del caso de George Floyd, en la reignición de Black Lives Matter, desatada a escala global, como de las luchas de los trabajadores de las apps de repartidores -lo que reinserta en el análisis las dimensiones de la subjetividad, por un lado, y del trabajo contemporáneo, por otro.
De este modo, intentamos volver a la técnica como terreno inmanente en el que se desarrollan las luchas, basándonos en la fuerza de los movimientos antirracistas y de los trabajadores de las aplicaciones de reparto, como luchas que han tenido lugar dentro de la «aceleración de la aceleración» algorítmica desatada en el escenario pandémico.
En La era del capitalismo de la vigilancia, Shoshana Zuboff describió el fenómeno que da título a su libro como un amplio diagrama de poder que funciona como «el titiritero que impone su voluntad a través del omnipresente aparato digital» (Zuboff, 2020, p. 427); como «el mago tras el telón digital» (Zuboff, 2020, p. 429), para quien el instrumentalismo funciona como una «arquitectura práctica» (Zuboff, 2020, p. 472) ordenada a minar la realidad.
Lo que Zuboff denominó «poder instrumental», nombrando así su régimen específico de poder, reproduce la estructura social establecida por el modo de producción material del capitalismo de vigilancia. Su advenimiento se basa en la ubicuidad de los aparatos digitales, las infraestructuras de red, la creciente potencia de procesamiento informático y los efectos sin precedentes de la totalización social para imponerse como tecnología universal del comportamiento. Las condiciones materiales de producción, y del nuevo régimen de acumulación que presentará «la vigilancia como servicio» (Zuboff, 2000, p. 480), instancian la asimetría de poder entre las grandes tecnológicas, sus magos y sacerdotes, y los usuarios ordinarios. Estos últimos ya no son, como en el adagio neoliberal, «los productos» de servicios gratuitos, sino «los cadáveres abandonados» (Zuboff, 2000, p. 429) de continuas acciones de «caza» en busca de «excedentes de comportamiento».
La ingeniería conductista mezcla neoliberalismo y conductismo radical. Hace uso de la omnisciencia, el control y la certeza extraídos y gestionados activamente en beneficio de los mercados de futuros conductistas. Todo ello convierte el poder instrumental en un nuevo tipo de saber-poder estadístico y totalizador, generando un automatismo social que tiende a ser absoluto: «un orden digital que prospera dentro de las cosas y los cuerpos, transformando la voluntad en refuerzo y la acción en respuesta condicionada» (Zuboff, 2020, p. 430).
El poder instrumental implica un régimen de gobierno de los flujos de comportamiento, que son predecibles y modificables, inhibiendo por defecto cualquier amenaza de inestabilidad. En esta subsunción de la sociedad por el nuevo orden de acumulación, la propia utopía se convierte en una práctica experimental de poder que dirige los flujos de las acciones humanas imitando a las máquinas. Esta es la razón por la que Zuboff (2020) prevé que las verdades computacionales sustituyan a las verdades políticas.
El capitalismo de la vigilancia rearticula así la vieja «razón instrumental» en términos del poder instrumental del gran otro. Desde el punto de vista de Zuboff (2020,), el gran otro generalizaría un «totalitarismo digital» basado en datos públicos y privados, con el objetivo de alcanzar el mayor nivel posible de automatización social. El gran otro se caracteriza como un régimen institucional, ubicuo y en red que registra, modifica y mercantiliza las experiencias cotidianas de las personas y las cosas con el fin de establecer nuevas vías de monetización.
Aunque reconfigura las sociedades de masas, también hace irrelevante la conformidad social, en la medida en que el gran otro impone «un nuevo tipo de automaticidad» (Zuboff, 2020, p. 430) del comportamiento basada en datos conductuales que retroalimentarían, según un amplio circuito de valorización capitalista, nuevas pautas que siguen la lógica de estímulo-respuesta que describieron conductistas radicales como B. F. Skinner. Según Zuboff, lo que habría faltado para hacer practicable una visión como la de Skinner era la «verdad computacional» que los datos, los registros de flujos, el aprendizaje automático y la modelización informática pueden proporcionar hoy en día.
Las descripciones de una sociedad instrumental, totalizada y subsumida por el capitalismo de vigilancia (Zuboff, 2020) inspirarán una atmósfera paranoica, en la que el peligro de la irracionalidad en red se transforma tautológicamente en un fatalismo crítico de la razón. En las sociedades en red, el instrumentalismo se moviliza para fabricar diferencias que se incitan, se dejan libres, se desarrollan, circulan, se multiplican y, a continuación, se explotan, se extraen, se movilizan y se modulan según múltiples estrategias de generación de valor mediante la ingeniería del comportamiento. La producción de valor conductual se ha convertido en el terreno para extraer plusvalía de las singularidades, las diferencias fragmentarias y las dividualidades (Raunig, 2016). Esta sería la última frontera del saber-poder instrumental que caracteriza al capitalismo de vigilancia.
La estandarización, la adaptación y la conformidad de las antiguas sociedades industriales se sustituyen ahora por la singularización, la extracción y la modulación de las redes instrumentales. De este modo, el planteamiento en términos de capitalismo de vigilancia nos coloca en una situación en la que la única versión posible de la crítica se sitúa en el lado de la tecnofobia paranoica y en el lado opuesto de la tecnofilia permisiva.
Un intento de salir de este callejón sin salida consistiría en calificar la vigilancia de extractivista. Así, el capitalismo contemporáneo no sólo sería vigilante, sino también extractivista, y lo que vincula un término con el otro son precisamente los datos. Por tanto, la crítica se dirigirá contra el modelo extractivo de producción, con el objetivo de interceptar la línea de tendencia que recorre la tierra, los cuerpos y los medios de comunicación.
En otro contexto territorial y metabólico, Maristella Svampa (2019) resumió el extractivismo en tres términos: 1/ el extractivismo es un régimen de acumulación capitalista continua; 2/ aprovecha la intensificación del intercambio metabólico entre los seres humanos y la naturaleza; y 3/ su objetivo es exportar mercancías (materias primas, energía, recursos) según los vectores de un diagrama colonial que pone las periferias al servicio de los centros globales.
La descripción del capitalismo de vigilancia, por su parte, se basa en la evolución de los modelos de negocio de las grandes tecnológicas estadounidenses y chinas (sobre todo, Google, Facebook, Amazon, Alibaba, Baidu y Tencent, por ejemplo). Su premisa es que el capitalismo contemporáneo ha evolucionado del modo de producción fordista a la técnica extractiva del modelo Google. Mientras que el primero correspondía a una economía a escala de expropiación del trabajo que proporcionaba productos y servicios, el modelo Google habría encapsulado un nuevo tipo de economía parasitaria, basada en la extracción de datos.
Así, ya no sólo se acumulan materias primas y mercancías, ni se expropia únicamente mano de obra; más que eso, se extraen y acumulan datos enriquecidos con «valor conductual» a través de arquitecturas computacionales globales y difusas con el fin de modelar el comportamiento y aumentar su predictibilidad. Los productos y servicios ya no tienen valor en sí mismos, salvo como vías en continua construcción, y como pruebas para constituir mercados de futuros del comportamiento, haciendo sostenible la extracción de datos a gran escala (Zuboff, 2020).
No es difícil ver que los rasgos esbozados en la crítica del extractivismo se incorporan al enfoque adoptado por el capitalismo de vigilancia: 1) el extractivismo es un régimen de acumulación continua, ahora diseñado computacionalmente por la vigilancia; 2) al ampliar las interacciones entre el hombre y la naturaleza, el capitalismo de la vigilancia se sustentaría en la intensificación de los intercambios metabólicos entre la naturaleza de los cuerpos y el carácter posthumano de los medios de comunicación, una intensificación que se ha visto favorecida por la ubicuidad de los sensores extractivos, los gadgets y los wearables; 3) se mantiene el propósito de extraer mercancías (datos) según los vectores de un diagrama colonial que va desde las periferias de la vida cotidiana hasta las plataformas verticalizadas de las Big Techs en Silicon Valley.
En cierto modo, estos dos poderosos enfoques del capitalismo extractivo se cruzan en su crítica a la mercantilización de los datos. El lema «los datos son el nuevo petróleo» (Bridle, 2018) ha irrumpido en la literatura denunciando las amenazas a la democracia liberal (O’Neil, 2020; Zuboff, 2020) o proclamando el fin de la propia política (Morozov, 2018). Esta mutación habría transformado permanentemente el propio régimen de acumulación y concentración de la riqueza, reorganizando las arquitecturas computacionales y sociales para estos fines.
En cierta medida, las críticas al extractivismo de la tierra y de los datos integran el mismo diagnóstico, consistente en la amenaza a una «ecología democrática de los derechos». Mientras Svampa (2016) defiende la ecuación «más extractivismo, menos democracia», Zuboff (2021) firmó un artículo de opinión en The New York Times defendiendo la incompatibilidad entre capitalismo de vigilancia, democracia y derechos humanos.
Aceptar todo esto implica admitir que la técnica subsume tanto el campo social como las alternativas políticas que genera. En consecuencia, no habría lugar para las luchas, salvo quizás un nuevo ludismo totalmente negativo (Mueller, 2021). ¿Deberíamos entonces estar de acuerdo con Han (2018) y proclamar la obsolescencia de las luchas? Para los teóricos del capitalismo de la vigilancia, la política permanece bloqueada por la ontología de la técnica, y toda disidencia potencial ha sido absorbida por un modelo de gobernanza por reiteración. Estaríamos en el apogeo de la automatización social y nos moveríamos en la lógica plena de la vigilancia. In extremis, todo sucede como si fuéramos autómatas gobernados por algoritmos autónomos engendrados por un paradigma carcelario general y a cielo abierto (Katz, 2020).
Gran parte de la literatura contemporánea sobre tecnología se mueve en una atmósfera en la que la tarea negativa de la crítica implosiona en forma de denuncia de la gobernanza automatizada, de una sociedad de repetición, digitalmente normalizada y ontológicamente reiterativa. En este ámbito, todas las huellas que nos permitirían ver posibles reconexiones con el terreno de las luchas, o con los componentes políticos de un ensamblaje sociotécnico, quedan neutralizadas a priori.
Estos enfoques siguen concibiendo la inteligencia artificial (IA) contemporánea como el resultado lineal de la cibernética y su efecto de retroalimentación (Pasquinelli, 2023). Tanto es así que la recursividad, los bucles de retroalimentación y su repetición infinita constituyen uno de los problemas centrales en la forma en que el enfoque del capitalismo de vigilancia interpreta los algoritmos. Allí, la complejidad y la indeterminación técnica de los algoritmos acaban reduciéndose a la noción matemática de función recursiva: es decir, «una función que se repite hasta alcanzar un estado estacionario» (Hui, 2019, p. 120-121).
Cathy O’Neil (2020) hizo hincapié en la recursividad de los algoritmos. Todo sucede como si los algoritmos fueran máquinas del tiempo, controlando el presente y bloqueando el futuro a través de funciones matemáticas opacas y omnipresentes que operan sobre la acumulación de datos pasados, obtenidos mediante la extracción e imposición blanda de la hipervisibilidad social.
Dado que las políticas públicas y privadas que permiten el ejercicio de los derechos pasan a estar indexadas a algoritmos, éstos serán considerados responsables de la reiteración ciega y la automatización de determinadas estructuras sociales. Para Virginia Eubanks (2018) o Yarden Katz (2020), los algoritmos y la IA no son más que modelos cuya flexibilidad se pone al servicio de invariantes estructurales: reproducción de desigualdades, sesgos de género, raza, pobreza y criminalización, revigorización del privilegio blanco, etc.
Estos son los términos en los que se plantea la tensión entre la recursividad (repetición) y la contingencia (diferencia) según los teóricos del capitalismo de la vigilancia. Describirán los algoritmos y la IA como máquinas gubernamentales que colonizan las contingencias y eliminan las posibilidades. Toda variación no sería más que un simulacro de diferencia o un epifenómeno de la repetición determinista de una estructura predispuesta a la reiteración.
Esta descripción amplía una premisa distópica, de la que se hace eco el concepto de Zuboff del gran otro (2020): «Quien controla el pasado controla el futuro; quien controla el presente controla el pasado» (Orwell, 2009, p. 47). Sugiere que el problema de la repetición de lo idéntico, o la relación entre la memoria y el futuro, está determinado de antemano por las estrategias de poder que operan en el presente. En otras palabras, los algoritmos y la IA no son más que instrumentos de repetición de lo idéntico y de control de las contingencias. El futuro aparecerá bloqueado no por la máquina algorítmica de gobierno, sino por la fuerza que une la memoria de los datos, el presente de las relaciones de poder y las virtualidades de la acción humana.
Estos análisis pasan por alto los verdaderos retos que plantea la aceleración algorítmica. Una de las mayores paradojas se deriva de la creencia sin reservas en las metáforas utilizadas para subrayar la importancia estratégica de los datos, y definirlos así como mercancías: como si fueran equivalentes a los minerales o al petróleo. En efecto, los datos -es decir, la información- son fundamentales y constituyen la gran reserva de la aceleración algorítmica. Aunque funciona de forma radicalmente distinta a las mercancías primarias que aparecen en el retrovisor de los analistas que reducen el capitalismo contemporáneo a una deriva vigilante y extractivista, o de mero «expolio».
En primer lugar, la masificación de los datos (big data), que ahora fundamenta los modelos de negocio de GAFAM,[4] se deriva de un proceso de conexión generalizada (el internet de las cosas). Las conexiones preceden a los datos e instancian su producción. En segundo lugar, a diferencia de las mercancías, los datos son bienes «no rivales»: el uso que se hace de ellos no impide que otros sigan utilizándolos (Haskel; Westlake, 2018). A medida que los yacimientos minerales se agotan, la explotación de datos genera volúmenes aún mayores de datos, en espiral. En tercer lugar, la disponibilidad de vastos almacenes de datos ha permitido el renacimiento de una rama antes marginada de las técnicas de Inteligencia Artificial: el conexionismo (Dupuy, 2009). Junto con el aumento exponencial de la potencia de cálculo de la máquina de computación planetaria, el Big Data es uno de los factores determinantes de la aceleración basada en algoritmos de aprendizaje profundo, es decir, el tipo de Inteligencia Artificial que ha sustentado la aceleración algorítmica de los últimos diez o quince años.
Así, cuantos más datos se utilizan, más aumentan los flujos de datos, convirtiendo la economía global en una «máquina de datos en movimiento perpetuo» (Slaughter & Cormich, 2022). No funciona como una mera extracción de mercancías, sino como una producción algorítmica de significados que se despliegan a partir de significados anteriores. Esto es lo que se ha denominado «innovación impulsada por los datos», un proceso que puede fomentar la innovación incesantemente, sin agotarse.
Un ejemplo de ello, que se detallará a continuación, fue la circulación online de datos sobre la secuencia genética del virus COVID-19. Apenas un mes después de que se notificara la primera infección, estos datos permitieron a las grandes empresas farmacéuticas, como la estadounidense Moderna, empezar a trabajar inmediatamente en una vacuna, añadiendo esta información a la que ya habían desarrollado basándose en el innovador concepto de «ARN mensajero» (Ball, 2020).
Otro ejemplo correlativo fue la gestión de la curva de contagio en los primeros meses de la pandemia. Como también discutiremos a continuación, demostró que el probabilismo puede ser una herramienta biopolítica para proteger la vida -por ejemplo, en el seguimiento de la propagación del contagio, o en la evaluación del equilibrio entre la protección de la salud y la minimización del coste del capital humano (Zhunis et. al, 2022); o incluso para orientar las decisiones y la logística de la distribución de vacunas (Bicher et al., 2022). Lejos de que el probabilismo estadístico y la predicción sean meramente reiterativos de una formación social determinada, pueden ser herramientas vinculadas a dinámicas materiales atravesadas por bifurcaciones y llenas de posibilidades de lucha.
En nuestra opinión, las técnicas constituyen un terreno de luchas que un enfoque basado en el capitalismo de vigilancia no puede captar plenamente. A continuación presentaremos dos brechas que ayudan a demostrar concretamente las múltiples formas en que las tecnologías digitales constituyen un medio para el desarrollo de las luchas.
Por lo tanto, señalamos y analizamos las brechas entre vigilancia y seguridad, y entre las dimensiones vertical (vigilancia) y horizontal (sousveillance) de la vigilancia y el control. Su matización nos permite mostrar cómo fueron capaces de articularse biopolíticamente durante los peores momentos de la pandemia de Covid-19, pero también dota al campo social de nuevas armas en el contexto de las luchas raciales y democráticas contra el racismo y la violencia policial. Mientras tanto, sus desarrollos dieron testimonio a favor de la reversibilidad política de las tecnologías, especialmente en lo que respecta a las luchas de los trabajadores de las aplicaciones de reparto.
Como veremos, las líneas de tendencia que emergen aquí están directamente conectadas con las políticas públicas de gestión de riesgos sanitarios (en el caso de la pandemia), de control de la actividad policial (en el caso de Black Lives Matter) y de renta básica universal (en el caso de los trabajadores de app).
La definición del capitalismo contemporáneo como «vigilancia» plantea la cuestión de si Michel Foucault se equivocó al atribuir esta cualidad al régimen disciplinario típico del capitalismo industrial. Al revés, pensamos que la periodización de Foucault -actualizada por la «Posdata sobre las sociedades de control» de Gilles Deleuze- sigue siendo productiva. Sobre todo si se toma más como punto de partida (y de apoyo) que como punto de llegada. La pertinencia del enfoque foucaultiano queda demostrada por su capacidad para captar las tensiones que configuran el nuevo régimen de poder y, lo que es más importante, la precedencia de las luchas que lo atraviesan.
El concepto de vigilancia remite a un universo concentracionario cuyo paradigma es la «prisión-fábrica». No es casualidad que las dos formas delirantes y especulativas de la modernidad disciplinaria -el socialismo real y el nacionalsocialismo- pretendieran afirmar un modelo de coordinación basado en los campos de trabajos forzados soviéticos y en los campos de concentración y exterminio nazis. El Gulag soviético[5] , así como el lema arbeit macht frei («el trabajo os hace libres») -aún legible en el pórtico del campo de concentración de Auschwitz- fueron los rostros explícitos y radicales de un sistema de vigilancia laboral planificado como régimen penal.
De hecho, al comentar la gubernamentalidad algorítmica contemporánea, Yarden Katz (2020) equiparó nuestra condición a la de un régimen «carcelario general al aire libre». Esto quizá recuerde a Michael Hardt (1997), que criticó la noción de «exterior» para decir que «la vida en prisión sólo revela la vida como prisión». Los aparatos disciplinarios, sin embargo, controlan los cuerpos de cada individuo insertándolos en una serialización masiva y haciendo uso de herramientas punitivas que restringen explícitamente la libertad. Lo que hoy está en juego parece ser de otra magnitud.
Ya en la segunda mitad de la década de 1970, Foucault se anticipó al giro neoliberal investigando el «nacimiento de la biopolítica» en la interacción entre seguridad, territorio y población. Estaba claro que el paso de las tecnologías disciplinarias a las de seguridad no implicaba la desaparición de las precedentes (como la soberanía arcaica y la disciplina industrial). Sin embargo, esto no borró el hecho de que las tecnologías de seguridad se impusieron a las anteriores. En la definición de las tecnologías de la seguridad encontramos una mención a los «datos» avant-la-lettre. «La seguridad», afirmaba Foucault (2004, p. 18-19), «se basa en una cierta cantidad de datos materiales«. Se ejerce sobre «un espacio lleno de fenómenos y acontecimientos» como el arte de «minimizar los elementos negativos y maximizar los positivos mediante el estudio y la modelización de las probabilidades» (Foucault, 2004, p. 19).
Ya hemos mencionado el papel que desempeñaron los datos en la invención algorítmicamente acelerada de una vacuna eficaz en la lucha contra el coronavirus. Sin embargo, en cuanto la Organización Mundial de la Salud (OMS) declaró que nos enfrentábamos a una pandemia, el debate inicial sobre las políticas de contención y la gestión de la curva de contagio -que tuvo lugar entre marzo y mayo de 2020- puso de manifiesto cómo la tecnología de la seguridad era (y sigue siendo) el sustrato de la razón neoliberal: un sustrato tan poderoso que los mercados sufrieron um bloqueo inesperado (Boutang, 2020).
El debate en el contexto de la emergencia sanitaria se articuló entre la modelización de los efectos probables de la velocidad de propagación del virus y los imperativos de «aplanar la curva» de la contaminación. Era un ejemplo perfecto de la definición general de seguridad propuesta por Foucault: «Modos y tecnologías utilizados para mantener un determinado tipo de fenómeno dentro de unos límites social y económicamente aceptables» (Foucault, 2004, p. 06).
Occidente nunca trató de erradicar el contagio, como en la política china de cero covirus. El objetivo era detener su propagación, mantenerla por debajo de un determinado índice y evitar la saturación del sistema sanitario. En el centro de esta estrategia estaban los próximos datos sobre la curva de nuevas infecciones. Como en la definición: organizar el fenómeno «en torno a una media que se considerará óptima para el funcionamiento de una sociedad dada» (Foucault, 2004, p. 07). No es casualidad que los lectores heideggerianos de Foucault (Agamben, por ejemplo) se alinearan inmediatamente con el negacionismo de la extrema derecha (como Trump y Bolsonaro), protestando contra las medidas gubernamentales para proteger a la población -hasta el punto de unirse a las manifestaciones noVax (Cocco, 2022). En las lecturas paranoicas, seguridad y vigilancia son equivalentes.
Sin embargo, esto distaba mucho de lo que nos ha dicho Foucault. Según él, la brecha era, de hecho,más matizada. En la pandemia, la biopolítica apareció como una política de la vida, mientras que la población surgió como un «medio» de existencia natural y artificial, un «punto de articulación entre cultura y naturaleza que [es] el terreno para el ejercicio de las tecnologías de seguridad» (Foucault, 2004, p. 24). Aquí encontramos la brecha entre vigilancia y seguridad: la primera pretende disciplinar a los sujetos para que produzcan riqueza; la segunda pretende constituir a la población en relación con un medio de vida, existencia y trabajo. Si la disciplina implica gobierno, la seguridad es gubernamentalidad (Foucault, 2004, p. 24). En las «luchas contra la asfixia» (Corrêa, 2021) libradas durante la pandemia, apareció sin duda esta brecha, y mostró cómo las lecturas tecnofóbicas podían avalar una necropolítica de la nueva extrema derecha.
Aunque el debate sigue abierto, la cuestión de la vigilancia no contribuye a desbloquear la situación. Es necesario buscar de otro modo estas líneas de fractura coherentes con las luchas sociales. El concepto de «seguridad», tal y como lo problematizó Foucault desde el punto de vista de las tecnologías probabilísticas de gestión de riesgos, está tan atravesado por vectores biopolíticos como por cotejos de controles. Cuando este concepto comenzó a desplegarse, las lecturas paranoicas de Foucault se encontraron con la oposición de quienes querían matizar las tecnologías de seguridad recurriendo a la diferencia implícita entre biopolítica y biopoder. Mientras que la biopolítica implicaría una política de la vida, del «hacer vivir» como poder, el biopoder habría sido una tecnología de poder sobre la vida, una forma casi totalitaria de hacer vivir. En nuestra opinión, no sólo es imposible encontrar esta distinción en Foucault, sino que además es inútil. A Foucault le interesaba entender cómo circula el poder y, al mismo tiempo, cómo evitar los efectos de la dominación, cómo fortalecer las relaciones de fuerza frente a los estados de dominación.
Lo que la pandemia puso de manifiesto fue otra cosa. Dado que el biopoder hizo explícita su dimensión de protección de la vida, la oposición impulsada por la nueva extrema derecha apareció abiertamente como una necropolítica. La política de dejar morir a «los débiles» no era inherenteal biopoder, como pensaba Foucault en su curso de 1976 (Foucault, 1997) -y también subrayaron Roberto Esposito (2004) y Achille Mbembe (2019), inspirados por él. En la urgencia de la pandemia, la necropolítica aparecía claramente separada y contraria al biopoder, configurando una nueva tendencia del fascismo.
Al hacerlo, puso de manifiesto cómo la vigilancia en las sociedades occidentales es limitada, hasta el punto de que las aplicaciones para seguir la propagación de la infección no pueden implementarse, salvo de forma opcional. En China, por el contrario, la vigilancia estaba integrada en la política de cero COVID, y no por la vía pastoral, sino a través del modelo de caza del virus (Keck, 2014). Así, recuperar la noción foucaultiana de seguridad en toda su amplitud nos permite pensar la vigilancia no como una característica fundamental del capitalismo contemporáneo, sino como una de las brechas contradictorias entre su dimensión biopolítica y su manifestación necropolítica – cristalizada hoy en día en la nueva extrema derecha global.
Se trata de uma brecha que puede dar lugar a otras. Por ejemplo, las que podrían derivarse de una mejor comprensión del mecanismo de valoración que implica la seguridad y la conexión de los datos. McAffee y Brynjolfsson (2017) destacaron que este cambio se ha convertido en un patrón: «Uber, la mayor empresa de taxis del mundo, no posee taxis»; «Facebook, el medio de comunicación más popular del mundo, no produce contenidos»; «Alibaba, el minorista más valioso, no tiene inventario, y Airbnb, la mayor empresa de alojamiento, no posee bienes inmuebles» (McAfee y Brynjolfsson, 2017, p. 06). Estas empresas ligeras en activos alcanzaron muy pronto cientos de millones de usuarios. En 2015, un millón de personas al día utilizaron Uber en 300 ciudades de 60 países diferentes (McAfee y Brynjolfsson, 2017, p. 07).
Más que de capitalismo de vigilancia, se trata de empresas cuyo capital es el conexionismo; que engendran procesos de valorización mediante la producción incesante de consistencias, el tejido de tramas entre máquinas, plataformas y la multitud. A diferencia de la mayoría de los productos y servicios, cuyo valor es independiente o disminuye con la presencia de otros usuarios, el valor y el atractivo de las plataformas en red crece a medida que más y más usuarios las adoptan, un proceso que los economistas denominan efecto red positivo (Kissinger et al., 2021). Este efecto se produce en «actividades de intercambio de información en las que el valor crece junto con el número de participantes» (Kissinger et al., 2021, p. 102).
Es la propia dinámica de valorización de las plataformas en red la que lleva a algunas de ellas a conservar cientos de millones, e incluso miles de millones de usuarios, mientras que otras desertan y mueren. En otras palabras, «las plataformas de red son fenómenos inherentemente a gran escala» (Kissinger et al., 2021, p. 100). Por lo tanto, la tensión antagónica que impulsa las luchas puede no estar en la vigilancia, sino que podría estar en la dinámica de creación de valor que hace que la IA utilizada por las plataformas de red produzca una «intersección entre los humanos y la Inteligencia Artificial a una escala que sugiere un acontecimiento de importancia civilizacional» (Kissinger et al., 2021, p. 95).
La pandemia ha sido un teatro de luchas dinámicas que tal vez indiquen lagunas en el enigma vigilancia/seguridad. Sin contar las movilizaciones dentro del sistema sanitario en un esfuerzo por luchar conjuntamente contra el virus y el negacionismo, podemos señalar dos líneas de movilización, entre muchas: la que se libra contra el racismo en Estados Unidos, y la de los repartidores de aplicaciones. Cada una de estas luchas atraviesa y es atravesada por la aceleración algorítmica.
El 25 de mayo del año 2020, George Floyd, un ex guardia de seguridad estadounidense de raza negra, fue asesinado por un agente de policía blanco en Minneapolis. Horas después comenzaron las protestas callejeras que proliferaron rápidamente hasta convertirse en un gran movimiento nacional que duró meses y desempeñó un papel importante en la derrota electoral de Donald Trump (Tensley, 2020).
El mecanismo fundamental de la movilización fue la difusión de vídeos grabados por transeúntes que presenciaron la escena de la asfixia policial de Floyd. No era la primera vez que la visibilidad de la violencia policial racista actuaba como detonante de una revuelta. Basta recordar los violentísimos disturbios de seis días que sacudieron Los Ángeles en 1992, poco después de que un jurado absolviera a cuatro policías acusados de golpear a Rodney King, un conductor negro.
Los dos episodios tienen mucho en común: el racismo de algunos sectores de la policía de ciertas ciudades estadounidenses y el violento levantamiento que inmediatamente se apoderó de las calles. Pero hay grandes diferencias que muestran cómo la técnica puede funcionar como terreno de lucha. El detonante en Los Ángeles fue la presencia fortuita de alguien que, con una cámara, grabó un vídeo que luego difundieron las cadenas de televisión. El asesinato de Minneapolis, en cambio, quedó grabado en los smartphones de varios transeúntes. Al principio, las imágenes se hicieron virales en las redes sociales. Sólo se emitieron por televisión cuando la revuelta ya se había apoderado de todas las ciudades de Estados Unidos. A lo largo de los meses de protestas, el uso de las redes sociales para convocar manifestaciones, y de los smartphones para grabar las movilizaciones y vigilar los abusos de la represión (por ejemplo, frente a la Casa Blanca, con la presencia del propio Donald Trump), no cesó en ningún momento.
Esta tendencia se mostró en otros episodios de violencia racista cometidos por la policía, como el asesinato por estrangulamiento de Eric Gamer en 2014 en Nueva York, del que procede el lema «No puedo respirar» que repetiría seis años después George Floyd. En 2014, una revuelta siguió al asesinato de Michael Brown a manos de un policía en Ferguson. En 2015, fue el asesinato de Freddie Gray, que murió en un coche de policía de Baltimore. El movimiento Black Lives Matter ha ido creciendo desde 2013 en las movilizaciones que siguieron a cada uno de estos casos. En todos ellos, la comunicación a través de las redes sociales, los vídeos grabados en smartphones, fueron los detonantes y medios de proliferación de movilizaciones, revueltas y procesos de indignación. Por eso David Dufresne (Le Monde, 2020a) llega a decir que la «cámara es el arma de los desarmados».
Esto demuestra que la vigilancia tiene al menos dos dimensiones, una vertical y otra horizontal. A principios de la década de 2000, el ingeniero Steve Mann -considerado uno de los padres de las computadoras corporales- acuñó un neologismo por aversión. Junto a la vigilancia, hizo pensable la subvigilancia: es decir, a la vigilancia «desde arriba», ideada por Bentham y problematizada por Foucault, contrapuso la vigilancia «desde abajo», posibilitada por la ubicuidad de los dispositivos tecnológicos portátiles o corporales. Este término fue objeto de debate en Francia en relación con una ley de seguridad destinada a limitar la difusión de las imágenes producidas por las actuaciones policiales (Le Monde, 2020b). El mismo debate tuvo lugar recientemente en São Paulo, donde el gobernador del Estado, de extrema derecha, prometió eliminar las cámaras corporales para la policía militar (Poder 360, 2022). A pesar de ello, se habla constantemente de vigilancia y muy poco de subvigilancia, lo que implica una dinámica difusa y ubicua.
El filósofo Jean-Gabriel Ganascia (2010) sostiene que la oposición binaria no funciona porque las dos situaciones se mezclan en la realidad de las redes y plataformas. Es esta mezcla la que debemos investigar. A este respecto, Bernard Harcourt (2020) propone la noción de «sociedad de la exposición» en la que el deseo de exponerse y publicar se sitúa en la zona intermedia entre la vigilancia y la sousveillance –y parece tocar el concepto de seguridad propuesto por Foucault, o el de control, por Deleuze.
Al mismo tiempo que la pandemia fue el teatro de una gran desaceleración, también fue el escenario de una «aceleración de la aceleración» algorítmica que dio lugar a un vasto proceso de «alfabetización digital» de sectores enteros de la población, que empezaron a utilizar intensivamente todo tipo de servicios en línea. El número de repartidores de aplicaciones aumentó al mismo ritmo, y pronto vimos importantes movilizaciones de estos trabajadores en varios países.
Incluso antes de estos acontecimientos, se afirmaba que aparecería un «operaísmo digital» como composición de masas de trabajadores digitales (app workers) a los que se podría aplicar -con ligeras adaptaciones- el método trontiano de la composición técnica y política de la «clase». Cuando surgieron estas luchas, estos autores pensaron que allanarían el camino para un «operaísmo digital» que permitiría evitar el «riesgo de caer en la trampa posoperaísta de buscar al nuevo sujeto social en cualquier lugar menos en el lugar de trabajo» (Englert & Woodcock, 2020, p. 50).
La lucha de los repartidores nos permitiría «alejarnos de un enfoque centrado en la tecnología o los usuarios y, en su lugar, privilegiar la autoactividad de los trabajadores» (Englert; Woodcock, 2020). La búsqueda de la «clase trabajadora» como conditio sine qua non de las luchas implica que «la vigilancia y el control algorítmicos son clave para entender la composición cambiante del trabajo en las plataformas» (Woodstock, 2020). No por casualidad, la literatura registra un enfoque difuso y proliferante: la imagen de un panóptico algorítmico.
Sin embargo, cuando observamos las formas de lucha llevadas a cabo por los repartidores, encontramos indicios de una dinámica que no encaja con ningún resurgimiento de la «vieja» clase obrera. En primer lugar, las movilizaciones son metropolitanas y presentan rasgos urbanos; en segundo lugar, el éxito de las huelgas se basa en la simpatía y el apoyo de importantes sectores de usuarios. Las luchas en el ámbito de los servicios siempre implican un horizonte compuesto por, de un lado, la metropolización (Szaniecki y Cocco, 2021) y, del otro, las movilizaciones para coproducir los servicios y las propias luchas. El éxito de las movilizaciones depende de la dimensión metropolitana y transversal de las luchas, del mismo modo que los movimientos contra el racismo son interseccionales.
Al igual que las luchas contra el racismo, la movilización de los repartidores no se produce en paralelo a la vigilancia, sino en la ingeniería inversa de la sousveillance. Dos elementos adicionales apuntan a los desafíos dentro de esta nueva condición: en términos de ingresos y de lucha contra la precariedad, la lucha de los trabajadores de app está atravesada más por las políticas de ingresos que por el establecimiento de una relación salarial formal. En Brasil, estas luchas se han visto particularmente afectadas por el Salario de Ayuda de Emergencia y, de forma más general, por la cuestión de la Renta Básica. En otras palabras, lo que está en juego ya no es el trabajo garantizado o formal, sino el acceso a flujos de ingresos – posibilitados por actividades «libres», sin «patrocinio» directo, y al mismo tiempo algorítmicas y «plataformizadas».
Esta tendencia es aún más fuerte en la reciente manifestación de repartidores inmigrantes en Portugal, en su mayoría brasileños. Aunque este episodio no tenga ningún peso estadístico, es un indicador de cómo la «autoactividad» o el «autoemprendimiento» deben pensarse desde el punto de vista de la producción de subjetividad: «Representando cerca del 90% de los repartidores de las principales plataformas digitales en Portugal, los motoboys brasileños se han unido para luchar contra el plan del gobierno de regularizar el sector» (Jornal O Globo, 2022). Siempre en el contexto portugués, esta tendencia se ve reforzada por una encuesta realizada por el Instituto Universitario de Lisboa (Lourenço, 2022), según la cual el 87% de los motoboys que operan en plataformas digitales en Portugal declaran su voluntad de seguir siendo autónomos.
¿Será que estas tendencias no son más que efectos del condicionamiento ideológico promovido por la «apología neoliberal» del autoemprendimiento? ¿Son perversiones del deseo de las masas desproletarizadas que sólo esperan ser reproletarizadas en los términos de la vieja subordinación asalariada?
¿Qué decir, pues, de la Gran Dimisión (Big Quit) (Forbes, 2021) y de las iniciativas mundiales de quiet quitting (Johns Hopkins, 2022) que parecen prolongar las dos líneas de tendencia anteriores: por un lado, la crisis económica ligada al escenario post-pandémico (estancamiento salarial, encarecimiento de la vida, escasas oportunidades de crecimiento profesional, escenario inflacionista global, etc.); por otro lado, prolongan las luchas por la actividad “libre” según una tendencia que rompe con el modelo de la vinculación asalariada?
Tal vez el reto consista en comprender cómo, en las nuevas condiciones de trabajo que tienen lugar fuera de la relación salarial, recuperan terreno las luchas por la libertad (Boutang, 2022); es decir, las luchas contra las formas de esclavitud que permanecen en ella, pero que también se renuevan en ella y encuentran nuevos terrenos y horizontes inesperados.
Geert Lovink (2019) afirma que no necesitamos describir los ensamblajes algorítmicos como efectos técnicos monumentales de las transformaciones de las economías de plataforma; nos falta explicar, sin embargo, cómo lo social entra en estos ensamblajes -más allá de la distopía de las colmenas cibernéticas, el fatalismo democrático y el inmovilismo político. Lo social funciona políticamente en los nuevos ensamblajes sociotécnicos, es decir, en las luchas algorítmicas, como «[un tipo de] activismo infraestructural consciente de múltiples capas interconectadas» (Lovink, 2019, p. 74).
Ni las soluciones políticas propuestas por el enfoque del capitalismo de vigilancia, ni la reiteración que sus teóricos creen encontrar en un campo social atravesado por redes, algoritmos y plataformas, pueden llevarnos más allá del efecto crítico y cognitivo inherente a esta crítica.
Aunque describe y denuncia los efectos nocivos de la digitalización general de la vida, la crítica elaborada por el capitalismo de la vigilancia ya no puede estimar la «política de posibles» que implica una cultura inmediatamente algorítmica (Finn, 2017). No hace más que trazar sin cesar un diagrama de poder que se presenta como dado y políticamente ineludible.También por eso la conciencia crítica que desarrolla, cultiva el olvido de que la denuncia no es más que un instrumento de diagnóstico de los antagonismos en el seno del progreso de la técnica y la razón modernas. En cuanto la denuncia se convierte en un fin en sí misma, el ejercicio de la razón que contiene acaba por hacernos presa de un callejón sin salida insoluble. Y, sin embargo, este impasse es desafiado diariamente por la proliferación de luchas, en las brechas vivas que constituyen el terreno de la técnica y la aceleración algorítmica.
El verdadero reto reside en encontrar formas de convergencia y recomposición política de estas luchas fragmentadas que hagan del reino algorítmico su terreno constitutivo. La autonomía de la resistencia debe encontrarse con la fuerza de los autómatas, y la inteligencia de clase debe desarrollar su capacidad -incluida la artificial- de utilizar algoritmos (de lo común) contra algoritmos (de expropiación).
Amato, G. (2022, 29 de septiembre). Motoboys brasileiros recusam vínculo de trabalho em Portugal e querem continuar frelancers. O Globo. https://oglobo.globo.com/blogs/portugal-giro/post/2022/09/motoboys-brasileiros-recusam-contrato-de-trabalho-em-portugal.ghtml
Ball, P. (2020, 18 de dezembro). La rápida búsqueda de Covid – y lo que significa para otras enfermedades. Nature. https://www.nature.com/articles/d41586-020-03626-1
Benasayag, M. (2019). La tiranía de los algoritmos. Textuel.
Bicher, M., Rippinger, C., Zechmeister, M., Jahn, B., Sroczynski, G., Mühlberger, N., et al. (2022). An iterative algorithm for optimizing COVID-19 vaccination strategies considering unknown supply. PLoS ONE, 17(5), e0265957. https://doi.org/10.1371/journal.pone.0265957
Bridle, J. (2018). A nova idade das trevas. A tecnologia e o fim do futuro. Todavia.
Boutang, Y. M. (2012). Cognitive capitalism. Polity Press.
Boutang, Y. M. (2020). Sideração Covid: a economia suspensa e o momento decisivo para 2020. Lugar Comum, (58), 305-329. https://revistas.ufrj.br/index.php/lc/article/view/40396/22031
Boutang, Y. M. (2022). A sombra da escravidão no cerne da liberdade moderna. Lugar Comum – Estudos de Mídia, Cultura e Democracia, (65), 204-213.
Cocco, G. (2022, 14 de julio). La catástrofe de las equivalencias: la controversia Nancy-Agamben. Estadão. Caderno Estado da Arte. https://estadodaarte.estadao.com.br/catastrofe-equivalencias-nancy-agamben-coco/
Corrêa, M. D. C. (2021). La conspiración de los vivos: las luchas contra la asfixia. Emancipação, 21, 1-17. https://doi.org/10.5212/Emancipacao.v.21.2116468.023
Curtis, L. (2021, 30 de junio). Why the big quit is happening and why every boss should embrace it. Forbes. https://www.forbes.com/sites/lisacurtis/2021/06/30/why-the-big-quit-is-happening-and-why-every-boss-should-embrace-it/?sh=279a0005601c
Dupont, M. (2020, 18 de dezembro). La ‘sousveillance’ pour surveiller celui qui surveille. Le Monde. https://www.lemonde.fr/idees/article/2020/12/16/la-sousveillance-pour-surveiller-celui-qui-surveille_6063553_3232.html
Dupuy, J-P. (2009). Sobre los orígenes de la ciencia cognitiva. La mecanización de la mente. The MIT Press.
Englert, S, & Woodcock, C. C. (2020). Operaísmo Digital: tecnologia, plataformas e circulação das lutas dos trabalhadores. Revista Fronteiras – Estudos Midiáticos, 22(1), 47-58.
Esposito, R. (2004). Bíos. Biopolitica e filosofia. Einaudi.
Eubanks, V. (2018). Automatización de la desigualdad. Cómo las herramientas de alta tecnología perfilan, vigilan y castigan a los pobres. Saint-Martin’s Press.
Fabre, C. (2020, 29 de setembro). David Dufresne : » La caméra, c’est l’arme des desarmes «. Le Monde. https://www.lemonde.fr/culture/article/2020/09/29/david-dufresne-la-camera-c-est-l-arme-des-desarmes_6053971_3246.html
Finn, E. (2017). Lo que quieren los algoritmos. Imaginación en la era de la computación. The MIT Press.
Foucault, M. (1997). «Il faut défendre la société». Cours au Collège de France (1976). Seuil.
Foucault, M. (2004). Sécurité, territoire, population. Cours au Collège de France (1977-1978). Seuil.
Ganascia, J-G. (2010). La sociedad de la subvigilancia generalizada. Información en Ciencias Sociales, 49(3), 489-507.
Keck, F. (2014). Del purgatorio al centinela. Formas/Eventos en el campo de las zoonosis. Cambridge Anthropology, 32(1), 47-61.
Han, B-C. (2018). Psicopolítica. O neoliberalismo e as novas técnicas de poder. Âyiné.
Harcourt, B. (2020). La Société d’exposition: Désir et désobéissance à l’ère numérique. Seuil.
Hardt, M. (1997). El tiempo de la cárcel. Yale French Studies, (91), 64-79. https://doi.org/10.2307/2930374
Hardt, M., & Negri, A. (2005). Multidão: Guerra e democracia na era do Império. Record.
Haskel, J., & Westlake, S. (2018). Capitalismo sin capital. El auge de la economía intangible. Princeton University Press.
Hui, Y. (2019). Recursividad y contingencia. Rowman & Littlefield.
Katz, Y. (2020) Blancura artificial. Politics and ideology in Artificial Intelligence. Columbia University Press.
Kissinger, H. A., Schmidt, E., & Huttenlocher D. (2021). La era de la IA y nuestro futuro humano. Grupo Hachette.
Lovink, G. (2019). Tristes por diseño. Pluto Press.
Lourenço, S. M. (2022, 20 de mayo). 87% dos estafetas querem continuar como freelancers. Expresso Emprego. https://expressoemprego.pt/noticias/87%25-dos-estafetas-querem-continuar-como-freelancer/4460
Mbembe, A. (2019). La necropolítica. Duke University Press.
McAfee, A., y Brynjolfsson, E. (2017). Máquina, plataforma, nube. Aprovechando nuestro futuro digital. W. W. Norton & Co.
Mestre, G. (2022, 20 de octubre). Tarcísio diz que pode voltar atrás sobre câmeras corporais da PM. Poder 360. https://www.poder360.com.br/eleicoes/tarcisio-diz-que-pode-voltar-atras-sobre-retirar-cameras-da-pm/
Morozov, E. (2018). Big tech. A ascensão dos dados e a morte da política. Ubú.
Mueller, G. (2021). Rompiendo cosas en el trabajo. Los luditas tenían razón sobre por qué odias tu trabajo. Verso.
Noble, S. U. (2018). Algoritmos de opresión: Cómo los motores de búsqueda refuerzan el racismo. NYU Press.
O’Neil, C. (2020). Algoritmos de destrucción masiva. Como o big data aumenta a desigualdade e ameaça a democracia. Rua do Sabão.
Orwell, G. (2009). 1984. Companhia das Letras.
Pasquinelli, M. (2023). El ojo del amo: Una historia social de la Inteligencia Artificial. Verso.
Pearce, K. (2022, 12 de setembro). What is ‘quiet quitting’. HUB. https://hub.jhu.edu/2022/09/12/what-is-quiet-quitting/
Raunig, G. (2016). Dividuum: Capitalismo maquínico y revolución molecular. Semiotexte.
Sadin, É. (2016). La silicolonisation du monde. L’échappée.
Simondon, G. (2020). Do modo de existência dos objetos técnicos. Contraponto.
Slaughter, M. J., & McCormich, D. H. (2021, 16 de abril). Los datos son poder. Washington needs to craft new rules for the digital age. Foreign Affairs. https://www.foreignaffairs.com/articles/united-states/2021-04-16/data-power-new-rules-digital-age
Supiot, A. (2015). La gouvernance par les nombres. Cours au Collège de France (2012-2014). Fayard.
Svampa, M. (2016). Debates latinoamericanos: indianismo, desarollo, dependencia y populismo. Edhasa.
Svampa, M. (2019). Las fronteras del neoextrativismo en América Latina. Conflictos socioambientais, giro ecoterritorial e novas dependências. Elefante.
Szaniecki, B., & Cocco, G. (2021). O making da metrópole. Rios, ritmos e algoritmos. Río Libros.
Tensley, B. (2020, 10 de novembro). Cómo los votantes negros y las protestas a fuego lento contribuyeron a la derrota de Trump. CNN. https://edition.cnn.com/2020/11/10/politics/alicia-garza-black-lives-matter-election-joe-biden/index.html
Woodstock, J. (2020). El panóptico algorítmico en deliveroo: medición, precariedad y la ilusión de control. Ephemera. http://www.ephemerajournal.org/contribution/algorithmic-panopticon-deliveroo-measurement-precarity-and-illusion-control-0
Zhunis, A., Mai, T. D., & Kim, S. (2022). Respuestas al COVID-19 con programación probabilística. Frontiers in Public Health, 10, 953472. https://doi.org/10.3389/fpubh.2022.953472
Zuboff, S. (2020). La era del capitalismo de vigilancia. La lucha por un futuro humano en la nueva frontera del poder. Intrínseca.
[1](Profesor Asociado en la UEPG, Programa de Postgrado en Derecho (UEPG). Doctor (USP) y Master (UFSC) en Filosofía y Teoría del Derecho, con post-doctorados en la Vrije Universiteit Brussel y en la Universidad de Buenos Aires)
[2](Profesor Titular de la UFRJ. Programa de Postgrado en la Escuela de Comunicación y Cultura, y Programa de Postgrado en Ciencias de la Información, ambos em la UFRJ. Doctorado y Máster en Historia Social por la Universidad de París I, Panthéon-Sorbonne, con post-doctorado en la Universidad de Birkbeck.
[3]Lo que llamamos aceleración algorítmica corresponde no sólo al hecho de que «las redes y el procesamiento algorítmico solidifican las huellas de los ritmos metropolitanos» y cristalizan «flujos en datos (big data) cuyo procesamiento se hace cada vez más rápido y eficaz», sino también a la aceleración de «los propios niveles de abstracción del trabajo que, flotando como virtualidades, pueden realizarse […] en cualquier momento y condensarse […] en miles de millones de datos». 35-36); pero también corresponde a la aceleración de «los propios niveles de abstracción del trabajo que, flotando como virtualidades, en cualquier momento pueden realizarse y condensarse […] en miles de millones de decisiones generadas por cientos de millones de dispositivos en línea (smartphones y otras tablets)» (Szaniecki y Cocco, 2021, p. 35).
[4] Acrónimo de las grandes tecnológicas Google, Apple, Facebook (ahora Meta Platforms) y Amazon.
[5] Acrónimo ruso de «Coordinación General de Campos de Trabajo».
Fuente: MATRIZes