La “inteligencia artificial” ocupa un lugar cada vez más destacado en la conversación pública. Basta googlear inteligencia artificial para obtener 256 millones de resultados (y notas en cada diario del país y del mundo); la encontramos todo el tiempo en nuestras pantallas, ya sea de Whatsapp, Chat GPT o con las imágenes hiperrealistas de Aurora, la herramienta generadora de imágenes de Grok, el “chatbot con IA” de X, entre muchas otras. Incluso el propio Javier Milei la ubicó en el centro, la subió a su comparsa paleolibertaria como promesa de futuro próspero para el país. Y el bombo se proyecta al futuro: los gurús de Silicon Valley (sede y símbolo de la compañías tecnológicas globales) como Raymond Kurzweill, exgerente de Google, hablan ya de una “singularidad tecnológica”, una nueva especie posthumana a la vuelta de la esquina; el filósofo Nick Bostrom dice suelto de cuerpo que con la IA, “El indigente del futuro podría ser un equivalente al multimillonario de la actualidad” (Perfil, 24/12/2024); y los mega multimillonarios dueños de la IA, como Elon Musk, plantean que “la inteligencia humana, no digital, será solo el 1 %” y que incluso “hay alguna posibilidad de que acabe con la humanidad”. En fin, se trata sin dudas de la principal promesa a futuro de la mano del capital, redoblada –como señala un editorial reciente de Nature– con la llegada de Trump al poder (con nada menos que Musk al frente del “Departamento de Eficiencia Gubernamental”). Pero ¿qué hay de cierto detrás de las promesas? ¿Qué tan “inteligente” es la IA? ¿Qué cambios implica o puede implicar para la humanidad? Y, ya en la vereda de enfrente de los Musks, ¿qué implicancias tiene para un estrategia anticapitalista y comunista?
Poder Inhumano. Inteligencia artificial y el futuro del capitalismo, el libro de Nick Dyer-Witherford, Mikkola Attle Kjosen y James Steinhoff, publicado en 2019 originalmente por Verso [1] y que acaba de publicar Prometeo traducido al castellano traducido por Tomás Callegari, aborda estas cuestiones en profundidad. Nick Dyer-Witheford es profesor e investigador en la Universidad de Western Ontario (Canadá) y es autor de varios libros sobre la relación entre capitalismo y cibernética. En Cyber proletariat (2015, Verso) analiza, en discusión con el autonomismo del que proviene, el mundo del trabajo en un capitalismo que –a pesar de todo– sigue respondiendo a la descripción marxiana de “vampiro” que se alimenta de trabajo pago o plusvalía, para lo cual la cibernética proporciona vías regias para buscar trabajo barato globalmente y desarmar la organización obrera, cada vez más extendida pero precarizada. Attle Mikkola Kjosen también es profesor en la Universidad de Western Ontario, dedicado a la intersección entre marxismo y medios, logística y comercio, e inteligencia artificial. Y James Steinhoff es profesor en el University College de Dublín y autor de Automation and autonomy: labour, capital and machines in the artificial intelligence industry (Palgrave McMillan, 2021).
Un mérito del libro es despejar el humo publicitario. Lo que se llama “Inteligencia Artificial”, en analogía con la inteligencia humana pero alcanzada con máquinas, afirman, no es más que un “capitalismo de IA realmente existente”, o una “IA estrecha”, en analogía con el “socialismo realmente existente” del estalinismo. O sea, a pesar de los innegables avances en el procesamiento de datos y las posibilidades tecnológicas que esto abre, está todavía lejos de la “inteligencia”, como demuestran con un análisis profundo de la morfología de la IA en la actualidad. ¿Tranquilizador respecto a las previsiones a futuro de Musk y compañía? No tanto. Justamente, el segundo mérito del libro es el análisis de las perspectivas a futuro: desde esta fase actual –afirma–, la IA puede estancarse, implosionar (como tantas burbujas), o llevar a la humanidad en dos direcciones: un “capitalismo de IA” en el cual el capital incorpore finalmente las capacidades de inteligencia hoy propias del ser humano (en términos de Marx, una “hipersubsunción” del trabajo en el capital), escenario de pesadilla pero posible, según ellos; o, lucha de clases y apuesta estratégica mediante, evitar esa pesadilla con una formación social radicalmente diferente: el comunismo. Desde allí, el libro apunta en dos sentidos: contra la visión de que “no cambia nada” (un “minimalismo de izquierda”, representado por autores como Ursula Huws, Kim Moody o Astra Taylor, que critican por ahistórica); y contra su opuesta, la visión de que “cambia todo, aceleremos el cambio”, representada por quienes llaman –acaso excesivamente– “maximalistas de izquierda”, para quienes la IA sería un escalón hacia el socialismo (“aceleracionistas” como Srnicek y Williams, “postcapitalistas” como Paul Mason, “comunistas del lujo automatizado” como Aaron Bastani, “xenofeministas”, autonomistas y posoperaistas). Contra ambas, resaltan que, lejos de ser neutral, los propietarios de la IA le imprimen una lógica tecnológica y social, y que en todo caso hay que tomar en serio al aceleracionismo de derecha de Nick Land, para quien se trata de la “tecnología consumada del capitalismo” y su desarrollo final implica la emancipación… pero del capital respecto a los humanos, la posibilidad de que, en palabras de Marx, ese “poder inhumano” lo domine todo. Ante esto, van a desarrollar lo que llaman una “crítica abismal” de la IA, es decir, tomar en serio la perspectiva más sombría (como veremos, la ideología hegemónica en Silicon Valley y posiblemente en la Casa Blanca), para iluminar la estrategia revolucionaria.
Leemos la IA y el marxismo –escriben– el uno a través del otro: a la IA a través del marxismo, porque el análisis marxiano del capitalismo representa el estudio crítico más cabal de la amalgama entre mercantilización y tecnología que hoy en día da impulso al desarrollo de la primera; a Marx a la luz de la IA, porque esta problematiza el excepcionalismo, la agencia y el trabajo humanos según modos que ponen profundamente en cuestión los supuestos marxistas y, por consiguiente, exige un examen cuidadoso a quienes comparten la aspiración marxiana de una revolución contra y más allá del capital [2].
La tesis general del libro es que la IA podría llegar a constituirse una condición general de la producción capitalista, como en su momento el transporte ferroviario o marítimo y hoy la electricidad, y desde allí dar un salto hacia la verdadera IA, la IA General o Super IA. Y está dividido en tres capítulos que profundizan sobre los fundamentos de esa tesis general: 1) los medios de cognición y la posibilidad de una IA como “condición general de producción”; 2) la automatización de la fábrica social y los cambios sobre el trabajo; y 3) sobre la perspectiva de una IA General y sus derivas estratégicas para el comunismo.
Orígenes, situación actual y posibilidades de la IA
Para dar alguna coordenada histórica, los autores ubican un taller dictado en 1956 en el Dartmouth College (EE. UU.) el inicio de los estudios sobre IA, cuyo concepto se puede resumir en la idea de que desarrollar un software que permita que “las computadoras hagan cosas que, de momento, los humanos hacen mejor” [3]. Este proyecto, agreguemos, se enmarca en la estela del desarrollo de la cibernética (máquinas que procesan información y se retroalimentan) durante y pos Segunda Guerra Mundial, lo que dio lugar al surgimiento de las ciencias cognitivas, que toman esas máquinas computacionales como modelo de la mente humana [4]. ¿En qué está ese proyecto hoy? Para entenderlo, el libro plantea tres tipos de IA: 1) inteligencia artificial estrecha, la “realmente existente hoy”; 2) la Inteligencia Artificial General (IAG), que implicaría una “capacidad de trasladar el aprendizaje de un dominio a otro”, lo cual hoy no existe y se plantea solo como hipótesis; y 3) una Super Inteligencia Artificial (SIA), una IAG que podría automodificarse y evolucionar hacia una SIA. Subsidiariamente, los autores identifican un debate en curso entre una concepción de IA “débil”, que plantea que las máquinas nunca podrían desarrollar conciencia, y una “fuerte” que plantea que sí, sobre lo que los autores se declaran “agnósticos”.
Y bien, ¿qué es entonces esa “lA estrecha” y “realmente existente” hoy? Allí ubican tres escuelas de pensamiento: Inteligencia Artificial clásica (Good Ol’ Fashioned Artificial Intelligence, la “vieja y querida IA” o GOFAI); el aprendizaje maquínico o automático (machine learning); y el marco situado, corporeizado y dinámico (situated, embodied and dynamical, SED). La GOFAI o IA “simbólica” es el primer enfoque de los años 1980. Esta busca funciones cognitivas elevadas mediante manipulación de información codificada en lenguaje simbólico (representaciones) como, por ejemplo, “sistemas expertos” en determinadas tareas, como la célebre computadora Deep Blue de IBM, diseñada para jugar al ajedrez, que derrotó al campeón Garry Kaspárov, que requieren alto poder computacional. Los enfoques SED cuestionan los límites de la GOFAI y “ponen el acento en la importancia del cuerpo –su propia morfología y aparatos perceptivos– para la cognición”, planteando que “es a través de la resolución de problemas materiales que las máquinas pueden desarrollar conductas inteligentes” [5], con lo cual apuestan por la comunión entre robótica e IA, y en general parten de la “paradoja de Moravec”, quien señaló que es relativamente fácil hacer que las computadoras desarrollen el rendimiento de un adulto, jugando ajedrez por ejemplo, pero es mucho más difícil o casi imposible que tengan habilidades propias de un niño de un año respecto a percepción o movilidad.
La otra reacción a la GOFAI es la del aprendizaje maquínico o automático (machine learning), antes llamado conexionismo, surgido en los 2010 con el abaratamiento de la potencia computacional y el Big Data, que hoy es el dominante. Se trata de un enfoque estadístico de reconocimiento de patrones que toma datos, entrena un modelo con estos datos y utiliza ese modelo para predicciones con nuevos datos, creando así sus propios modelos de referencia. Puede funcionar con múltiples “arquitecturas”, pero desde 2010 se usa sobre Redes Neuronales Artificiales (RNA), programas de computación inspirados en el cerebro humano y sus unidades de procesamiento simple. Mientras más “capas” tiene el modelo, más complejos son sus parámetros. Lo más avanzado acá es el deep learning (aprendizaje profundo), mediante el cual se entrena las RNA exponiéndolas a una cantidad de casos –desde rostros hasta, por ejemplo, una persona diciendo “hola”– y el algoritmo ajusta los pesos de las sinapsis hasta “aprender” a identificar la respuesta correcta. Son redes con muchas capas de profundidad, hasta mil, y esas capas son aprendidas a partir de datos usando un procedimiento de aprendizaje de propósito general.
Hay tres grandes tipos de deep learning: el supervisado, el más exitoso hasta ahora, en el cual un humano introduce información etiquetada en categorías y el sistema aprende esas categorías identificando patrones en los ejemplos introducidos. Por ejemplo, con muchas fotos de carteles hexagonales de “pare”, desde distintos ángulos y visibilidad, la IA puede “aprender” el “concepto” de una señal de “pare”. Pero esto requiere mucho trabajo, por lo que algunas empresas apuestan a un aprendizaje no supervisado, sobre la idea de que exponiendo al algoritmo a un volumen lo suficientemente grande de datos, este va a poder identificar correlaciones complejas, como –según la psicología cognitiva, volveremos sobre esto– habrían llegado a aprender como aprenden animales y humanos. Finalmente, el aprendizaje por refuerzo, un intermedio entre los dos primeros, que apunta a un modo de “aprender qué hacer… de modo de maximizar una señal numérica de recompensa. No se indica al que aprende qué acciones debe ejecutar [...] sino que este debe descubrir qué acciones producen mayores recompensas poniéndolas a prueba” [6]. En 2013, la compañía Deep Mind lo combinó con aprendizaje no supervisado para enseñarle a un sistema a jugar videojuegos de Atari de forma “sobrehumana” sin haber programado en el sistema ningún conocimiento previo sobre juegos, sino solo sobre puntajes y la información de los píxeles de la pantalla. Y esta combinación es la que usó después Alpha Go (también de Deep Mind) para vencer al campeón mundial de go Lee Sedol, con una jugada que sorprendió a todos. Se trata de logros importantes –y los percibimos día a día, por ejemplo con la publicidad dirigida en redes–, pero a lo sumo pueden aplicar generalizaciones a datos nuevos de dominios similares a aquellos con los que fueron entrenados; extenderlo a otros dominios ya sería algo propio de una IAG.
Marxismo, máquinas e IA, un mapa de la cuestión
Los autores hacen un mapeo sobre los enfoques y referencias del campo de la IA desde el marxismo. Este, escriben, se enmarca en un campo más general sobre las máquinas y la cibernética, y contiene tres vertientes del pensamiento marxiano sobre las máquinas: la línea principal se puede encontrar en El capital, con la máquina como apéndice del trabajo humano, en relación a la tendencia del capital a aumentar su composición orgánica y la consiguiente tendencia a la crisis, sea por parálisis y/o tendencia a la caída de la tasa de ganancia. Desde acá, la IA se analiza desde la explotación del trabajo, la competencia intercapitalista y las tendencias a la crisis inducidas por la tecnología.
Desde ahí, plantean, se abren dos líneas distintas: una que las ve como autónomas y liberadoras, centrada en el así llamado “fragmento sobre las máquinas” de Marx en los Grundrisse, que leído en clave de que la automatización podría subvertir al capital al abolir el trabajo le da fundamento al aceleracionismo de izquierda, al postcapitalismo y al comunismo de lujo totalmente automatizado. Y la tercera, basada en cierta lectura del apartado de El capital “Resultados del proceso inmediato de producción”, resalta que el capital diseñaría las máquinas según sus necesidades sistémicas y que, con su desarrollo, la contradicción entre fuerzas de producción y relaciones de producción tiende a cero. En otras palabras, esta lectura afirma la posibilidad de la subsunción del “trabajador colectivo” a la máquina, previa a la “hipersubsunción” eventual en caso de llegar a la IAG. Los autores afirman que la IA impulsada por el machine learning está instalando en el horizonte de posibilidades los extremos de las dos líneas mencionadas.
En este marco, señalan que el análisis marxista sobre IA, y rescatan tres referencias: la de Tesa Morris-Suzuki en Japón en los 1980 analizando la primera ola de automatización; la de Ramin Ramtin y su libro Capitalism and automation: Revolution in technology and capitalist breakdown, de 1991, “el primer intento sistemático de pensar capitalismo y cibernética”; y al filósofo autonomista norteamericano George Caffentzis.
Los medios de cognición
El primer capítulo analiza económicamente el estado de la industria de la IA y la posibilidad, promovida por las grandes corporaciones, de que la IA se convierta en una nueva “Condición General de la Producción” (CGP) y así llegue a convertirse en una verdadera IAG. ¿Qué significa CGP? Se trata de aquellas tecnologías, instituciones y prácticas que conforman el entorno de producción capitalista en determinado tiempo y lugar, al modo de lo que fueron los medios de comunicación y transporte –el telégrafo o el ferrocarril– para Marx, que tienen el rol central de avivar el ritmo de producción y circulación de mercancías, generando mayor productividad. Así como el fordismo con su cadena de montaje y taylorismo, y el posfordismo, con su tecnología de la información, logística y comunicación, determinaron al capitalismo, los autores plantean que con esta nueva infraestructura, estos “medios de cognición”, podríamos estar ingresando en un “capitalismo de IA realmente existente” intermedio hacia uno plenamente desarrollado. Como plantea Andrew Ng, exdirector de Baidu y de Google Brain, la IA podría convertirse en una “nueva electricidad” o, como señala el gurú tecnológico Kevin Kelly, en un “recurso básico común”.
¿De dónde vendría el impulso hacia allí? Centralmente desde los Estados neoliberales, como EE. UU., y China, por ejemplo, y sus complejos militares-industriales. Si la Agencia de Proyectos de Investigación Avanzados de Defensa (DARPA) de EE. UU. financió la creación de internet en los 1970, hoy son 16 agencias estatales financiando IA, por ejemplo para armas como drones (como los que usa el Estado de Israel sobre Palestina para multiplicar sus blancos). China anunció un plan para ser el centro en 2030, y la UE otro, con su laboratorio ELLIS. En este sentido, la mencionada editorial de Nature cita a Mohammed Soliman, director del programa de tecnologías estratégicas y ciberseguridad del Middle East Institute en Washington DC: “La inteligencia artificial y la [ciencia de la información] cuántica son las nuevas líneas de frente en la rivalidad entre Estados Unidos y China, y ambos lo saben. No se trata solo de una cuestión de política: es una carrera armamentista tecnológica”.
Más adelante aportan un análisis de los proyectos en curso (en 2017) para lograr la IAG: 47 proyectos activos en 30 países, mayormente en corporaciones e instituciones académicas, públicas, ONG y gubernamentales. Nueve tienen conexiones militares identificables, la mayoría está en el área de influencia de EE. UU., y solo China y Rusia por fuera. Las más importantes son las mencionadas Deep Mind (Google Alphabet), Open AI (con apoyo de Elon Musk) y el Human Brain Project europeo. Y en cada paso de su análisis teórico, los autores van desplegando innumerables desarrollos de la IA. La empresa Vicarious FPC de Alphabet, por ejemplo, apunta justamente a una IA “creativa”, capaz de “insight” y reconocimiento de “figura-fondo” (dicho sea de paso, claves de la inteligencia humana según la escuela de la Gestalt).
El otro eje impulsor viene del “vigoroso sector de investigación de código abierto en IA” canalizado hacia plataformas y empresas oligopólicas [7]. La industria emergente de la IA, asociada a otras tecnologías emergentes aparece en los 1980 con los sistemas expertos GOFAI, baja en los 90 y resurge con fuerza en los 2000 para redireccionamiento de publicidad, asistentes virtuales, realidad aumentada y vehículos autónomos. Desde 2015 escala el financiamiento corporativo, con diferentes miradas sobre su facturación y perspectivas de negocios pero con las gigantes muy activas: IBM, Alphabet de Google, con su proyecto Google Brain y proyectos adquiridos como Deep Mind, robótica, autos autónomos, etc.; Facebook, FB AI Research; Amazon, con sus empresas Echo, Alexa, Lex, Rekognition (reconocimiento de imágenes), Polly (generador de voz), etc.; Microsoft, con su asistente Cortana y su bot Tay (diseñado para imitar los patrones de lenguaje de una mujer estadounidense de 19 años y para aprender de las interacciones con usuarios humanos de Twitter, que en un día desarrolló sesgos racistas y sexistas, por lo que solo duró 16 horas y 96.000 tuits [8]). Y, más allá de los gigantes, hay un cúmulo de compañías emergentes (que se duplicaron entre 2015 y 2019).
Los autores destacan el papel central de la inversión en “la nube” (hardware) y en energía, que se multiplicó entre 2012 y 2019 por 300.000. La energía es central para la IA: si a 2022 consumía el 1,5 % de la energía mundial generada, las previsiones a 2030 son del 4,5 %. Este nivel de inversión está directamente ligado a la tendencia a la concentración y el monopolio que genera la IA. Respecto a la discusión sobre si hay o no una burbuja de la IA, por fallas o por que no rinda frutos económicos, señalan que no hay garantías para uno u otro lado.
Otras vías de para el despliegue de esta IA infraestructural son la internet de la cosas (el despliegue de objetos “inteligentes” conectados en red, o sea, basadas en una internet –hipotética– de comunicaciones máquina a máquina, al modo de los bots, que representan hoy el 42 % del tráfico total de internet); la ciudad inteligente (manifestación urbana del internet de la cosas, que deja el desarrollo urbano en manos de los capitalistas de IA, como el intento de Google Sidewalk en los suburbios de Toronto, que ya generó fuerte resistencia); la inteligencia ambiental (“la intermediación de una nueva capa inteligente entre personas y sistemas”) por medio del cual el capital expropia capacidades elementales de percepción y cognición humana (por ejemplo bots de conversación tipo Google Duplex; o tiendas automatizadas, como la fallida Amazon Go).
La automatización de la fábrica social
El capítulo 2 toma la IA como una segunda ola cibernética del capital contra la clase trabajadora y se pregunta por los cambios de la IA en el mundo del trabajo, la composición técnica de la producción y la circulación, y las implicaciones que tendrían robots con IAG sobre el concepto de clase. A partir del análisis de las crisis de 2008, 2011 y 2016, los autores plantean que ante los síntomas de una clase obrera debilitada y de inestabilidad alarmante al interior del capitalismo, la IA apareció como respuesta capitalista para la búsqueda de trabajo barato, para el guerrerismo y para el disciplinamiento imperialista; y como la respuesta de Silicon Valley ante la percepción de una democracia liberal capitalista en peligro en EE. UU. y Europa: impulsar el crecimiento económico y la descomposición de la clase trabajadora. Destacan que la IA requiere mucho trabajo (para construir modelos, o limpiar datos, como los moderadores de contenido de Facebook tercerizados en Kenya que en estos días se están rebelando denunciando padecimientos psíquicos inauditos [9]), y que destruye pero crea al mismo tiempo mercados laborales temporarios.
Respecto a la reproducción social, los algoritmos fomentan sesgos opresivos de clase, racialización y género, en el sistema judicial y educativo, por ejemplo, como denuncia Cathy O’Neil en su libro Armas de destrucción matemáticas [10]; pero también fortalece la vigilancia “panóptica”, la precariedad, y la polarización y concentración social. Resulta interesante aquí también el análisis de la “gramatización de las redes”, concepto del filósofo francés Bernard Stiegler, que apunta a cómo los algoritmos afectan el conocimiento de los trabajadores respecto a cómo vivir y pensar mediante tecnologías que registran, separan y codifican la actividad humana, amplían la subsunción real del trabajo al capital a la actividad vital y cotidiana misma, y generan “subjetividades desafectadas, confusas e incapacitadas, ‘estupidizadas’ en sentido profundo [...] un estado intensificado de descomposición” [11]. Quizá esto es demasiado, pero vale la pena tener en cuenta este registro.
Finalmente, la contracara, las luchas que vienen creciendo en rechazo al capital de IA. Destacan siete: huelgas en el lugar de trabajo por salarios y precarización (Amazon, hoy justamente en lucha en EE. UU., Deliveroo, Uber, etc.); contra aplicaciones militares como las hoy desplegadas por Israel en Palestina con el proyecto “Lavender” [12] (en Google y Amazon, por ejemplo); el movimiento antivigilancia; el abandono de redes sociales; la ruptura de sesgos algorítmicos (Algoritmic Justice League, por ejemplo); contra las ciudades digitales (contra Google Alphabeth en Quayside, Canadá, por ejemplo); contra corporaciones tecnológicas por la socialización de bancos de datos. ¿Conclusión? La recomposición de la clase a partir de estas luchas es aún incierta y los analistas, aunque varían según el momento económico, se van poniendo más catastróficos respecto al desempleo. El futuro es campo de lucha de clases.
El futuro: pesadilla del capitalismo de IA o comunismo
El tercer capítulo desarrolla la tesis de que esa expropiación total del “general intellect” (GI) humano mediante el desarrollo de la IAG implicaría crear robots con capacidad de trabajo y creación de valor.
En los Grundrisse, reponen, Marx escribe que: “El desarrollo del capital fijo revela hasta qué punto el conocimiento social se ha convertido en fuerza productiva inmediata y, por tanto, hasta qué punto las condiciones del proceso de la vida social misma han pasado a estar bajo el control del general intellect, y han sido transformadas conforme al mismo”. Se trata, resaltan los autores, de las capacidades y conocimientos que el capital posee en forma de máquina. Esto, sostienen, contrasta con la definición que hace el posoperaísmo de Paolo Virno sobre el GI: “las facultades lingüístico-cognitivas comunes a la especie [humana]” [13], desde la cual los atributos del trabajo vivo no se agotan en la capacidad científica objetivada, ya que consisten en la comunicación, abstracción, autorreflexión, y se despliegan en la interacción comunicativa, paradigmas epistémicos, performances dialógicas y juegos lingüísticos [14]. Bien, los autores toman estas características, incluyen además el afecto, pero afirman que el capital podría automatizar dichas capacidades, que “cuanto mayor es la porción del cerebro social que captura el general intellect, tanto más poderoso se vuelve el capital” [15]. Y para esto citan ejemplos de empresas de IA que están “en proceso” hacia este objetivo, como la plataforma Quill, dedicada a generar textos en lenguaje natural; OpenAI, que entrenó a cinco redes “cooperando” para derrotar a un equipo profesional del juego Defence of the Ancients 2; la capacidad de resolver problemas semánticos complejos mediante capas de abstracción del aprendizaje profundo; la capacidad creciente de la IA para capturar y procesar estados emocionales; etc. Critican así la “concepción antropológica, y no maquínica”, del posoperaísmo, que subestimaría peligrosamente las posibilidades del propio capital.
Según los autores, esto cuestionaría el –supuesto por ellos– antropomorfismo de la teoría del valor de Marx y “su axioma de que solo los humanos trabajan y crean valor”, mientras que las máquinas no. Frente a esto, los autores identifican la descripción de Marx sobre la inteligencia animal con la IA estrecha y plantean un isomorfismo entre la noción teórica de IAG y el concepto marxiano de trabajo y de fuerza de trabajo. La conclusión es obvia: la posibilidad teórica de robots “inteligentes” que sean explotados por otros robots.
Se trata del tramo más especulativo del libro, que hipotetiza cómo podría suceder: ya sea mediante el autorrefinamiento del machine learning (a lo que apunta, por ejemplo, el Proyecto AutoML de Google, algoritmos que aprenden a construir otros algoritmos de ML), o una IAG construida previamente, y el proceso social "¿Bajo qué condiciones –se preguntan los autores– sería la IAG capaz de producir valor?" Según los autores, si Marx sostenía que una fuerza de trabajo existe “en la forma física, en la personalidad viva de un ser humano” [16], una IAG “podría ser capaz de ‘personificar’ la peculiar mercancía que es la fuerza de trabajo, y por consiguiente presentaría la potencialidad de ser un trabajador, un componente variable del capital” [17]. El capital, a su vez, aparecería ya no como “sujeto automático”, sino también “autónomo”... de los humanos [18] "¿Cuál sería el estatus ontológico de la IAG dentro del modo de producción capitalista y cómo sucedería?, preguntan también. Como “proletarios artificiales”, al modo de la rebelión de los robots comandada por la brava Dolores Abernathy en la –recomendable– serie Westworld quizá, y que para dejar de ser “esclavos” (que como tales no producen valor) serían desposeídos de sus medios de subsistencia (de fuentes de energía, por ejemplo) y obligados a vender su fuerza de trabajo en el mercado pasarían a ser una nueva parte de la clase trabajadora explotada (lo cual, como planteamos más abajo, implica una serie de problemas conceptuales). El capital aparecería entonces, según hipotetizan, como sujeto autónomo no solo del trabajo humano sino de la especie humana, que sobreviviría en los márgenes, en línea con la perspectiva de “superación evolutiva” del aceleracionismo de derecha de Nick Land, base de la corriente “neorreaccionaria (NRx)” (racista y sexista) que hace furor en Silicon Valley y cautiva a Milei y compañía. Ese escenario de Land, plantean, es demasiado lineal e ignora contradicciones intracapitalistas como guerras que darían lugar a dinámicas revolucionarias.
Finalmente vuelven a un tema central de qué hacer con estos sistemas tecnológicos desde una perspectiva comunista, el llamado “debate de la reconfiguración” sobre la importancia de los sistemas tecnológicos logísticos para el capital. ¿Son neutros? ¿Podemos reapropiárnoslos sin problemas? Alberto Toscano defendió contra los anarquistas que pueden ser refuncionalizadas en un orden no capitalista, mientras que Jasper Bernes respondió que por su naturaleza debe ser cuestionada, que la subsunción del trabajo al capital implica que las tecnologías integran requerimientos sistémicos de valorización, y la IA es su manifestación concreta. Los autores se asumen correctamente “ni ludistas, ni aceleracionistas”, ni el rechazo total, ni la aceptación acrítica. Toman los argumentos de Barnes pero señalan que
Bajo el capital, los procesos de reificación y fetichismo, en virtud de los cuales –en un mundo invertido– las cosas asumen la apariencia de poderes humanos mientras que los humanos son tratados como cosas, se convierten en abstracciones reales: la inteligencia artificial constituye la manifestación concreta de esa abstracción. Por medio de este proceso, la Inteligencia Artificial encarna el potencial contradictorio del capital, en cuanto representa, para citar a Fredric Jameson (1991: 47), ‘al mismo tiempo lo mejor y lo peor’ que podría ocurrirles a los seres humanos: ofrece libertad a la humanidad respecto de la explotación del trabajo por parte del capital, pero también libertad al capital respecto de una humanidad que pasa a representar una barrera para la acumulación. Desde nuestra perspectiva, el aceleracionismo de izquierda ignora la segunda parte de esta dialéctica [19].
Contra el reformismo del aceleracionismo de izquierda que plantea “IA más renta básica universal”, se trata de comenzar por su rechazo y por la expropiación revolucionaria del capital de IA y la generación de nuevas formas colectivas de la misma, que sirvan para colectivizar otros ámbitos. Contra el ecomodernismo que ve en la IA una clave para la planificación ecológica sustentable, señalan correctamente que el nivel de consumo energético es brutal (si en 2022 ascendía al 1,5 % del consumo energético del planeta, para 2030 se calcula en un 4 %) y su lógica contradictoria con el cuidado del ambiente. Contra el transhumanismo burgués, es necesario pelear por un transhumanismo ecológico, mutualista, y cooperativo: “El capital de IA –concluyen– es un abismo; el comunismo, un puente para cruzarlo, pero un puente peligroso, inestable, parcialmente en llamas, y con un punto de llegada incierto del otro lado: así y todo, ¡avanzad!” [20].
Algunos ejes problemáticos
Hay al menos dos ejes problemáticos a lo largo del libro. El primero tiene que ver con la discusión sobre “inteligencia” e inteligencia humana. Es obvio que lo que entendamos por inteligencia va a depender de nuestra definición previa y supuestos antropológicos implícitos. Pues bien, los autores parten de los mismos supuestos cognitivistas que dan base a la cibernética de IA, por lo que todo el razonamiento sobre las posibilidades de llegar a una IAG tiende a ser circular, incurre en una falacia de petición de principios: lo que se quiere demostrar ya está ahí, contenido en las premisas. Las máquinas pueden desarrollar IAG o SIA porque parten justamente de cómo la mente humana procesa información. La corriente cognitivista en psicología surge luego de la Segunda Guerra Mundial ligada a la cibernética de Norbert Wiener, a la teoría de la computación de Alan Turing (creador de la célebre “máquina de Turing” y retratado en la película Enigma) y a la incipiente corriente de la IA, y plantea justamente que la mente humana funciona procesando información como una computadora. Así, la GOFAI replica al cognitivismo clásico, el deep learning al conexionismo y el SED al enfoque “enactivo” de la escuela de la mente encarnada (embodied mind), todas corrientes que tratan de superar los límites reduccionistas iniciales del cognitivismo. Detrás de todos los análisis encontramos, también en los autores, una mirada anclada en este enfoque reduccionista que hoy por hoy es hegemónico de la mano de las neurociencias cognitivas. Esta teoría reduccionista acarrea todas las dicotomías históricas de la psicología (razón/emoción, individuo/sociedad, etc.) y obviamente limita las posibilidades de esta tecnología, pero los autores la toman con definición de lo humano. Por ejemplo, analizan la inteligencia humana como la capacidad de “pasar de un dominio cognitivo a otro”, o el procesamiento como de abajo-arriba (desde la percepción al procesamiento central) o arriba abajo (del procesamiento central a la percepción); plantean que la IA “aprende” conceptos de forma puramente inductiva; citan acríticamente a Timothy Morton, por ejemplo, afirma según los autores que no se puede demostrar ni que humanos y animales tengan capacidad de imaginación, ni que no estén ejecutando algoritmos (¡sic!); etc. En ciertos casos, los autores siguen los “atajos” de los “teóricos” de la IA, como por ejemplo Nouval Youval Harari, que plantea que “cada vez más la inteligencia se separa de la conciencia”. Con esto solo se sacan de encima el problema de la conciencia humana, sin explicar lo central: la relación entre inteligencia y conciencia. Desde una mirada histórico-cultural vigotskiana, la inteligencia humana está ligada a procesos semióticos eminentemente sociales y culturales complejos producto de una coevolución biológica y cultural determinada históricamente en la que “emerge”, en un proceso de desarrollo, de su base biológica pero es irreductible a la misma; la mirada cognitivista empobrece esta complejidad, en primer lugar porque deja de lado el carácter histórico de la mente humana. Y al aceptar las premisas a la base teórica de la IA, los autores acarrean todos sus problemas y limitaciones. Desde este ángulo, por cierto, la discusión que hacen sobre el general intellect se inclina más hacia la mirada del posoperaísmo.
De todas maneras, es notable cómo ante los límites del enfoque cognitivista de la IA, el libro da cuenta de cómo constantemente aparecen intentos de ir más allá, hacia una mirada del desarrollo y el aprendizaje, como la “máquina bebé” de Nils Nilson. En este sentido, partiendo de supuestos no reduccionistas se abre toda una vía de indagación: ¿podría existir una modelización cibernética que parta de supuestos teóricos histórico-culturales de la psicología vigotskiana? Difícil, porque implica tener en cuenta la complejidad dialéctica de la coevolución biológica-cultural, aspectos sociales y políticos y un desarrollo ontogenético humano singular, pero al menos apuntaría bien la búsqueda. Y también la reflexión sobre posthumanismo se podría encauzar estratégicamente desde esta mirada vigotskiana.
El segundo aspecto crítico tiene que ver con su lectura de Marx, sobre la que aparecen al menos dos problemas. Uno tiene que ver que los conceptos de clase social y de trabajo incluyen la posibilidad de que esa clase subvierta conscientemente el orden capitalista, o, en otras palabras, que el concepto de trabajo –y de clase social y lucha de clases– va mucho más allá de las capacidades que puede realizar una máquina y es parte de una totalidad del capitalismo y su modo de acumulación. Como sostiene Daniel Bensaïd, “la noción de clase según Marx no es reducible ni a un atributo del que serían portadoras unidades individuales que la componen, ni a la suma de estas unidades. Es algo más. Una totalidad relacional [...] no es clase más que en relación conflictiva con otras clases” [21]. Respecto al supuesto cuestionamiento de la IA a la ley de valor de Marx, el argumento va en el mismo sentido; según ellos, para Marx la división entre personas y no personas radicaría en que “los humanos poseen conciencia e inteligencia, y son capaces de realizar distintas actividades”, pero, por un lado, la IAG saltaría esa distinción, y, por otro, en el capitalismo “la subjetividad y agencia humanas se ven reducidas a personificaciones abstractas de las categorías económicas; es decir, al igual que las abejas de Marx, los seres humanos se ven reducidos a la ejecución de algoritmos” [22], la IAG pasaría a personificar todas las categorías económicas” [23]. Acá, al problema previo de definición de clase y del reduccionismo cognitivista, se suma la unilateralización de una tendencia del capitalismo a la automatización, que supuestamente llevaría a robots no creados por seres humanos que a su vez creen otros robots, dado que, si en el principio hay trabajo humano hay valor. Los autores plantean que esto podría pasar “a partir de una multiplicidad de IA estrechas que lleven a cabo funciones económicas en nuestro nombre: Alexa, Google Home, refrigeradores conectados al internet de la cosas, etc. [...] conectados a fábricas y sistemas logísticos automatizados basados en IA donde el trabajo humano ha sido mayormente reemplazado por IA estrechas o generales, el ser humano se ve apartado del circuito económico por en favor de un capital completamente automatizado” [24]. En síntesis, se trata de otra forma de plantear –sin mayor justificación, como se ve– la [tesis del “fin del trabajo”-https://www.laizquierdadiario.com/Vampiro-digital-el-capitalismo-cibernetico-y-el-proletariado], que el propio Dyer-Witherford criticó muy correctamente en su libro Cyber Proletariat, y que [Paula Bach analizó críticamente en esta misma revista-https://www.laizquierdadiario.com/Mas-alla-del-capital-las-posibilidades-historicas-de-la-tecnologia].
El segundo problema tiene que ver con el atributo de inteligencia en máquinas que ubican como cuestionando el supuesto antropocentrismo de Marx: la definen, como vimos, desde la mirada reduccionista y ahistórica cognitivista, y a la hora de justificar ese supuesto antropocentrismo, haciendo hablar al propio Marx, se contradicen (un clásico). Y más aún, terminan señalando un punto de apoyo para pensar en términos ecológicos justamente a John Bellamy Foster, quien justamente dedicó parte de su obra a desarmar esa acusación de antropocentrismo hacia Marx (¡y contra esos mismos autores en los que se apoyan los autores, como Ted Benton o Jon Elster!).
Por supuesto, estos aspectos no niegan los valiosos aportes que hace el libro caracterizando la situación actual y las perspectivas, las diferentes miradas críticas y desde el marxismo, y planteando la IA como problema estratégico central para una perspectiva anticapitalista revolucionaria. Respecto a la teoría marxista, el intento de problematizar mutuamente la IA resulta productivo y demuestra que hay un núcleo de problemas comunes a la cibernética, la ecología, la psicología y el capitalismo que reclaman del marxismo una recreación de la reflexión materialista dialéctica para dar respuesta, resituar y aprovechar las reflexiones productivas (como esta) y hacer frente a la propaganda burguesa alrededor de la IA. |