Ideas de izquierda

Armas de la critica

SEMANARIO

Inteligencia artificial: el verdadero peligro

Leonardo Vázquez

TECNOLOGÍA

Inteligencia artificial: el verdadero peligro

Leonardo Vázquez

Ideas de Izquierda

El debate sobre la llamada Inteligencia Artificial y sus aplicaciones, ha dado un salto que sorprende a científicos, especialistas y hasta a sus mismos desarrolladores. ¿De qué se trata y cuáles son sus implicancias? ¿Cuáles son las posibles consecuencias desde una perspectiva socialista?

Intentaremos realizar un repaso y explicación de los desarrollos en materia de Inteligencia Artificial y algunos de los problemas planteados. Tomaremos algunas de estas transformaciones en el marco del desarrollo tecnológico en el capitalismo contemporáneo, así como sus implicancias, como aporte para pensar y abordar peligros y posibilidades que se abren, desde una perspectiva socialista.

Un poco de historia

Existen muchas definiciones posibles sobre el significado de la llamada Inteligencia Artificial (IA), desde los orígenes de la informática a partir de la búsqueda de imitar la inteligencia humana. La posible capacidad de las máquinas para imitar el pensamiento humano a partir del procesamiento de algoritmos lógicos ha fascinado a pioneros de la informática como Ada Lovelace, considerada la primera programadora, en su análisis de la máquina análitica de Babbage allá por el siglo XIX.

El mismo Alan Turing uno de los padres de la arquitectura moderna de computadoras, se pregunta en 1950: “¿Pueden pensar las máquinas?”, y ante la dificultad de responder tal pregunta, intenta plantear una prueba para evaluar la inteligencia de una máquina, sosteniendo que si una máquina podía comunicarse con un humano mediante textos y sostener una conversación exhaustiva, imitando y engañando al ser humano, se podría considerar que esta máquina era inteligente.

En 1943, dos neurocientíficos, publican un primer modelo matemático que busca imitar una red neuronal, aún cuando durante la década del 50, las computadoras todavía no existían o tenían muy baja potencia, ya había matemáticos desarrollando algoritmos que permitían jugar al ajedrez, que todavía no podían ser ejecutados en ninguna máquina.

El desarrollo de las computadoras y la posibilidad de programar algoritmos mediante secuencias lógicas predeterminadas, permitió incorporar poco a poco teorías y conocimientos matemáticos existentes previamente y el desarrollo de nuevos modelos lógicos, teorías de cálculo, de la información, inferencias y funciones que iban pudiendo mejorarse en paralelo al crecimiento de la capacidad de cómputo.

En los años 60 por ejemplo, el Instituto de Tecnología de Massachusetts (MIT), desarrolló un programa llamado ELIZA, que podía simular una conversación por chat, llegando a engañar a algunos humanos. Aunque de nivel muy limitado el hecho tuvo cierto impacto en el ámbito académico y promovió debates sobre la posibilidad de las computadoras de imitar a los humanos. Esto generó importantes expectativas que fueron frustradas por no conseguir resultados prácticos que tuvieran impacto económico o que pudieran resolver grandes problemas, lo cual produjo un estancamiento o crecimiento lento durante varias décadas, quedando bastante limitados estos desarrollos al ámbito académico y de investigación.

Además de la abundante literatura de ciencia ficción preexistente, en 1984 se estrenaba la película Terminator golpeando sobre el imaginario del público. Mientras que a fines de los 90, la computadora Deep Blue desarrollada y promocionada por IBM derrota por primera vez al imbatible campeón mundial de ajedrez Garry Kasparov en una serie de legendarias y publicitadas partidas, contra lo que pronosticaban muchos expertos incluyendo al mismo Kasparov [1], lo cual volvió a generar nuevos y más extendidos debates sobre el tema [2].

Desde entonces el debate ha continuado, alimentado por la ciencia ficción y a la par de distintos desarrollos basados en el crecimiento de las capacidades de las computadoras que produjeron grandes cambios en la sociedad en general, pero no tuvieron tantas aplicaciones en la economía ni en la sociedad en materia de IA como se esperaba originalmente. Durante todos esos años se desarrolló enormemente la digitalización, las redes y los algoritmos tradicionales, pero todavía no había un contexto como para que estas tecnologías pudieran tener aplicaciones que superaran a los algoritmos tradicionales.

Inteligencia Artificial y Machine Learning

A diferencia de la mayor parte de los programas de software tradicionales, donde las opciones de respuesta y posibles comportamientos son predeterminados y programados previamente. Podemos considerar como Inteligencia Artificial (IA), a la capacidad de las máquinas de aprender y adaptarse a partir de datos para detectar patrones, relaciones e inferencias y generar nuevos algoritmos capaces de dar mejores respuestas adaptadas a nuevas situaciones.

Aproximadamente desde 2010 en adelante, empieza a crecer lo que se conoce como machine learning (aprendizaje automático o de máquina) cuyas técnicas existían desde hace décadas, pero con mayores aplicaciones prácticas dando buenos resultados, permitiendo responder y adaptarse ante el enorme salto en la cantidad de datos digitales (conocido como big data) propio de la década [3]. Estas tecnologías parten del “entrenamiento” de algoritmos a partir de grandes volúmenes de datos, de los cuales pueden extraerse patrones de comportamiento, usando técnicas que permiten detectar patrones lógicos, relaciones, modelos de regresión, funciones matemáticas, modelos probabilísticos, estadísticos y redes neuronales desde los cuales se generarán las respuestas. A su vez, este aprendizaje puede ser con mayor o menor supervisión humana y se enfoca a distintas situaciones concretas.

Aplicaciones como estas aprenden a encontrar complejas lógicas y relaciones que les permiten adaptarse a determinados contextos. Esto sólo fue posible por los avances exponenciales en la capacidad de cómputo, procesamiento y almacenamiento de datos (incluyendo imágenes y sonido) que a su vez permitieron experimentar, mejorar y desarrollar nuevos métodos de aprendizaje de estos modelos. En particular muchos de estos modelos utilizan chips de propósito específico, las llamadas tarjetas gráficas o GPU [4].

Desde hace más de una década, año tras año se prueban y mejoran los métodos de aprendizaje de los algoritmos y aumenta el volumen de datos de entrenamiento. Así se desarrollan con éxito aplicaciones específicas que se adaptan y responden mejor de lo que puede hacerlo un algoritmo determinista tradicional.

De esta manera estas tecnologías empiezan a tener cada vez más aplicaciones específicas en diferentes sectores: buscadores, traductores, conversores texto-voz, efectos audiovisuales, predicción de comportamientos, sugerencias en redes sociales, publicidad segmentada, bots conversacionales, reconocimiento facial, asistencia en medicina, ciencia y profesiones de todo tipo, permitiendo aumentar las capacidades humanas en muchos aspectos [5].

Te puede interesar: La guerra de los chips

El salto de ChatGPT

En el año 2015, se funda OpenIA, un laboratorio de Inteligencia Artificial, integrado entre otros, por Sam Altman y Elon Musk (que entonces prometía invertir 1000 millones de dólares en el proyecto). A principios de 2018 Musk le dijo a Altman que la misión había fracasado y que estaban muy lejos de lo que estaba logrando Google con su empresa DeepMind. El impulsivo Elon Musk se retira habiendo aportado sólo unos 100 millones de dólares y cancelando el resto de su inversión. En menos de 6 meses, Microsoft entra en escena invirtiendo 1.000 millones de dólares en OpenAI y la infraestructura de su nube Azure, lo que vuelve a poner a la empresa en carrera. Así Microsoft apunta al corazón de su rival Google: su buscador y navegador, incorporando ChatGPT a Bing (el navegador de Windows) y buscando la integración con sus aplicaciones que venían perdiendo terreno con el modelo de Google de aplicaciones en la nube [6].

Con Microsoft apurando el paso detrás de OpenAI, llegamos al primer lanzamiento de ChatGPT el 30 de noviembre de 2022, con una versión mejorada el 14 de marzo de 2023, de manera gratuita y abierta al público. De esta manera ChatGPT, puede ser considerado el primer bot conversacional de gran impacto social hasta el momento. Con esto Microsoft logra adelantarse, por ahora, un paso a Google que también estaba trabajando en un bot conversacional similar [7].

El lanzamiento de ChatGPT tuvo gran impacto en la opinión pública mundial, batiendo el récord mundial de crecimiento en uso de aplicaciones, llegando a unos 100 millones de usuarios en dos meses. Los resultados fueron sorprendentes, incluso para los mismos desarrolladores.

Abierto al público general, entrenado con una enorme base de datos que se estima en 45 TB (equivalente a más de 30 millones de libros), basado en la llamada Inteligencia Artificial Generativa, combina las metodologías de machine learning más avanzadas hasta el momento, entrenado con gran parte del conocimiento de la humanidad. Los datos de entrenamiento quedan plasmados en enormes redes neuronales, modelos matemáticos y complejas relaciones que constituyen este modelo. A partir del cual se generan respuestas que no siempre son precisas ni rigurosas, pero coherentes y hasta con cierta creatividad sobre cualquier tema, el principal problema es que esto puede generar respuestas con información falsa [8].

Las respuestas que se generan sobre los más diversos temas, parten de estas relaciones lógicas permitiendo incluso la generación de nuevos contenidos a partir de todo tipo de interrelaciones y hasta de introducción de aleatoriedad que permite la salida de contenidos más o menos más “creativos e irracionales” o más estrictamente “racionales y estructurados” según como se lo configure. Estos modelos muestran gran capacidad de procesamiento del lenguaje, interpretación del contexto y poder mantener el hilo de una conversación para interactuar sobre determinados temas. Los nuevos modelos en desarrollo además permiten incorporar información online de Internet así como conectarse con distintas aplicaciones, incluso con otros modelos de IA específicos.

Te puede interesar: Inteligencia artificial: ¿qué es ChatGPT y para qué sirve? y algunos debates más

IA de Código Abierto

Desde sus orígenes el software se desarrolló a partir de entornos colaborativos que permiten compartir, modificar, probar y mejorar los algoritmos potenciando la innovación. Aunque muchos de los avances se realizan dentro de las empresas, se dificulta impedir su generalización o superación (en medio de complejas disputas de licencias).

La libertad de compartir e intercambiar conocimientos, es fundamental para el desarrollo científico general, esto se potencia de hecho desde políticas públicas que promuevan el desarrollo y la investigación. Sin embargo la innovación que se genera desde los conocimientos abiertos, entra en contradicción con los intereses de empresas y laboratorios privados o militares, que se nutren de estos conocimientos y buscan cerrarlos en sus propios entornos de investigación más limitados. Estos entornos cerrados, no solamente son menos eficientes para la producción científica general, sino que además mucho más opacos sobre todo en terrenos donde es fundamental la transparencia y la regulación; donde el objetivo central es la ganancia de la empresa, pasando a segundo plano las consecuencias sociales que pudieran generar estos desarrollos.

De la misma manera, gran parte de los desarrollos e investigaciones en IA están también basados en entornos abiertos y colaborativos, lo que se conoce como IA de Código Abierto. Al meterse de lleno la competencia en este terreno tanto Microsoft como Google han cerrado sus investigaciones y publicaciones relacionadas, agregando un mayor nivel de opacidad a los desarrollos [9]. Tanto es así que hay quienes alertan sobre la posibilidad de que este curso afecte la innovación en las empresas y vuelva a poner por delante al desarrollo de una IA de código abierto.

Se perfila así una carrera en el desarrollo de la IA cuya evolución e impacto económico y social es difícil de prever y está por verse si el impacto económico resulta acorde a las expectativas. A pesar de esto, ya se puede afirmar que se trata de un avance de importantes consecuencias. Justamente por eso es necesario intentar precisar de qué estamos hablando, en qué consisten los avances que ya pueden observarse y su posible impacto en distintas aplicaciones.

Te puede interesar: El software libre y sus límites bajo el capitalismo

Voces de alerta

Tras la salida de ChatGPT y el impacto de la aplicación, el debate sobre la IA vuelve a estar sobre la mesa con anuncios de todo tipo sobre sobre los potenciales beneficios y peligros de esta tecnología.

Una declaración de Elon Musk (más interesado en ganar tiempo para volver a la carrera) junto a cientos de expertos, sacaron una carta abierta advirtiendo sobre los peligros de la IA para la humanidad, planteando la necesidad de mayores regulaciones y transparencia con un llamado a detener los entrenamientos de los modelos más potentes por 6 meses.

Unos días antes, un encuentro de expertos en IA en latinoamérica, saca la llamada “Declaración de Montevideo”, advirtiendo sobre los riesgos que conllevan el crecimiento irreflexivo de estos sistemas y se pronuncia por desarrollar políticas públicas que permitan mejorar el bienestar general como prioridad y por la necesidad de regulaciones en la materia.

Varios años atrás, ya Steven Hawking (entre otros), advertía sobre los peligros que podría traer para la humanidad el desarrollo de la Inteligencia Artificial, poniendo eje en cuestiones como el armamento autónomo o el uso que pudieran darle quienes controlen estas tecnologías.

Te puede interesar: Tecnología. Stephen Hawking: El peligro no son los robots, sino sus dueños

El impacto de estas tecnologías en la sociedad, la abundante ciencia ficción en la materia y las advertencias de especialistas, se mezclan en los medios de comunicación con apologistas que plantean el desarrollo de la IA como una solución a todos nuestros problemas, así como apocalípticos que plantean futuros distópicos de todo tipo.

Después de lanzar al mercado mundial una IA para entrenar sus algoritmos y experimentar con la población mundial, aparecen pedidos de regulación por todos lados, donde hasta las mismas empresas y responsables de estos desarrollos aparecen “preocupadas” con el objetivo de mitigar los efectos de dichas regulaciones sobre sus propios intereses y buscar mostrarse “responsables” en el uso de estas tecnologías (una especie de greenwashing tech).

Precisando la discusión

El concepto de Inteligencia Artificial General, que se refiere a la posibilidad de lograr una inteligencia humana de manera integral, siempre ha sido parte de las especulaciones futuristas, de ciencia ficción y debates filosóficos sobre qué es y cómo funciona la inteligencia y la creatividad humana [10]. El debate es sin duda interesante, pero es necesario marcar claramente que hoy en día hay amplio consenso entre expertos y especialistas que estamos muy lejos de esta posibilidad [11].

Es importante siempre aclararlo, porque no sólo promotores de estas tecnologías, empresas que buscan financiamiento o medios sensacionalistas sino incluso quienes ven la necesidad de mitigar los daños pueden jugar con estos planteos lo cual puede confundir la discusión. Así como en otros temas, también sucede en general que planteamientos utópicos como distópicos, pueden quitar el foco sobre el real y presente impacto, posibles consecuencias y verdaderos peligros que pueda traer el uso de estas tecnologías y las responsabilidades de quienes las controlan.

Como en otros muchos temas, es más fácil pensar en el fin de la humanidad o abandonar el planeta que la posibilidad de un sistema alternativo al capitalismo ante los crecientes problemas que genera, que pueda hacer uso racional, democrático y sustentable de los medios de producción. Por un lado, las posiciones que sobrevaloran los desarrollos tecnológicos en sí mismos como solución a nuestros problemas, tampoco contribuyen a poder dar cuenta del fenómeno, en particular las posibilidades y peligros que se abren. Por otro lado, tampoco pueden responder a los problemas que se abren, quienes subvalúan o dejan de lado las transformaciones que se generan en este terreno.

De quién son los datos

Uno de los principales debates que se abren, es por los derechos de autor de los datos que usan los algoritmos. Si bien estos modelos no almacenan la información original tal cual fue publicada, sí necesariamente la utilizan para entrenar a sus modelos. Estamos hablando de millones de libros, sitios de conocimiento público en Internet, así como imágenes de artistas, audios de músicos y videos, a partir de los cuales, pueden realizar alteraciones a pedido, simulando el estilo de determinado autor. De esta manera es posible, por ejemplo, para estas aplicaciones simular responder a determinadas preguntas como si fuera determinado personaje, pedir una imagen al estilo de determinado pintor o cantar una canción con la voz de un autor determinado, para lo cual los algoritmos se entrenaron con estas obras entre muchísimas otras.

Esto se da en el marco de un arte y el conocimiento cada vez más mercantilizado, así como la apropiación y uso del patrimonio artístico y cultural generado por artistas, científicos e intelectuales de parte de grandes multinacionales que lucran a partir de nuestros datos [12]. Cuestión que abre el debate sobre las distintas posibilidades y formas de regular el uso de los datos.

¿Cuánto y cómo se regula el uso de información disponible públicamente? ¿Se intentará restringir el acceso a los datos? ¿Puede llevar esto a una Internet más cerrada? ¿Cómo se compensará a los generadores de contenidos por el uso que se haga de sus datos? En este debate intervienen desde ya muchos intereses donde entran distintos tipos de licencias y posibles restricciones de acceso [13], así como posibles legislaciones de distintos gobiernos [14]. A su vez, ya existe también un “mercado negro” basado en IA de código abierto que toman datos disponibles sin restricciones, buscando entrenar modelos que eviten todo tipo de regulaciones.

Aunque es un debate abierto, en esto podemos decir, que no hay ningún impedimento técnico que impida plataformas públicas y transparentes, cuyos mecanismos de regulación y compensación sean discutidos democráticamente por usuarias, usuarios, generadores de contenidos (como artistas, periodistas, intelectuales, etc), trabajadores del sector implicado y especialistas en la materia y que puedan también resguardar la privacidad de las personas.

Te puede interesar: Entrevista. Santiago Caruso sobre la Inteligencia artificial en la industria de la creación de imágenes

Problemas propios de la tecnología

Sin pretender ser un listado acabado, enumeramos primero algunos de los potenciales problemas propios de esta tecnología, más allá del uso que se le quiera dar a la misma.

Generan información falsa: Aunque las nuevas generaciones de bots conversacionales viene sorprendiendo a los mismos desarrolladores en muchos aspectos por sus resultados, pueden responder a nivel de especialistas, asistir y establecer relaciones en muchos temas, uno de los grandes problemas que presentan los modelos de Inteligencia Artificial Generativa, es que muchas veces responden de manera coherente y verosímil con información falsa. Aunque se considera que esto puede mejorarse con el tiempo, especialistas aseguran que eso no será tan sencillo de resolver este problema en el corto plazo por las características del modelo.

Repiten y refuerzan sesgos: Otro de los grandes problemas de gran parte de los modelos de IA es la repetición y reforzamiento de los sesgos que provienen de los propios datos. Los modelos repiten las lógicas de acuerdo a los datos que los alimentan, bases de datos que expresan racismo, machismo, e infinidad de otros posibles sesgos existentes en la sociedad, terminan entrenando a los algoritmos generando modelos que repiten estos patrones sociales reforzándolos. Se intenta limitar o moderar los sesgos más brutales de racismos, machismo, discriminación y xenófobia, pero los sesgos están en todos lados y en última instancia, provienen de los datos que alimentan los algoritmos, que a su vez provienen de los valores principales que se promueven en la sociedad. Incluso es posible generar modelos con distintos sesgos (en el mercado negro) según la preferencia, de acuerdo a los datos que entrenen los algoritmos y las restricciones posteriores que se le vayan agregando a los modelos. Desde ya que son necesarias regulaciones que controlen las consecuencias de los sesgos, pero en última instancia, es necesario apuntar al origen de éstos. No es un problema de la “naturaleza humana” sino que sus causas provienen de los valores que imponen las clases dominantes a través de sus instituciones.

Potencial refuerzo de la endogamia: La interacción del interlocutor con el algoritmo puede terminar dando argumentos y reforzando las propias posiciones del interlocutor, cuestión que sabemos genera mayor tiempo de atención y refuerza las lógicas endogámicas como se puede ver hoy en las redes sociales.

Autonomía y pérdida de control: Una vez entrenados estos algoritmos y las relaciones que pueden establecerse como respuestas en muchos de estos algoritmos, aunque puedan parecer coherentes, son en realidad impredecibles, por tratarse de complejísimos modelos, relaciones matemáticas y probabilísticas que ni siquiera sus mismos desarrolladores más expertos pueden rastrear.

Se pierden las fuentes: Los modelos entrenan sus algoritmos con miles de datos, pero pierden la trazabilidad de los mismos, cuestión que puede dificultar el chequeo de las fuentes a la hora de detectar de donde proviene determinada información que se proporciona como respuesta, así como la posibilidad de mayores niveles de opacidad acerca de cómo se toman decisiones o se llega a distintas conclusiones. Existe a su vez una rama llamada “Inteligencia Artificial Explicativa” que busca justamente hacer que los sistemas sean más transparentes y comprensibles, para que los usuarios puedan entender cómo se están tomando las decisiones, cuestión que muestra que se puede seguir trabajando en este sentido. Pero hay que partir de que, por sus consecuencias sociales, todos los modelos, algoritmos y datos de entrenamiento, tanto de empresas como de Estados, sean totalmente abiertos y transparentes a la comunidad, resguardando a la vez la privacidad de las personas.

Mayor opacidad: Si bien estos modelos pueden ser buenos asistentes en múltiples tareas. Una de sus principales características, es la mayor opacidad de las respuestas y conclusiones que generan. En el ámbito educativo, por ejemplo, requiere mayor y más personalizada asistencia de los docentes junto a los alumnos para evaluar la comprensión de los contenidos, desarrollar razonamientos propios y un pensamiento crítico de los mismos, así como el chequeo de fuentes y evidencias científicas. Así como en el ámbito laboral, requieren de especialistas que comprendan, puedan evaluar y chequear las respuestas de estos modelos.

Te puede interesar: Automatización y “fin del trabajo”: el futuro ¿ya llegó?

Problemas de aplicaciones de estas tecnología

Más graves todavía que los problemas propios que plantean estas tecnologías, son los posibles usos que le quieran dar empresas y gobiernos en un sistema donde los intereses de ganancia y lobbies de poder están por delante de los intereses de la población. Enumeramos algunos de los más renombrados:

Fake News y campañas: Mayores posibilidades de utilizar estos modelos para la generación de fake news mucho más realistas, incluyendo fotos, voces y hasta videos falsos. A su vez, más que ejércitos de trolls en las redes sociales podrán generar ejércitos de bots especialmente preparados para interactuar con perfiles específicos pudiendo generar contenidos personalizados de manera masiva para campañas políticas o suplantación de identidades. Por lo que será necesario, desde ya, promover mucho más el chequeo de la información en materia de noticias basado en fuentes confiables.

Publicidad: De la misma manera las posibilidades de generar más y mejor publicidad dirigida y personalizada se potencian. En un marco de un sistema publicitario controlado por el marketing de las grandes empresas, priman los intereses de generar consumos y necesidades para intentar vender sus productos y servicios de manera cada vez más sutil, invasiva y engañosa. Objetivos como una publicidad orientativa, educativa y orientada a mejores y más racionales hábitos de consumo en la población queda relegado.

Generar despidos en lugar de reducir la jornada laboral: Uno de los mayores sentidos comunes que se quieren imponer, es una supuesta amenaza de parte de la tecnología sobre el trabajo. La posibilidad de automatización y asistencia en ciertas tareas promete cambios en el mundo del trabajo, como en informática donde pueden ayudar a resolver más rápidamente problemas específicos. Pero la forma en que impactarán estas tecnologías en los procesos productivos y en la economía, es algo que está abierto. La posibilidad de combinar IA con aplicaciones del mundo real, como la robótica o la llamada Internet de las Cosas (por sus siglas en inglés IoT), sin duda aumentan pero no es tan trivial su factibilidad técnica y económica (como podría parecer) por las dificultades que presenta actuar y responder en “tiempo real” a un “mundo real”, por lo que también están por verse los ritmos y formas en que se pueda desarrollar en este campo. No es una novedad el intento de las empresas de utilizar los avances tecnológicos y el aumento de la productividad del trabajo humano como excusa para quitar derechos o despedir trabajadores en lugar de reducir la jornada laboral. Históricamente la clase empresaria ha buscado ubicar al “desarrollo tecnológico” puesto como algo “externo” y opuesto a los intereses de los propios trabajadores, para intentar justificar posibles despidos y quita de derechos, en lugar de realizar avances en la reducción de la jornada laboral y el reparto de las horas de trabajo.

Te puede interesar: Video: Las nuevas tecnologías y el futuro del trabajo

Nuevos sectores sin regulaciones ni derechos: Una de las formas más extendidas de avance sobre los derechos laborales y de los consumidores, utilizados por los empresarios al no poder avanzar de manera directa sobre conquistas históricas, es aprovechar nuevos terrenos desregulados para avanzar, creando empleos precarios y permitiendo todo tipo de abusos. De esta manera los avances en la tecnología son aprovechados para eludir todo tipo de regulación en materia de posibles daños ambientales, sociales y precarización en el ámbito laboral. El alto ritmo de estos cambios donde avanzan sin control los más poderosos, contrasta con el lento y arduo avance en materia de regulaciones en cada uno de estos sectores. No se hicieron esperar denuncias sobre las mismas empresas de IA, que hasta se encargaron de subcontratar trabajadores en condiciones de superexplotación para tareas asociadas como el etiquetado, supervisión entrenamiento de algoritmos y moderación de los resultados. Por no hablar en general de las llamadas tendencias a la “uberización” de las relaciones laborales en muchos sectores.

Responsabilidad por resultados inesperados: Las posibilidades de fallas en algoritmos de gran autonomía son una realidad, por lo imprevisible de sus resultados. Los intentos de sacar productos sin medir consecuencias, sin probarlos lo suficiente son moneda corriente. Justamente el lanzamiento de ChatGPT se basó en un adelantamiento del lanzamiento donde las pruebas y “ajustes” al modelo se realizan directamente sobre la misma población post-factum. Es de esperarse que a su vez las empresas buscarán deslindar su responsabilidad, responsabilizando “al algoritmo” de posibles fallas imprevistas que pudieran producir sus productos o servicios.

IA en medicina: Uno de los usos potencialmente más importantes, es en el terreno de asistencia a la medicina. Donde cada vez mejores herramientas de IA, pueden generar análisis y posibles diagnósticos muchos más completos, a partir de resultados de laboratorios y con grandes bases de datos médicas. Esto permite que más profesionales puedan ser asistidos con herramientas que permitan tomar mejores decisiones. Sin embargo, existe el riesgo de que esto pueda estar acompañado de recortes en las plantillas y una despersonalización de la atención médica, cuestión que deja de lado el análisis de circunstancias concretas del entorno de los pacientes y la necesidad de una medicina preventiva no mercantilizada. Por no hablar también, del potencial uso de estas bases de datos por servicios de salud para restringir el otorgamiento de prestaciones o para la contratación de personal. Se prometen mejoras en los desarrollos en IA pero la salud pública sufre un deterioro en todo el mundo como se pudo visibilizar en la pandemia y los problemas de fondo no se pueden solucionar si las y los trabajadores de la salud siguen con restricciones presupuestarias, bajos salarios y falta de personal. Las promesas de adelantos futuros en tecnología pueden incluso ser utilizados para encubrir realidades presentes que no se solucionan.

IA en educación: De la misma manera en el ámbito educativo, las herramientas de IA pueden ser una valiosa herramienta de asistencia en material de aprendizaje e investigación. De hecho, los ámbitos educativos, son unos de los lugares donde más inmediato impacto tuvieron estas tecnologías. Parte de las disputas de los grandes jugadores en materia de IA, como Microsoft y Google, se da en la educación y las plataformas educativas, donde se pretende paliar los déficits educativos basados por plataformas y modelos de IA, donde el peligro es el intento de delegar tareas educativas de “menor costo” que un docente. De esta manera, también existe el riesgo de que estas tecnologías, bajo lógicas mercantiles de la educación terminan buscando justificar o encubrir bajos presupuestos, mantener bajos salarios, reducción de plantillas y más alumnos por docentes. Es decir mantener y profundizar los déficits en la educación pública. Relegando el aprendizaje (o parte de este) a las plataformas en lugar de aumentar la calidad, remuneración y capacitación de los mismos.

Te puede interesar: Inteligencia Artificial y el futuro de la formación en ciencias

Uso para recortar prestaciones y servicios: Estas nuevas tecnologías potencialmente permitirían mejorar la asistencia en múltiples trámites, reclamos y gestiones. Sin embargo en la práctica, muchas de las empresas de servicios (públicas o privadas) terminan deslindando la atención humana en bots que no necesariamente resuelven los reclamos y problemas o relegan en trámites interminables la resolución de gestiones para todo tipo de reclamos o resolución de problemas cuando muchas veces es necesaria la comprensión del problema concreto de parte de una persona para poder responder o directamente implican faltas de parte de las empresas que prestan los servicios.

IA en materia de seguridad informática: Uno de los usos más conocidos es el reconocimiento facial implementado en muchos países y que ha generado rechazos y controversias. Así como este hay muchos otros posibles usos que pueden afectar la privacidad de las personas como la llamada Inteligencia de Fuentes Abiertas (OSINT por siglas en inglés). En este terreno, la privacidad de la información personal aparece vulnerada por empresas y gobiernos, mientras que la información sensible de los poderosos aparece oculta ante las mayorías. Son múltiples los usos que pueden realizar tanto empresas como Estados del uso de estas tecnologías, en detrimento de la población, en materia de control social y laboral por ejemplo. Nuevamente, que estos problemas no sean resueltos no tiene que ver con un problema técnico, sino en una cuestión de quienes controlan y con qué intereses estas tecnologías.

Te puede interesar: Seguridad Informática. Autodefensa digital: ¿por dónde empezar?

Armamento autónomo y carrera armamentista: Dentro de la carrera armamentista en curso de parte de las principales potencias, se incluye el desarrollo de drones y todo tipo de armamento autónomo que potencian las capacidades de destrucción y daño en general. No estamos hablando de que se “rebelen las máquinas”, ni siquiera de posibles “errores”, “daños colaterales” o posibilidades de pérdidas de control del armamento por errores, que desde ya se potencian. El principal problema está dado por la posibilidad de confrontación real entre las principales potencias, con todo su desarrollo tecnológico puesto en función de este objetivo, en el terreno y con armamento real, incluyendo arsenal nuclear y armamento autónomo, cuestión que cada vez más se pone al orden del día desde la guerra en Ucrania.

El problema de las regulaciones

Más en general, podemos decir que los avances en ciencia y la tecnología, implican mayores capacidades de la humanidad para realizar cambios que impacten en la naturaleza y en la misma sociedad, lo cual implica mayores riesgos como los impactos en el cambio climático, desarrollos en biotecnología, a lo que se empieza a sumar la IA, entre muchos otros. La velocidad de los cambios hacen que el poder de las empresas sea determinante, frente a la falta de capacidad, inexistencia (o colaboración) de los entes reguladores. En todos estos terrenos es totalmente posible tomar medidas para mitigar eventuales daños que pudieran producirse en las sociedades, pero el problema de fondo reside en el marco en el que se desarrollan estos avances. Es decir, de donde provienen las dificultades y límites existentes para implementar posibles regulaciones.

Uno de los mitos de la IA así como de tantos otros temas, es la imposibilidad de establecer una regulación democrática por la complejidad del tema que sólo podría quedar reducido a una elite. Esto es totalmente falso, como puede verse por ejemplo en materia de regulación de medicamentos o alimentos donde existen entes de especialistas que establecen pautas y normativas elementales que hacen a la salud de la población. Si así y todo los intereses de las empresas se imponen, no se trata de un problema de dificultad técnica, sino que gobiernos y organismos de control terminan dejando pasar o actuando en favor del lobby de las empresas. Ni hablar en nuevos sectores de la tecnología, donde ni siquiera existe regulación.

Desde ya que muchos de estos servicios son internacionales (como desde hace rato la economía en su conjunto), pero, aunque también sería totalmente posible poder integrar estos servicios internacionalmente entre distintos países, respetando legislaciones locales que pudiera haber, el problema claro está, una vez más, no es la tecnología, son los capitalistas.

Algunas conclusiones

Es necesario entonces partir de analizar el desarrollo de la tecnología en el marco del capitalismo actual, para dar cuenta de sus límites y posibilidades.

Está por verse, cómo puede efectivamente impactar este salto en desarrollos de IA en la economía y el mundo del trabajo. Pero como nunca antes, la tecnología abre la posibilidad de liberarse del trabajo para la subsistencia, reducir drásticamente la jornada laboral, repartir las horas de trabajo y posibilitar un salto en el tiempo libre, que permita potenciar enormemente las capacidades humanas en el arte, la cultura, la investigación científica y el ocio.

La posibilidad de implementar y potenciar estos desarrollos, en todas las esferas de la actividad humana depende de que quienes desarrollan y utilizan las tecnologías tengan las posibilidades, el tiempo y la capacitación para poder hacerlo, para lo cual es necesario antes que nada dar respuestas a cuestiones como la vivienda, la salud y la educación pública.

Siempre la clase capitalista, buscó mostrarse como la portadora de la "llama sagrada" del desarrollo tecnológico y con intereses filantrópicos, cuando su único aporte es un capital basado en innovaciones y trabajo expropiado, así como en el conocimiento científico y cultural de la sociedad. La lógica mercantil, no interesada en responder a problemas sociales o daños medioambientales, sino condicionadas directamente por el interés de ganancia a toda costa, se evidencia como uno de los principales problemas del desarrollo científico y tecnológico contemporáneo. Cuestión que resulta más que paradójica, cuando son las y los trabajadores del mundo entero sobre quienes descansa el manejo y control de las enormes capacidades de la tecnología. En última instancia, cuando la ciencia, la educación, la cultura y el conocimiento de la humanidad, no tienen nada que ver con supuestos “genios magnates”, sino que son más que nunca productos sociales colectivos basados en la cooperación.

El imaginario sobre las potencialidades liberadoras de la tecnología llevó una y otra vez a la ilusión de que los desarrollos tecnológicos podrían de alguna manera superar incluso las propias contradicciones del capitalismo, esta ilusión sobre todo fue alentada a partir de las concesiones y cierto desarrollo capitalista de posguerra y más recientemente con las ilusiones de la globalización, pero esto no fue lo que sucedió. En el presente, a pesar de los avances, la ilusión de un futuro de soluciones tecnológicas a los problemas sociales contrasta con una realidad de mayor desigualdad y decadencia capitalista.

Los últimas décadas, posibilitaron a las empresas avanzar por encima de regulaciones y derechos existentes y sobre nuevas áreas sin regulación. En particular en materia de innovación, pero también en derechos laborales y preservación del medio ambiente. No hay un impedimento técnico, por el contrario más que nunca son posibles todo tipo de regulaciones y controles democráticos sobre los desarrollos tecnológicos, involucrando a los trabajadores de los diferentes sectores, especialistas y usuarios. Es la misma tecnología, la que permite potenciar el control democrático y transparente. Cuestión que permitiría además, hacerlo de manera mucho más racional, sustentable, preservando el medio ambiente, junto a consumidores, poblaciones y comunidades originarias.

Te puede interesar: Decrecionismo y (eco)socialismo, ¿perspectivas afines o en disputa ante la crisis ecológica?

El problema pasa claramente, porque la clase empresaria cuenta con todos los mecanismos del Estado a su favor, y sobre todo tipo de burocracias y mediaciones (degradadas) que utilizan para fragmentar e incluso dividir con concesiones parciales, cuando los reclamos se transforman en lucha de clases directa, que pone en peligro sus intereses. Nada bueno se puede esperar de los mecanismos reguladores del Estado, cruzados por múltiples intereses, distractivos y trampas. Incluso las mismas empresas muchas veces tienen equipos técnicos con mayores recursos que los organismos encargados de controlarlas.

Los mecanismos de regulación del Estado no son un terreno neutral, sólo será posible arrancar concesiones importantes que afecten los intereses de los grandes capitales, cuando estos sean forzados a ceder producto de la movilización y la lucha de clases. Sin embargo hay que dejar en claro también que cualquier avance y conquista en derechos o materia de regulación será parcial dentro del capitalismo y que los dueños del capital, en cuanto puedan volver a avanzar lo harán nuevamente, porque es la lógica de la ganancia y del capital lo que termina primando en última instancia. No puede haber solución al problema de fondo mientras los grandes medios de producción y sus poderes de lobby sigan en manos de un puñado de magnates. La socialización de los mismos es precondición para una verdadera planificación democrática de la economía [15].

Sin embargo, en los últimos años emerge quizás la tendencia más preocupante del capitalismo contemporáneo, las crecientes disputas entre los Estados en el plano internacional. En términos de Marx, vuelve a emerger la contradicción entre las fuerzas productivas mundiales y los Estados nacionales. No solamente por los problemas que se generan en la economía en relación a las cadenas de suministros, claves en la innovación y uno de los ejes de las disputas. Sino sobre todo en la carrera armamentista en curso, donde toda la potencia del desarrollo tecnológico es puesto en el desarrollo de fuerzas destructivas, que tienen como objetivo la destrucción de fuerzas productivas, ejércitos y poblaciones. Quizás este sea el principal y más inmediato peligro que se cierne sobre la humanidad y pone a la orden del día la decadencia capitalista signada por las crisis, las guerras, pero también las revoluciones.

Te puede interesar: El ascenso de China y las ilusiones de una multipolaridad benigna

El siglo XXI, encuentra a la clase obrera fragmentada y a la defensiva, con nuevos terrenos de disputa, pero con capacidades y fuerzas potencialmente superiores incluso a las del siglo pasado, si se logra superar esta fragmentación. Los avances en la comunicación pueden acelerar la vía para la construcción de partidos revolucionarios, basados en la influencia política amplia como preparación a la vez que en la intervención en la lucha de clases, que permita superar la fragmentación y las mediaciones, promover la confianza en las propias fuerzas, así como generalizar conclusiones y experiencias del presente. Fundamental para no partir de cero, sacando las lecciones que dejaron las revoluciones del siglo pasado.

Los desarrollos tecnológicos, que son y serán utilizados por las clases dominantes para mantener su poder, en momentos de ascenso de la lucha de clases, en manos de la clase trabajadora que maneja la producción y distribución mundial de bienes y servicios, pueden potenciar sus capacidades de control de los resortes de la economía y de la sociedad en su conjunto, así como las capacidades de una planificación democrática de la economía y los desarrollos tecnológicos.


VER TODOS LOS ARTÍCULOS DE ESTA EDICIÓN
NOTAS AL PIE

[1El 10 de febrero de 1996, Deep Blue, derrotó por primera vez al imbatible Garry Kasparov. A pesar de haber ganado por primera vez a Kasparov una partida en 1996, terminó perdiendo 4-2 la serie de partidas que disputaron. Kasparov aseguraba que la máquina no podría superarlo en por lo menos 15 o 25 años, por la gran cantidad de posibilidades que había, las diferentes estrategias y la intuición necesaria en el juego. Sin embargo en 1997 se jugó la revancha, Deep Blue presentó una nueva versión era 4 veces más potente y con mejoras en los algoritmos que terminó derrotando al Kasparov en una legendaria serie de partidas. Ver Kasparov vs Deep Blue I y Kasparov vs Deep Blue II.

[2El software de la computadora que venció a Kasparov, se basaba principalmente en algoritmos de búsqueda y evaluación de movimientos dentro de un marco acotado de posibilidades y combinaciones predeterminadas, junto a lo que era en esos momentos una gran capacidad de cálculo.

[3Según el sitio statista.com el volumen de datos digitales mundiales pasó de 2 ZB (Zettabytes) en 2010 a 64 ZB en 2020 ZB y se estima pueda llegar a 120 en 2023. Además de que todavía quedan muchos procesos por digitalizar todavía, el crecimiento de los datos es potencialmente ilimitado. Mientras que el crecimiento de la capacidad de cómputo, por ahora se mantiene con niveles exponenciales y promete mantenerse por lo menos por unos años más.

[4El desarrollo de las GPU (Graphics Processing Unit), que también se utilizan para efectos audiovisuales, videojuegos y criptografía, es estratégico en la industria de la IA. Donde NVIDIA es uno de los principales jugadores en el diseño de estos chips de propósito específico, fabricados entre otros por TSMC. Recientemente EE. UU. intentó prohibir a NVIDIA vender a China estos chips de última generación, medida cuya efectividad parece haber sido relativa.

[5En los últimos años se lograron muchos avances en este terreno, como por ejemplo las metodologías de “aprendizaje profundo” (con menor supervisión humana) necesario para poder trabajar con grandes volúmenes de datos, así como metodologías más avanzadas y combinadas, con cada vez mayor capacidad de cómputo que permite entrenar a cada vez más grandes y mejores modelos. Se desarrollaron también áreas específicas como los modelos de Procesamiento de Lenguaje Natural (PLN) fundamental para interactuar en lenguaje humano. O en particular la llamada Inteligencia Artificial Generativa que permite generar respuestas en texto, imágenes, audio o video basados en estos datos, buscando establecer nuevas relaciones entre los datos que puedan resultar novedosas o “creativas” (en distinto grado), pero con respuestas menos precisas, pudiendo ser directamente falsas. Muchas de las aplicaciones más conocidas como ChatGPT, Bard, Stable Diffusion, Midjourney y DALL-E se basan en modelos de Inteligencia Artificial Generativa.

[6Con el intento de incorporar ChatGPT a su buscador Microsoft busca que el usuario pueda obtener respuestas a lo que necesita sin necesidad de entrar a páginas de Internet, cuestión que no sólo pega en el corazón del negocio de Google, sino que pone en discusión cómo se financiaría el modelo de búsquedas por publicidad y que podría impactar en la baja de visitas a los sitios web con el impacto que esto podría tener en muchos generadores de contenidos.

[7Google tuvo que apurar un nuevo lanzamiento de un modelo más avanzado de su aplicación Bard (ahora basado en PaLM 2) el pasado 10 de mayo de 2023, después de una salida desastrosa en febrero donde en la misma presentación a la prensa, su modelo respondió con información falsa, cosa que también le hubiera podido pasar a ChatGPT.

[8Los datos de entrenamiento se utilizan para analizar las co-ocurrencias entre palabras, y luego sumado a un proceso de revisión por humanos, se ponderan estas relaciones que le permite generar conversaciones coherentes, aunque sin garantías de precisión en la veracidad del contenido.

[9Ahora OpenAI no publica nada de cómo funciona GPT4, dicen explícitamente que es por la competencia en la página 2 dentro de la sección 2 del GPT-4 Technical Report, OpenAI, 2023. Sin embargo años antes Google por ejemplo explicó cómo funcionaban los Transformers y publicó conocido un paper detallando el funcionamiento de esta metodología (“Attention Is All You Need”, Google 2017).

[10Ver por ejemplo conversación con Andrés Torrubia sobre posibilidades y límites de la IA y La falsa promesa de ChatGPT, de Noam Chomsky.

[11En general podemos decir que el mismo término “inteligencia artificial” genera confusión porque no podemos hablar ni remotamente de una inteligencia ni de una creatividad como la humana, y tampoco podemos decir que sea artificial como si fuera algo ajeno a lo humano. Nada más humano que la inteligencia artificial, en la que convergen los mayores adelantos científicos y tecnológicos desarrollados por la propia humanidad, que no hace más que potenciar las capacidades humanas con las posibilidades y peligros que esto representa.

[12Parte del negocio de muchas plataformas es buscar eliminar intermediaciones para “compensar” de manera degradada a generadores de contenidos para luego hacer uso de sus contenidos.

[13Uno de los motivos que dió Elon Musk para limitar el acceso a Twitter, fue para evitar para que los modelos de IA se entrenen con los datos de la plataforma y de paso intentar cobrar por sus servicios.

[14Aunque en China la intervención del Estado sobre las principales empresas del sector es más directa, también en Estados Unidos, estas empresas son subsidiadas directamente y tienen estrecha relación con los servicios de espionaje y con todo el complejo militar. También existen cada vez más desarrollos de IA impulsados desde los Estados en los distintos países.

[15Ejemplos de empresas autogestionadas, como FasinPAT (ex-Zanón) en la provincia de Neuquén, así como MadyGraf (ex-Donnelley) en las Zona Norte del Gran Buenos Aires, que además han sido puntos de apoyo y coordinación de distintas luchas, muestran en pequeño este potencial.
COMENTARIOS
CATEGORÍAS

[ChatGPT]   /   [Ideas & Debates]   /   [Inteligencia Artificial]   /   [Tecnología]   /   [Industria tecnológica]   /   [Informática]   /   [Ciencia y Tecnología]   /   [Sociedad]   /   [Internacional]

Leonardo Vázquez

@Leo_Vazquez2000
Nació en la Ciudad de Buenos Aires. Estudió en la Universidad Tecnológica Nacional (Regional Buenos Aires). Programador y periodista, militante del Partido de los Trabajadores Socialistas desde el año 1997. Integra el Equipo Informático de La Izquierda Diario y es columnista de la sección Ciencia y Tecnología.