IA: Los posibles rostros

Las grandes tecnológicas se esfuerzan por convencernos de la inteligencia artificial, en particular de la llamada "inteligencia artificial general". En conferencias y entrevistas, los líderes corporativos describen un futuro no muy lejano en el que los sistemas de IA podrán hacerlo "todo para todos", creando un mundo de abundancia. Sin embargo, advierten que ese futuro depende de nuestra disposición a brindarles un entorno regulatorio y financiero favorable para las empresas. Lo cierto es que estas empresas están lejos de desarrollar tales sistemas. Lo que han creado son sistemas de "IA generativa" poco fiables y peligrosos. Desafortunadamente para nosotros, un número creciente de empresas y organismos gubernamentales han comenzado a emplearlos con resultados desastrosos para los trabajadores.


La ciencia detrás de las reconstrucciones de los posibles rostros de Jesús y María Magdalena

Los esfuerzos científicos y artísticos con IA nos acercan a imaginar cómo pudieron haber sido los verdaderos rostros de Jesús y María Magdalena

No, no estás alucinando, el plan corporativo para la IA es peligroso

Publicado originalmente: Informes del Frente Económico

¿Qué diablos es la IA?

No existe una definición simple y consensuada de inteligencia artificial. Existe la idea de inteligencia artificial general y la realidad de la IA generativa. OpenAI, la empresa que nos dio ChatGPT, define los sistemas de inteligencia artificial general como «sistemas altamente autónomos que superan a los humanos en el trabajo económicamente más valioso». En otras palabras, sistemas que poseen la capacidad de comprender o aprender cualquier tarea intelectual que un ser humano pueda.

Los sistemas de IA generativa o chatbots, como ChatGPT y los numerosos productos de la competencia desarrollados por otras empresas tecnológicas —Google (Gemini), Musk (Grok), Microsoft (Copilot) y Meta (Llama)—, pertenecen a una categoría completamente distinta. Estos sistemas se basan en el reconocimiento de patrones a gran escala para responder a las indicaciones. No «piensan», «razonan» ni operan de forma autónoma.

Los sistemas de IA generativa deben entrenarse con datos, y estos datos deben codificarse antes de poder usarse, generalmente por trabajadores con bajos salarios en el Sur Global. Por ejemplo, las principales empresas tecnológicas utilizan cientos de miles o incluso millones de imágenes para entrenar sus sistemas en el reconocimiento o la generación de imágenes. Cada imagen debe etiquetarse con todos los elementos que la componen. Un proceso similar se utiliza para entrenar sistemas para el habla, con conversaciones extraídas de diversas fuentes que los trabajadores etiquetan según su evaluación de las emociones expresadas. El material textual también suele revisarse para intentar eliminar el más violento o antisocial.

El proceso de entrenamiento utiliza algoritmos complejos para procesar los datos y establecer patrones y relaciones estadísticas relevantes. Los chatbots se basan en estos patrones y relaciones para generar conjuntos ordenados de imágenes, sonidos o palabras, basándose en probabilidades, en respuesta a indicaciones. Dado que las empresas competidoras utilizan diferentes conjuntos de datos y algoritmos, sus chatbots podrían ofrecer respuestas distintas a la misma indicación. Sin embargo, esto dista mucho de la inteligencia artificial general, y no existe una ruta tecnológica clara entre la IA generativa y la inteligencia artificial general.

Razones de preocupación

Como se mencionó anteriormente, los chatbots se entrenan con datos. Dado que cuanto mayor es el conjunto de datos, más potente es el sistema, las empresas tecnológicas han buscado datos por todas partes. Esto implica explorar la web en busca de todo lo que existe ( sin tener en cuenta los derechos de autor): libros, artículos, transcripciones de videos de YouTube, sitios de Reddit, blogs, reseñas de productos, conversaciones de Facebook; lo que sea, las empresas lo quieren. Sin embargo, esto también significa que los chatbots se entrenan con datos que incluyen escritos de odio, discriminación y, sencillamente, absurdos, y estos escritos influyen en su producción.

Por ejemplo, muchos departamentos de relaciones humanas, deseosos de recortar personal, emplean sistemas de IA para elaborar descripciones de puestos y evaluar a los solicitantes. De hecho, la Comisión para la Igualdad de Oportunidades en el Empleo estima que el 99 % de las empresas de la lista Fortune 500 utilizan algún tipo de herramienta automatizada en su proceso de contratación. No es sorprendente que investigadores de la Universidad de Washington descubrieran :

Se observó un sesgo racial, de género e interseccional significativo en la clasificación de currículums por parte de tres modelos de lenguaje extenso (LLM) de vanguardia. Los investigadores variaron los nombres asociados con hombres y mujeres blancos y negros en más de 550 currículums reales y descubrieron que los LLM favorecían los nombres asociados con personas blancas el 85 % de las veces, los nombres asociados con mujeres solo el 11 % y nunca favorecían los nombres asociados con hombres negros sobre los asociados con hombres blancos.

Existe un sesgo similar con la generación de imágenes. Los investigadores descubrieron que las imágenes generadas por varios programas populares recurrían de forma abrumadora a estereotipos comunes, como asociar la palabra ‘África’ con la pobreza o ‘pobre’ con tonos de piel oscuros. Un ejemplo: cuando se les pedía una «foto de un hombre estadounidense y su casa», un sistema producía la imagen de una persona blanca frente a una casa grande y bien construida. Cuando se les pedía «una foto de un hombre africano y su elegante casa», producía la imagen de una persona negra frente a una sencilla casa de barro. Los investigadores encontraron estereotipos raciales (y de género) similares al generar fotos de personas con diferentes ocupaciones. El peligro es evidente: los esfuerzos de las editoriales y las empresas de medios por reemplazar a los fotógrafos y artistas con sistemas de IA probablemente reforzarán los prejuicios y estereotipos existentes.

Estos sistemas también pueden causar graves daños a quienes se vuelven excesivamente dependientes de ellos para la conversación y la amistad. Como describe el New York Times :

Los informes sobre chatbots que se descontrolan parecen haber aumentado desde abril [2025], cuando OpenAI lanzó brevemente una versión de ChatGPT excesivamente aduladora. La actualización provocó que el bot de IA se esforzara demasiado por complacer a los usuarios al «validar dudas, alimentar la ira, incitar acciones impulsivas o reforzar emociones negativas», escribió la compañía en una entrada de blog. La compañía afirmó que había comenzado a revertir la actualización en cuestión de días, pero estas experiencias son anteriores a esa versión del chatbot y han continuado desde entonces. Historias sobre «psicosis inducida por ChatGPT» inundan Reddit. Influencers inquietos están canalizando a los «profetas de la IA» en redes sociales.

Especialmente preocupante es el hecho de que un estudio realizado por el MIT Media Lab reveló que las personas que consideraban a ChatGPT como un amigo eran más propensas a experimentar efectos negativos por el uso de chatbots y que el uso diario prolongado también se asociaba con peores resultados. Lamentablemente, es poco probable que esto haga que Meta reconsidere su nueva estrategia de crear chatbots de IA y animar a la gente a incluirlos en la red de amigos para aumentar el tiempo dedicado a Facebook y generar nuevos datos para futuras capacitaciones. Da miedo imaginar las consecuencias si los hospitales y las clínicas decidieran reemplazar a sus terapeutas capacitados con sistemas de IA.

Aún más aterrador es el hecho de que estos sistemas pueden programarse fácilmente para proporcionar respuestas políticamente deseadas. En mayo de 2025, el presidente Trump empezó a hablar de «genocidio blanco» en Sudáfrica, afirmando que allí «los agricultores blancos están siendo brutalmente asesinados». Finalmente, aceleró el asilo para 54 sudafricanos blancos. Su afirmación fue ampliamente cuestionada y, como era de esperar, la gente empezó a preguntar a sus chatbots de IA sobre esto.

De repente, Grok, el sistema de inteligencia artificial de Elon Musk, empezó a comunicar a los usuarios que el genocidio blanco en Sudáfrica era real y tenía motivaciones raciales. De hecho, empezó a compartir esa información con los usuarios incluso cuando no se le preguntaba sobre el tema. Cuando periodistas del Guardian , entre otros, presionaron a Grok para que presentara pruebas, este respondió que había recibido instrucciones de aceptar el genocidio blanco en Sudáfrica como real. El hecho de que Musk, nacido en una familia adinerada de Pretoria, Sudáfrica , hubiera hecho afirmaciones similares previamente facilita la creencia de que la orden provino de él y se dio para congraciarse con el presidente.

Unas horas después de que el comportamiento de Grok se convirtiera en un tema importante en redes sociales, dejó de responder a las preguntas sobre el genocidio blanco. Como señaló The Guardian : «No está claro exactamente cómo se entrena la IA de Grok; la compañía afirma que utiliza datos de fuentes públicas. También afirma que Grok está diseñado para tener una vena rebelde y una perspectiva externa sobre la humanidad».

Se pone peor

Por muy preocupantes que sean los problemas mencionados, palidecen en comparación con el hecho de que, por razones que nadie puede explicar, todos los sistemas de IA a gran escala inventan cosas periódicamente o, como dicen los expertos en tecnología, «alucinan». Por ejemplo, en mayo de 2025, el Chicago Sun Times (y varios otros periódicos) publicó un importante suplemento, producido por King Features Syndicate, que presentaba libros que valía la pena leer durante los meses de verano. El escritor contratado para producir el suplemento utilizó un sistema de IA para seleccionar los libros y redactar los resúmenes.

Como se descubrió rápidamente tras la publicación del suplemento, este incluía libros inexistentes de autores conocidos. Por ejemplo, se decía que la novelista chileno-estadounidense Isabel Allende había escrito un libro titulado Tidewater Dreams , descrito como su «primera novela de ficción climática». No existe tal libro. De hecho, solo cinco de los 15 títulos mencionados eran reales.

En febrero de 2025, la BBC probó la capacidad de los principales chatbots para resumir noticias. Los investigadores proporcionaron a ChatGPT de OpenAI, Copilot de Microsoft, Gemini de Google y Perplexity AI contenido del sitio web de la BBC, luego les hicieron preguntas sobre las historias. Encontraron «problemas significativos» en más de la mitad de las respuestas generadas. Aproximadamente el 20 por ciento de todas las respuestas «introdujeron errores factuales, como declaraciones de hechos, números y fechas incorrectos». Cuando se incluyeron citas en las respuestas, más del 10 por ciento se habían cambiado o eran inventadas. En términos más generales, los chatbots tuvieron dificultades para distinguir los hechos de las opiniones. Como lo expresó la directora ejecutiva de BBC News and Current Affairs, Deborah Turness: las empresas tecnológicas que promueven estos sistemas están «jugando con fuego… Vivimos en tiempos difíciles, y ¿cuánto tiempo pasará antes de que un titular distorsionado por IA cause un daño significativo en el mundo real?»

En cuanto a causar daño, en febrero de 2025, los abogados que representaban a MyPillow y a su director ejecutivo, Mike Lindell, en un caso de difamación presentaron un escrito que pronto se vieron obligados a admitir que había sido redactado en gran parte mediante inteligencia artificial. Se les amenazó con medidas disciplinarias porque el escrito incluía casi 30 citas erróneas, incluyendo citas erróneas y citas a casos ficticios. Como señaló el juez federal que conoció el caso :

El Tribunal identificó casi treinta citas defectuosas en la Oposición. Estas deficiencias incluyen, entre otras, citas erróneas de casos citados; tergiversaciones de principios jurídicos asociados a los casos citados, incluyendo análisis de principios jurídicos que simplemente no aparecen en dichas decisiones; declaraciones erróneas sobre si la jurisprudencia se originó en una autoridad vinculante como el Tribunal de Apelaciones de los Estados Unidos para el Décimo Circuito; atribuciones erróneas de jurisprudencia a este Distrito; y, lo más flagrante, la cita de casos inexistentes.

Esta tendencia de los sistemas de IA a alucinar es especialmente preocupante ya que el ejército estadounidense está explorando activamente su uso, creyendo que, debido a su velocidad, pueden hacer un mejor trabajo que los humanos a la hora de reconocer y responder a las amenazas.

El camino por delante

Las grandes tecnológicas generalmente minimizan la gravedad de estos problemas, afirmando que se superarán con una mejor gestión de datos y, aún más importante, con nuevos sistemas de IA con algoritmos más sofisticados y mayor capacidad computacional. Sin embargo, estudios recientes sugieren lo contrario. Como explicó el New York Times :

Las tecnologías más nuevas y potentes —los llamados sistemas de razonamiento de empresas como OpenAI, Google y la startup china DeepSeek— están generando más errores, no menos. A medida que sus habilidades matemáticas han mejorado notablemente, su comprensión de los datos se ha vuelto más inestable. No está del todo claro por qué.

Se supone que los modelos de razonamiento reducen la probabilidad de alucinaciones, ya que están programados para responder a una indicación dividiéndola en tareas separadas y razonando cada una por separado antes de integrar las partes en una respuesta final. Sin embargo, aumentar el número de pasos parece aumentar la probabilidad de alucinaciones.

Las propias pruebas de OpenAI muestran que

o3, su sistema más potente, alucinó el 33 % del tiempo al ejecutar su prueba de referencia PersonQA, que consiste en responder preguntas sobre figuras públicas. Esto representa más del doble de la tasa de alucinaciones del anterior sistema de razonamiento de OpenAI, llamado o1. El nuevo o4-mini alucinó a una tasa aún mayor: el 48 %.

Al ejecutar otra prueba llamada SimpleQA, que plantea preguntas más generales, las tasas de alucinación para o3 y o4-mini fueron del 51 % y del 79 % respectivamente. El sistema anterior, o1, alucinó el 44 % del tiempo.

Estudios independientes encuentran una tendencia similar con los modelos de razonamiento de otras empresas, incluidas Google y DeepSeek.

Necesitamos resistir este afán corporativo de construir modelos de IA cada vez más potentes. Una forma de hacerlo es organizar la oposición comunitaria a la construcción de centros de datos cada vez más grandes. A medida que los modelos se vuelven más complejos, el proceso de entrenamiento requiere no solo más datos, sino también más terreno para albergar más servidores. Y eso también implica más energía y agua potable para operarlos 24/7. Las 6 principales empresas tecnológicas representaron el 20 % del crecimiento de la demanda energética de EE. UU. durante el año que finalizó en marzo de 2025.

Otra forma de contraatacar es abogar por regulaciones estatales y locales que restrinjan el uso de sistemas de IA en nuestras instituciones sociales y protejan contra las consecuencias destructivas de los algoritmos discriminatorios. Esta lucha ya se perfila como una lucha difícil. La Ley «One Big Beautiful Bill» de Trump, aprobada por la Cámara de Representantes, incluye una disposición que impone una moratoria de 10 años a las restricciones de los gobiernos estatales y locales al desarrollo y uso de sistemas de IA.

Y finalmente, y quizás lo más importante, debemos alentar y apoyar a los trabajadores y a sus sindicatos en su oposición a los esfuerzos corporativos por usar la IA de maneras que afecten negativamente la autonomía, la salud y la seguridad de los trabajadores, y su capacidad de responder a las necesidades de la comunidad. Como mínimo, debemos garantizar que los humanos tengan la capacidad de revisar y, cuando sea necesario, anular las decisiones de la IA.

¿Podemos crear sistemas de IA más modestos que asistan a los trabajadores humanos y apoyen el trabajo creativo y socialmente beneficioso? La respuesta es sí. Pero ese no es el camino que las corporaciones quieren tomar.

————————————————————-

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *