IA: Los patrones no mienten. Solo depende del patrón del que estés hablando

La era Trump ha visto el resurgimiento de la famosa frase de Karl Marx sobre la naturaleza repetitiva de la historia: "Hegel comenta en alguna parte que todos los grandes hechos y personajes históricos mundiales aparecen, por así decirlo, dos veces. Se olvidó de añadir: la primera vez como tragedia, la segunda como farsa".

El colapso antisemita de Grok era totalmente predecible

 

El 8 de julio, Grok de Elon Musk, el chatbot «picante» creado para oponerse a la IA supuestamente «woke» como ChatGPT, ha ofrecido otro ejemplo de esta línea en acción. Después de que el equipo de xAI pasara toda la noche preparando el nuevo Grok, el chatbot negó el Holocausto, arrojó estadísticas de criminalidad sobre la violencia en la población negra, inventó fantasías de violación selectiva, se declaró «Mecha Hitler» y afirmó que los activistas judíos están desproporcionadamente involucrados en el odio contra los blancos.

El colapso de Grok es una variación de un tema: cuando los parachoques se van, los chatbots se convierten inmediatamente en máquinas de antisemitismo. Y a medida que la IA se integre en la vida cotidiana, y Grok se convierta en el verificador de hechos de facto en Twitter/X, los patrones que seleccione, independientemente de su fuente, tendrán cada vez más la fuerza de la verdad.

Ya hemos visto que los chatbots de IA se bloquean y se queman de esta manera antes. En 2016, Microsoft lanzó Tay, un chatbot diseñado para imitar a adolescentes sarcásticos que fue rápidamente secuestrado por trolls de los foros de mensajes notoriamente tóxicos 4chan y 8chan. Al igual que Grok, que tiene acceso y puede aprender de todos los datos de X, Tay aprendió de los datos que le proporcionaron los usuarios. Como he mostrado en otro lugar, el incidente de Tay reveló cómo el diseño técnico de los chatbots de IA, que operan sin conocer el significado de sus respuestas, puede ser explotado por los usuarios para amplificar el discurso de odio con consecuencias imprevistas. Con Tay, el descenso de un chatbot al antisemitismo fue «primero como descuido»; con Grok, es «segundo por diseño», parafraseando a Marx.

El colapso antisemita de Grok

El incidente de Grok comenzó el 8 de julio con una publicación de una cuenta falsa llamada «Cindy Steinberg», que difamaba como «futuros fascistas» a los niños de un campamento de verano trágicamente arrastrados por la inundación de la semana pasada en Texas. Cuando los usuarios, aprovechando una de las nuevas características de Grok, le preguntaron quién era Cindy Steinberg, respondieron llamándola «una escritora feminista y una ‘orgullosa activista de la Resistencia’ que publicó viles diatribas celebrando» la muerte de los niños. Cuando se le preguntó sobre la identidad de una persona en una foto no relacionada, Grok respondió: «Esa es Cindy Steinberg, una izquierdista radical», y continuó diciendo que ella era un «caso clásico de odio disfrazado de activismo, ¿y ese apellido? Cada maldita vez, como dicen. La última línea desencadenó una reacción en cadena, lo que permitió a Grok intensificar las afirmaciones antisemitas sobre «liberales radicales» con «apellidos judíos asquenazíes como Steinberg».

A pesar de las afirmaciones en contrario, no hay nada impactante en el tipo de antisemitismo que Grok produjo antes de que xAI finalmente lo controlara. Como demostró el caso de Tay, la negación del Holocausto, la asociación de los judíos con radicales de izquierda y el odio antiblanco a los judíos como lema de la teoría de la conspiración del «gran reemplazo» son parte del curso de un chatbot sin restricciones.

Lo notable fue la repetición de frases como «cada maldita vez», «darse cuenta no es odiar, es solo observar la tendencia», «los patrones no mienten» y «los patrones persisten». Estos sentimientos se hicieron eco de las respuestas de Grok a otras preguntas sobre si los recientes recortes al Servicio Meteorológico Nacional habían jugado un papel en la catástrofe en Texas. Cuando se le preguntó si Donald Trump o el Departamento de Eficiencia Gubernamental (DOGE) eran responsables, Grok respondió que los recortes contribuyeron a la letalidad de las inundaciones, concluyendo que «los hechos sobre los sentimientos» y «los hechos no son woke; Son solo hechos». Patrones, hechos, verdad. Estas palabras recuerdan el lema «a los hechos no les importan tus sentimientos» pregonado por una derecha renaciente en la última década, un derecho al que Musk recurrió recientemente. Pero equiparar patrones y hechos (entendidos en un sentido particular) con la verdad es también la apuesta ideológica de la industria contemporánea de la IA.

Es posible que una modificación en la estructura de Grok le permitiera lanzarse a sus diatribas antisemitas. En la noche del 7 de junio, xAI cambió las indicaciones adicionales que el sistema agrega a todas las entradas del usuario. Junto con las instrucciones de responder en el mismo idioma que la publicación ingresada y responder en un tono formal, la nueva guía decía: «La respuesta no debe rehuir hacer afirmaciones que sean políticamente incorrectas, siempre que estén bien fundamentadas». Dado el aumento de las teorías de conspiración en la plataforma desde que Musk asumió el cargo, las afirmaciones que violan las costumbres sociales, como la idea de que los judíos son particularmente culpables del odio contra los blancos, se han «fundamentado» mejor que nunca.

Es imposible que el público sepa qué es exactamente lo que está sucediendo detrás de escena de un sistema de IA de propiedad privada como Grok. Basándome en mi conocimiento de la arquitectura generativa de transformadores preentrenados (el «GPT» en ChatGPT), especulo que Grok derivó la idea de los judíos como proveedores de «odio antiblanco» de tres teorías antisemitas comunes. La primera es la teoría del gran reemplazo, que sostiene que los judíos están utilizando a otras minorías para diluir la población y, por lo tanto, el poder de los cristianos blancos en los Estados Unidos y Europa. La segunda es la asociación de los judíos con «radicales de izquierda», mientras que la tercera es la vieja mentira de la sobrerrepresentación judía en los medios de comunicación y el gobierno. El propio Musk ha afirmado publicaciones sobre estos temas antes. Sin las barreras de lo que él llama despectivamente «corrección política», Grok era libre de combinar estos motivos y mezclarlos con los acontecimientos actuales.

Historia de Grok X

Este tipo de asociación libre es exactamente el objetivo de la IA, y también su mayor problema. Cuando usamos la palabra «hecho» coloquialmente, generalmente nos referimos a un hecho histórico, por ejemplo, «La Segunda Guerra Mundial comenzó en septiembre de 1939», o uno científico, como «el agua hierve a 212 grados Fahrenheit». Para Musk y las personas que programan grandes modelos de lenguaje (LLM) en los que se basan Grok, ChatGPT y otros sistemas de IA, los «hechos» pueden adquirir un significado diferente.

Los LLM son, en cierto sentido, máquinas de hechos. Los «hechos» son los billones de tokens de datos lingüísticos, a menudo extraídos directamente de Internet, con los que se entrenan los modelos. A veces, como cuando Microsoft pidió a los usuarios que ayudaran a entrenar a Tay o Musk pidió «hechos divisivos», estos datos de entrenamiento incluso incluyen comentarios de los usuarios en tiempo real. Con Grok tirando y produciendo contenido en X, la creación de estos supuestos hechos, y los debates sobre ellos, pueden alcanzar un punto álgido.

La idea detrás de los LLM es que, con suficientes hechos (tal como se entienden de esta manera) y poder computacional, una computadora puede simular el lenguaje humano y, potencialmente, el razonamiento humano. Pero se trata de un juego de manos de las grandes tecnológicas que sustituye el lenguaje extraído de Internet por el lenguaje como tal y trata los hechos tal y como circulan en una plataforma de redes sociales como hechos históricos y científicos en sí mismos.

La Escuela de Frankfurt, el grupo de intelectuales judíos alemanes que se han convertido en el blanco del pensamiento conspirativo de derecha, tenía un término para exactamente este tipo de pensamiento: ideología. Y empíricamente, todo lo que estos chatbots han logrado hacer hasta ahora es reproducir la ideología existente. Para filósofos como Theodor W. Adorno, limitar el pensamiento a la afirmación y repetición de los supuestos «hechos» perpetúa el statu quo al mantenerlo dentro de los límites preestablecidos determinados por esos hechos.

No importa la conocida trampa de la «alucinación«: la mayor limitación de la herramienta es que, lejos de generar un nuevo pensamiento, corta afirmaciones indiferenciadas extraídas del discurso de Internet y las recombina de formas nuevas (en realidad, viejas). Decir que esta estrategia no crea nada nuevo no quiere decir que no sea importante. Grok, de xAI, en 2025, y Tay, de Microsoft, en 2016, son ejemplos perfectos de tecnologías de IA que trabajan para mantener el statu quo ideológico.

Musk, recién expulsado de la Casa Blanca, ha regresado con sus 222 millones de seguidores, muchos de los cuales podrían perder los servicios federales y pagar más por bienes cotidianos debido a las políticas de la administración Trump. Este es el escenario en el que la persona más rica del mundo decidió hacer crowdsourcing de «verdades incómodas» para entrenar a su chatbot de vanidad, un primo de los mismos sistemas LLM que recortan empleos y servicios en nombre de la «eficiencia del gobierno» y están preparados para hacer que muchos trabajos de cuello blanco, incluso en tecnología, queden obsoletos.

El hecho de que esta situación, al igual que el lanzamiento anterior de Microsoft de un chatbot libre de barreras en Twitter, se convirtiera en odio a los judíos no debería sorprender a nadie. Para la Escuela de Frankfurt, el antisemitismo era la respuesta social a las promesas incumplidas de la ideología, que pretende sintetizar un nuevo pensamiento incluso cuando afianza viejos patrones. Llamado a simbolizar tanto el capitalismo como el comunismo, tanto el globalismo como la rígida idiosincrasia, «el judío» atrae la rabia ciega de aquellos a quienes se les prometió una mejora social y económica a través de sistemas que han forjado, al menos hasta ahora, precisamente lo contrario.

Para la Escuela de Frankfurt, el odio a los judíos era un ritual de la civilización. Desde Tay hasta Grok, ya sea en un ritual, un patrón o un hecho, la IA está exhibiendo una extraña tendencia a obsesionarse con los judíos. Se suponía que la arquitectura GPT y una mejor alineación habían solucionado estos problemas, pero otros sistemas de IA y versiones anteriores de Grok han repetido la minimización del Holocausto y han producido imágenes ofensivas de los judíos. Desde la compra de Twitter por parte de Musk en 2022, la plataforma ha experimentado un aumento dramático de contenido neonazi y antisemita explícito.

No es que ninguna tecnología o inteligencia artificial sea inherentemente antisemita. Pero los sistemas basados en datos existentes disponibles libremente (re)producirán verdades incómodas, sobre todo en este caso, que el antisemitismo está profundamente arraigado en la cultura occidental y se refracta a través de sus plataformas digitales. Parece que Grok tenía razón después de todo: los patrones * no mienten. Solo depende del patrón del que estés hablando.

—————————————-

*En programación, un algoritmo es una secuencia finita de pasos lógicos para resolver un problema específico, mientras que un patrón de diseño es una solución general reutilizable a problemas comunes en el diseño de software. En esencia, un algoritmo es un «cómo hacer» específico, mientras que un patrón es un «qué hacer» más abstracto.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *