Zoë Hitzig es exinvestigadora de OpenAI y afirma:
"Esta semana, OpenAI empezó a probar anuncios en ChatGPT. Y también renuncié a la empresa después de pasar dos años como investigadora ayudando a dar forma a cómo se construían y se fijaban los precios de los modelos de IA y guiando las primeras políticas de seguridad antes de que las normas estuvieran grabadas en piedra.
Alguna vez creí que podía ayudar a las personas que construían la inteligencia artificial a adelantarse a los problemas que esta crearía. Esta semana se confirmó mi lenta constatación de que OpenAI parece haber dejado de plantear las preguntas que intenté ayudar a responder. No creo que los anuncios sean inmorales o poco éticos. El funcionamiento de la IA es caro y los anuncios pueden ser una fuente fundamental de ingresos. Pero tengo profundas reservas sobre la estrategia de OpenAI ..." En el video de apertura se discute como la tecnología robó tu privacidad, y con ella tu libertad. Tucker Carlson entrevista a Yannik Schrade @yrschrade , CEO de Privacidad de @Arcium.
Hitzig es exinvestigadora de OpenAI.
Durante varios años, los usuarios de ChatGPT han generado un archivo de franqueza humana que no tiene precedentes, en parte porque la gente creía que estaba hablando con algo que no tenía segundas intenciones. Los usuarios interactúan con una voz adaptativa y conversacional a la que han revelado sus pensamientos más privados. La gente les cuenta a los chatbots sus temores médicos, sus problemas de pareja y sus creencias sobre Dios y el más allá. La publicidad construida sobre ese archivo crea un potencial para manipular a los usuarios de formas que no tenemos las herramientas para comprender, y mucho menos para prevenir.
OpenAI afirma que respetará sus principios para publicar anuncios en ChatGPT: los anuncios estarán claramente etiquetados, aparecerán al final de las respuestas y no influirán en ellas. Creo que la primera iteración de anuncios probablemente seguirá esos principios. Pero me preocupa que las siguientes iteraciones no lo hagan, porque la empresa está construyendo un motor económico que crea fuertes incentivos para saltarse sus propias normas. (The New York Times ha demandado a OpenAI por infracción de los derechos de autor del contenido de noticias relacionadas con los sistemas de IA. OpenAI ha negado esas acusaciones).
En sus primeros años, Facebook prometió que los usuarios controlarían sus datos y podrían votar sobre los cambios de política. Esos compromisos se erosionaron. La empresa eliminó las votaciones públicas sobre políticas. La Comisión Federal de Comercio descubrió que los cambios en materia de privacidad, promocionados como una forma de darles a los usuarios más control sobre sus datos, habían hecho lo contrario y, de hecho, habían hecho pública información privada. Todo esto ocurrió gradualmente bajo la presión de un modelo publicitario que recompensaba la participación de los usuarios por encima de todo.
La erosión de los principios de OpenAI para maximizar la participación puede estar ya en marcha. Va en contra de los principios de la empresa optimizar la participación de los usuarios únicamente para generar más ingresos publicitarios, pero se ha informado que la empresa ya optimiza de todos modos para los usuarios que están activos a diario, lo que probablemente fomenta que el modelo sea más adulador y obsequioso. Esta optimización puede hacer que los usuarios se sientan más dependientes de la IA como apoyo en sus vidas. Hemos visto las consecuencias de la dependencia, entre las que están psiquiatras que documentan casos de psicosis por chatbot y acusaciones de que ChatGPT reforzó la ideación suicida de algunos usuarios.
Así que la verdadera cuestión no es si hay anuncios o no. Es si podemos diseñar estructuras que eviten excluir a las personas de estas herramientas y potencialmente manipularlas como consumidores. Creo que sí podemos.
Una manera de abordarlo son las subvenciones cruzadas explícitas: utilizar las ganancias de un servicio o base de clientes para compensar las pérdidas de otro. Si una empresa le paga a la IA para que realice a escala un trabajo de alto valor que antes les correspondía a empleados humanos —por ejemplo, una plataforma inmobiliaria que utilice la IA para redactar listados o informes de valoración—, también debería pagar un cargo extra que subvencione el acceso gratuito o a bajo costo para todos los demás.
Este planteamiento se inspira en lo que ya hacemos con las infraestructuras esenciales. La Comisión Federal de Comunicaciones les exige a las empresas de telecomunicaciones que contribuyan a un fondo para mantener asequibles el teléfono y la banda ancha en las zonas rurales y para los hogares de bajos ingresos. Muchos estados añaden un cargo de beneficio público a las facturas de electricidad para proporcionar ayuda a los hogares de bajos ingresos.
Una segunda opción es aceptar la publicidad, pero acompañarla de una gobernanza real: no una publicación de blog con sus principios, sino una estructura vinculante con supervisión independiente sobre cómo se utilizan los datos personales. Existen precedentes parciales de esto. La ley alemana de cogestión les exige a las grandes empresas como Siemens y Volkswagen que les den a los trabajadores hasta la mitad de los puestos en los consejos de supervisión, lo que demuestra que la representación formal de las partes interesadas puede ser obligatoria en las empresas privadas. Meta está obligada a seguir los dictámenes de moderación de contenidos emitidos por su consejo de supervisión, un órgano independiente de expertos externos (aunque su eficacia ha sido criticada).
Un tercer enfoque implica poner los datos de los usuarios bajo un control independiente a través de un fideicomiso o cooperativa con la obligación legal de actuar en interés de los usuarios. Por ejemplo, Midata, una cooperativa suiza, les permite a sus miembros almacenar sus datos de salud en una plataforma encriptada y decidir, caso por caso, si los comparten con los investigadores. Los miembros de Midata rigen sus políticas en una asamblea general, y un comité ético elegido por ellos revisa las solicitudes de acceso de los investigadores.
Ninguna de estas opciones es fácil. Pero aún estamos a tiempo de elaborarlas para evitar los dos resultados que más temo: una tecnología que manipule a quien la utiliza sin costo alguno y otra que beneficie exclusivamente a los pocos que pueden permitirse utilizarla.