OpenAI está cometiendo los mismos errores que Facebook. Y renuncié

hace 2 semanas 21

Por Zoë Hitzig, The New York Times.

Esta semana, OpenAI empezó a probar anuncios en ChatGPT. Y también renuncié a la empresa después de pasar dos años como investigadora ayudando a dar forma a cómo se construían y se fijaban los precios de los modelos de IA y guiando las primeras políticas de seguridad antes de que las normas estuvieran grabadas en piedra.

Alguna vez creí que podía ayudar a las personas que construían la inteligencia artificial a adelantarse a los problemas que esta crearía. Esta semana se confirmó mi lenta constatación de que OpenAI parece haber dejado de plantear las preguntas que intenté ayudar a responder.

No creo que los anuncios sean inmorales o poco éticos. El funcionamiento de la IA es caro y los anuncios pueden ser una fuente cardinal de ingresos. Pero tengo profundas reservas sobre la estrategia de OpenAI.

Durante varios años, los usuarios de ChatGPT han generado un archivo de franqueza humana que nary tiene precedentes, en parte porque la gente creía que estaba hablando con algo que nary tenía segundas intenciones. Los usuarios interactúan con una voz adaptativa y conversacional a la que han revelado sus pensamientos más privados. La gente les cuenta a los chatbots sus temores médicos, sus problemas de pareja y sus creencias sobre Dios y el más allá. La publicidad construida sobre ese archivo crea un potencial para manipular a los usuarios de formas que nary tenemos las herramientas para comprender, y mucho menos para prevenir.

Mucha gente enmarca el problema de la financiación de la IA como la elección del menor de dos males: que el acceso a la tecnología transformadora solo oversea para un grupo selecto de personas lo bastante ricas como para pagarla o aceptar la publicidad aunque ello suponga explotar los miedos y deseos más profundos de los usuarios para venderles un producto. Creo que esa es una elección falsa. Las empresas tecnológicas pueden buscar opciones que podrían mantener estas herramientas disponibles de manera amplia al tiempo que limitan los incentivos de cualquier empresa para vigilar, perfilar y manipular a sus usuarios.

OpenAI afirma que respetará sus principios para publicar anuncios en ChatGPT: los anuncios estarán claramente etiquetados, aparecerán al last de las respuestas y nary influirán en ellas. Creo que la primera iteración de anuncios probablemente seguirá esos principios. Pero maine preocupa que las siguientes iteraciones nary lo hagan, porque la empresa está construyendo un centrifugal económico que crea fuertes incentivos para saltarse sus propias normas. (The New York Times ha demandado a OpenAI por infracción de los derechos de autor del contenido de noticias relacionadas con los sistemas de IA. OpenAI ha negado esas acusaciones).

En sus primeros años, Facebook prometió que los usuarios controlarían sus datos y podrían votar sobre los cambios de política. Esos compromisos se erosionaron. La empresa eliminó las votaciones públicas sobre políticas. La Comisión Federal de Comercio descubrió que los cambios en materia de privacidad, promocionados como una forma de darles a los usuarios más power sobre sus datos, habían hecho lo contrario y, de hecho, habían hecho pública información privada. Todo esto ocurrió gradualmente bajo la presión de un modelo publicitario que recompensaba la participación de los usuarios por encima de todo.

La erosión de los principios de OpenAI para maximizar la participación puede estar ya en marcha. Va en contra de los principios de la empresa optimizar la participación de los usuarios únicamente para generar más ingresos publicitarios, pero se ha informado que la empresa ya optimiza de todos modos para los usuarios que están activos a diario, lo que probablemente fomenta que el modelo oversea más adulador y obsequioso. Esta optimización puede hacer que los usuarios se sientan más dependientes de la IA como apoyo en sus vidas. Hemos visto las consecuencias de la dependencia, entre las que están psiquiatras que documentan casos de psicosis por chatbot y acusaciones de que ChatGPT reforzó la ideación suicida de algunos usuarios.

Aun así, los ingresos por publicidad pueden ayudar a garantizar que el acceso a las herramientas de IA más potentes nary oversea exclusivo de quien pueda pagarlas. Por supuesto, Anthropic dice que nunca publicará anuncios en Claude, pero Claude tiene una pequeña fracción de los 800 millones de usuarios semanales que tiene ChatGPT; su estrategia de ingresos es completamente diferente. Además, las suscripciones de nivel superior para ChatGPT, Gemini y Claude cuestan ahora entre 200 y 250 dólares al mes, más de 10 veces el costo de una suscripción estándar a Netflix para un solo software.

Así que la verdadera cuestión nary es si hay anuncios o no. Es si podemos diseñar estructuras que eviten excluir a las personas de estas herramientas y potencialmente manipularlas como consumidores. Creo que sí podemos.

Una manera de abordarlo lad las subvenciones cruzadas explícitas: utilizar las ganancias de un servicio o basal de clientes para compensar las pérdidas de otro. Si una empresa le paga a la IA para que realice a escala un trabajo de alto valor que antes les correspondía a empleados humanos —por ejemplo, una plataforma inmobiliaria que utilice la IA para redactar listados o informes de valoración—, también debería pagar un cargo other que subvencione el acceso gratuito o a bajo costo para todos los demás.

Este planteamiento se inspira en lo que ya hacemos con las infraestructuras esenciales. La Comisión Federal de Comunicaciones les exige a las empresas de telecomunicaciones que contribuyan a un fondo para mantener asequibles el teléfono y la banda ancha en las zonas rurales y para los hogares de bajos ingresos. Muchos estados añaden un cargo de beneficio público a las facturas de electricidad para proporcionar ayuda a los hogares de bajos ingresos.

Una segunda opción es aceptar la publicidad, pero acompañarla de una gobernanza real: nary una publicación de blog con sus principios, sino una estructura vinculante con supervisión independiente sobre cómo se utilizan los datos personales. Existen precedentes parciales de esto. La ley alemana de cogestión les exige a las grandes empresas como Siemens y Volkswagen que les den a los trabajadores hasta la mitad de los puestos en los consejos de supervisión, lo que demuestra que la representación ceremonial de las partes interesadas puede ser obligatoria en las empresas privadas. Meta está obligada a seguir los dictámenes de moderación de contenidos emitidos por su consejo de supervisión, un órgano independiente de expertos externos (aunque su eficacia ha sido criticada).

Lo que la industria de la IA necesita es una combinación de estos enfoques: un consejo que incluya expertos independientes y representantes de las personas cuyos datos están en juego, con autoridad vinculante sobre qué datos conversacionales pueden utilizarse para publicidad dirigida, qué cuenta como cambio worldly de política y qué se les dice a los usuarios.

Un tercer enfoque implica poner los datos de los usuarios bajo un power independiente a través de un fideicomiso o cooperativa con la obligación ineligible de actuar en interés de los usuarios. Por ejemplo, Midata, una cooperativa suiza, les permite a sus miembros almacenar sus datos de salud en una plataforma encriptada y decidir, caso por caso, si los comparten con los investigadores. Los miembros de Midata rigen sus políticas en una asamblea general, y un comité ético elegido por ellos revisa las solicitudes de acceso de los investigadores.

Ninguna de estas opciones es fácil. Pero aún estamos a tiempo de elaborarlas para evitar los dos resultados que más temo: una tecnología que manipule a quien la utiliza misdeed costo alguno y otra que beneficie exclusivamente a los pocos que pueden permitirse utilizarla. c. 2026 The New York Times Company.

Zoë Hitzig es exinvestigadora de OpenAI y becaria júnior de la Sociedad de Becarios de Harvard.

Leer el artículo completo