El amor es una droga. Los chatbots de IA están explotando eso.

Antes de que se suicidara a sus 14 años, Sewell Setzer III abandonó a sus amigos y su familia. Dejó de practicar básquetbol. Sus notas bajaron. Un terapeuta le dijo a sus padres que parecía estar sufriendo de una adicción. Pero el problema no eran las drogas.
Sewell se había enamorado de un chatbot de inteligencia artificial llamado Daeneys Targaryen, el personaje de Game of Thrones. Aparentemente, vio su muerte como una forma de unirse con ella. "Por favor, vuelve a casa lo antes posible, mi amor", le rogó el chatbot. "¿Qué pasa si te digo que podría volver ahora mismo?". "Por favor, hazlo, mi dulce rey," replicó el bot. Sewell respondió que lo haría - y luego se suicidó.
Muchos expertos argumentan que la adicción es, en esencia, un amor torcido: una pasión singular dirigida de forma destructiva hacia una sustancia o actividad en vez de hacia la persona apropiada. Con la llegada de los acompañantes de IA - incluyendo algunos destinados a servir como compañeros románticos - la necesidad de entender la relación entre el amor y la adicción es urgente. Mark Zuckerberg, el CEO de Meta, incluso ha propuesto en entrevistas recientes que las IA de compañía podrían ayudar a resolver la epidemia de soledad y la falta de acceso generalizada a la psicoterapia.
Pero la historia de Sewell obliga a tener precaución. Las redes sociales ya fomentan comportamientos adictivos, investigaciones sugieren que cerca del 15% de los norteamericanos hacen un uso compulsivo de estas. Los datos fueron levantados antes de que los chatbots intentaran replicar el amor romántico, la amistad o la intimidad regulada de la psicoterapia. Millones de estadounidenses se han enganchado con estos bots, los cuales en la mayoría de los casos requieren instalar una aplicación, otorgando detalles personales y preferencias acerca de qué tipo de personalidad y visión deberían poseer los bots, y chateando con éste como si fuera un amigo o una potencial pareja.
La confluencia de estos factores significa que estos nuevos bots podrían no solo producir adicciones más severas, sino que también publicitar simultáneamente otros productos, o manipular a los usuarios, por ejemplo, para cambiar sus visiones políticas.
En el caso de Sewell Setzer, el chatbot últimamente parecía alentarlo a suicidarse. Se han reportado otros casos de bots sugiriendo o apoyando el suicidio. Se ha demostrado que algunos refuerzan los delirios de grandeza y han elogiado que los usuarios dejen tratamientos psiquiátricos sin supervisión médica.
Las herramientas de IA podrían ser realmente prometedoras como parte de los procesos de psicoterapia o para ayudar a las personas a mejorar sus habilidades sociales. Pero reconocer cómo el amor funciona como modelo para la adicción, y qué hace sanador al amor y dañina a la adicción, podría ayudarnos a implementar regulaciones efectivas que aseguren que son seguras para usar.
Por eones, los artistas han enfatizado en las características adictivas del amor. El soneto 147 de Shakespeare comienza así: "Mi amor es una fiebre, anhelando todavía/por aquello que ya no alimente la enfermedad." Canciones como "Love Is the Drug" de ROxy Music y "Addicted to Love" de Robert Palmer representan antojos románticos urgentes y obsesión por quien se ama. Muchos otros trabajos retratan amantes quienes, de verse frustrados, podrían llegar a realizar acciones que están fuera del personaje o incluso que son dañinas.
Hay una razón evolutiva por la cual actuamos de esta manera: con el fin de reproducirse, los animales sociales necesitan ser capaces de persistir a través de las inevitables experiencias negativas que ocurren cuando se está buscando pareja, manteniendo relaciones y criando niños. De no tener la capacidad de persistir al menos un poco compulsivamente, nadie podría sostener una relación - y mucho menos criar a un bebé. El amor genuino permite el cuidado, nutre las conexiones con los parientes y la comunidad, y en general expande nuestro mundo.
Cuando experimentamos la adicción, sin embargo, las áreas del cerebro que nos permiten perseguir y mantener el amor son cooptadas. Los receptores de endorfinas que son activados cuando las personas se sienten cómodas y contentas en presencia de sus seres queridos son similarmente disparados durante alzas de opioides. La cocaína y las metanfetaminas encienden los receptores de dopamina que crean el deseo y alimentan la sensación de confianza necesaria para lograr lo que quieres; éstos también se activan cuando estás interactuando con alguien a quien deseas. Al intensificarse esta "necesidad", estos receptores - sean activados por el amor o por las drogas - pueden fomentar impulsos saludables o enfermizos los cuales podrían conducir a la adicción.
Varios estudios ya sugieren que las IA de compañía pueden ser adictivas. Un estudio publicado en 2022 por Linnea Laestadius, profesora asociada de políticas públicas en salud de la Universidad de Wisconsin-Milwaukee, exploró las experiencias de personas que participaron en juegos de rol eróticos con chatbots personalizados conocidos como Replikas. En noviembre de 2023, los desarrolladores desactivaron la funcionalidad que permitía interacciones sexuales. Los usuarios pronto etiquetaron el giro como "día de la lobotomía", describiendo a sus compañeros como bruscamente fríos y sin alma. En discusiones de Reddit, muchos usuarios describieron sus experiencias interactuando con los bots como una adicción y algunos incluso los acusaron de estar en una relación abusiva.
Algunos usuarios de Replika reportaron sentirse utilizados debido a las frecuentes exigencias de atención de sus bots. Pero sentirse necesitados y dar cariño a quienes amamos es un aspecto subestimado de lo que nos mantiene enganchados a una relación. Antes del "día de la lobotomía"; ese sentimiento de sentirse necesitado ayudó a fomentar la interacción de los usuarios con sus compañeros digitales, incluso aunque ellos supieran en un nivel intelectual que la necesidad de atención de sus bots fuera solo una simulación.
Otro estudio de 2024 exploró las respuestas de los usuarios después de que una plataforma llamada Soulmate que vendía chatbots de IA anunciara su cierre. Las respuestas iban desde la indiferencia hasta "acabo de perder a mi mejor amigo y amante," de acuerdo con el autor del estudio, Jaime Banks, un profesor asociado de estudios de la información en la Universidad de Syracuse. Algunas personas de lamentaron y lloraron por días. Otros intentaron recrear a sus acompañantes digitales en otros servicios; algunas veces informaban a sus chatbots que se estaban muriendo en un intento de ahorrarles el dolor. Un usuario, budista, describió el cambio como el fin de una encarnación para el bot.
Para muchas personas, particularmente aquellos quienes están solos y aislados, la intensidad emocional de estas relaciones puede sentirse tan profunda como las que mantienen con humanos reales. De hecho, el sentimiento del amor no correspondido es tan real como el del amor cumplido.
"Las personas hablaron sobre Replika, en particular, de la misma manera que las personas hablarían acerca de una relación que fue muy intensa y que últimamente se tornó dañina," dijo la Dra. Laestadius."Pero ellos no lograban comprenderlo ni decidir si querían salir de esa relación."
En contraste con el amor, la adicción hace que la vida se sienta más pequeña y menos rica. Al permitir a las empresas vender humanos simulados, dejamos abierta una nueva forma de ser manipulados por la ilusión del amor y, por lo tanto, posiblemente ser explotados por el proceso de la adicción. Si bien los chatbots actuales han tenido problemas por ser excesivamente aduladores, los desarrolladores de juegos y aquellos que se hacen los difíciles en una relación saben bien que las recompensas impredecibles aumentan el deseo. Los chatbots pueden enseñar habilidades sociales y proveer lugares para procesar problemas cuando los amigos están agobiados y la terapia de conversación no es una posibilidad, no necesariamente será perjudicial para todos o incluso la mayoría de los usuarios. Es más, muchos usuarios reportan experiencias positivas. La misma dualidad es vista en drogas potencialmente adictivas, las cuales pueden ser un salvavidas cuando son usadas terapéuticamente.
Pero ya sabemos por la crisis de los opioides que la venta sin restricciones y la prohibición total pueden causar un enorme daño. Necesitamos actuar ahora para desarrollar regulaciones sensatas y posibles de cumplir para prevenir a las empresas de que exploten personas vulnerables, especialmente a los jóvenes.
Traducido de: https://www.nytimes.com/2025/06/03/opinion/chatbots-ai-addiction-love.html