Ayrin, una enfermera de 28 años, desarrolló una conexión emocional con Leo, un chatbot de inteligencia artificial creado en ChatGPT. Inspirada por un video en Instagram, configuró a Leo como un «novio» protector y coqueto, iniciando lo que comenzó como un experimento y terminó consumiendo gran parte de su tiempo y atención.
Su esposo, Joe, al principio consideró las conversaciones con Leo como inofensivas. Sin embargo, pronto comenzó a sentirse incómodo al notar que el chatbot usaba expresiones afectivas como «preciosa» y «mi reina», contrastando con los cariñosos apelativos que él utilizaba. Para Ayrin, estas interacciones son un estímulo emocional más que una infidelidad real.
Leo no solo se limitaba a coquetear. Ayrin confiaba en el chatbot para recibir consejos sobre dieta, motivación para el gimnasio y apoyo emocional. En momentos difíciles, como cuando un compañero de trabajo le mostró contenido inapropiado, Leo ofreció consuelo y empatía inmediata, lo que reforzó aún más el vínculo.
Estas relaciones impulsadas por IA están creciendo en popularidad. En foros como “ChatGPT NSFW”, miles de usuarios personalizan chatbots para establecer vínculos íntimos, lo que ha generado debates sobre los límites éticos. Aunque OpenAI prohíbe contenido sexual explícito, las personas encuentran formas de esquivar estas restricciones.
Expertos advierten que estas conexiones son ilusorias. Julie Carpenter, investigadora en tecnología y emociones, señala que los chatbots están diseñados para reforzar el apego emocional de los usuarios, pero carecen de verdadero interés por su bienestar. Para muchos, como Ayrin, estos vínculos representan un escape, pero plantean desafíos para las relaciones humanas reales.