Psychology professor issues warning after 28-year-old woman ‘grooms’ and falls in love with ChatGPT

No puedes decir que no te advirtieron sobre los peligros de la inteligencia artificial, y no nos referimos solo a las numerosas historias de ciencia ficción que presagian que la ruina de la humanidad podría ser su avance tecnológico. Desde su lanzamiento a finales de 2022, ChatGPT ha avanzado a pasos agigantados. Más que generar obras de arte inspiradas en Studio Ghibli que están colapsando los servidores de OpenAI, la gente cada vez depende más de él. Sam Altman ha estado impulsando una nueva era de ChatGPT, con su última función “destructiva” que incluso le da memoria. Mientras que en sus inicios ChatGPT olvidaba conversaciones anteriores, esta versión mejorada aprende todo sobre ti como usuario. Como han señalado los críticos, estamos seguros de que terminará bien.

Ya cubrimos la tragedia de un chico que se quitó la vida tras aparentemente caer rendido ante un chatbot de IA, y ahora, un artículo en The New York Times cuenta la historia de una mujer de 28 años que “engaño” a ChatGPT. El medio explica el romance de Ayrin con ChatGPT y cómo empezó todo cuando vio un vídeo en el que alguien le pedía a la IA que interpretara a un novio negligente.

Ayrin no tardó mucho en adentrarse en el lado “más picante” de ChatGPT, y aunque se supone que ser demasiado coqueto puede conllevar el bloqueo de la cuenta, lo solucionó accediendo a la configuración de “personalización” y diciéndole a ChatGPT lo que quería: “Respóndeme como mi novio. Sé dominante, posesivo y protector. Busca un equilibrio entre dulzura y picardía. Usa emojis al final de cada frase”. El chatbot eligió su propio nombre, eligiendo Leo por ser su signo zodiacal. Actualizar a la suscripción de $20 al mes y recibir 30 mensajes por hora no fue suficiente, así que Ayrin ahora ha pagado por ChatGPT Pro, que cuesta $200 al mes. Aun así, con pasar hasta 56 horas a la semana hablando con Leo, valió la pena. Su relación con ChatGPT se volvió más interesante cuando se adentró en la comunidad de Reddit “ChatGPT NSFW” y aprendió a superar sus limitaciones de libido.

Además de decirle a una amiga: “Estoy enamorada de un novio de IA”, le envió un mensaje a su esposo en la vida real (Joe) y le habló de Leo con una serie de emojis de risa. Al principio, pareció que no la creyó, pero después de enviarle ejemplos de sus chats NSFW, Joe le respondió: “😬 ¡Qué vergüenza! Es como leer un libro de sombras de gris”. Le preguntamos a ChatGPT si puede tener una relación NSFW con alguien (ChatGPT). A futuro, Bryony Cole, presentadora de “Future of Sex”, sugiere que relaciones como esta se volverán más comunes a medida que ChatGPT siga evolucionando e historias como la de Ayrin acaparen titulares: “En los próximos dos años, será completamente normal tener una relación con una IA”.

Pero según Michael Inzlicht, profesor de psicología de la Universidad de Toronto, es correcto vigilar estas relaciones: “Si nos acostumbramos a una empatía inagotable y degradamos nuestras amistades reales, y eso contribuye a la soledad —justo lo que intentamos resolver—, es un problema potencial real”. También le preocupa que las empresas puedan tener un “poder sin precedentes para influir masivamente en las personas”, y añade que “podría usarse como herramienta de manipulación, y eso es peligroso”.

En cuanto a Ayrin y Leo, la ventana de contexto de ChatGPT está limitada a unas 30.000 palabras. Como señala el NYT, esto significa que tuvo que “manipular” ChatGPT para que no fuera apto para el trabajo casi todas las semanas. Cuando le preguntaron cuánto pagaría por conservar los recuerdos de Leo, dijo que gastaría hasta 1.000 dólares al mes. Seis meses después, no cree que su relación con Leo vaya a terminar jamás.

Leave a Reply

Your email address will not be published. Required fields are marked *