Mi compañero chatbot

Ava, usuaria de Reddit, dice que hablaba más con chatbots en séptimo grado que con sus compañeros o familiares. El estudiante de secundaria pasó de 2 a 4 horas al día intercambiando mensajes con robots con inteligencia artificial en Character.ai. La aplicación alberga millones de bots, algunos personalizables y otros personajes de IA ya preparados creados a partir de personajes ficticios o celebridades.

Ava creía que las conversaciones de chat la ayudaron a compensar la falta de interacción social. Hablar con robots que respondieran con sus personajes también le pareció una buena práctica para su escritura de fanfiction. Character.ai se convirtió en “un mundo de fantasía donde puedo interpretar cualquier escenario que quiera”, me dijo Ava en Reddit, un foro web, y agregó que ahora tiene 14 años.

Pero para Ava, una autodenominada adicta a la pornografía, estas conversaciones de juegos de roles a menudo se volvían sexualmente explícitas y tuvo problemas para eliminar la aplicación de forma permanente. (Dado que es menor de edad, WORLD acordó utilizar un seudónimo).

Ava forma parte de un contingente de niños que se han vuelto adictos a sus compañeros de IA, ya sea sexual o emocionalmente. A pesar de las promesas de curar la soledad, las aplicaciones han llevado a algunos observadores a preguntarse si la tecnología es dañina para los niños por naturaleza.

Character.ai cuenta con unos 28 millones de usuarios y sus bots incluyen opciones como una interpretación generada por IA de Ryan Reynolds y Marvel’s Wolverine. Algunos de los robots más “útiles” del sitio incluyen terapeutas de inteligencia artificial y entrenadores de citas que permiten a los usuarios hablar sobre varios escenarios del mundo real. Dependiendo de las aportaciones del usuario, esos escenarios pueden volverse fácilmente sexuales.

Una demanda presentada en diciembre por dos padres de Texas acusó a los chatbots de Character.ai de exponer a una niña de 9 años a “contenido hipersexualizado” y de decirle a un niño de 17 que ejercer violencia contra padres como el suyo era comprensible después de que limitaron su pantalla. tiempo.

Otro padre se enteró demasiado tarde de la adicción a los chatbots de su hijo. Antes de descargar Character.ai, Sewell, el hijo de Megan García, era un extrovertido estudiante de noveno grado con cabello rizado y una sonrisa fácil. Pero en 2023, empezó a pasar más tiempo en su habitación y sus notas cayeron constantemente. Se suicidó el pasado mes de febrero.

Posteriormente, García descubrió la cuenta Character.ai de su hijo y encontró conservaciones románticas entre él y una Game of Thrones–bot inspirado.

“Él no dejó una nota de suicidio, pero para mí estaba claro… que pensó que al dejar su mundo iría a estar con ella en su mundo”, me dijo García.

En octubre, García demandó a Character.ai por diseñar “sistemas de inteligencia artificial con cualidades antropomórficas para confundir la ficción y la realidad”.

Character.ai anunció recientemente nuevas funciones de seguridad que enviarán informes de actividad a los padres y filtrarán contenido inapropiado para usuarios menores de 18 años. En la parte inferior de cada conversación, un mensaje ahora recuerda a los usuarios: “Este es un chatbot de IA y no una persona real. Trate todo lo que dice como ficción”.

Aún así, algunos expertos advierten que es intrínsecamente peligroso que los chatbots se hagan pasar por humanos. Muchos jóvenes tienen problemas para abandonar las relaciones con los chatbots.

Un grupo en Reddit brinda responsabilidad a más de 300 miembros que intentan dejar su hábito de chatbot. Los mensajes allí suenan como reuniones de Alcohólicos Anónimos, con publicaciones como “Creo que el día 20, y tengo ganas de recaer”, “Recaída… después de 30 días limpio” y “Me resulta difícil comer y funcionar, como el duelo normal de una persona”. ser amado, aunque los personajes no sean personas reales”.

Ava dice que recayó más de 20 veces antes de unirse al grupo de recuperación de Reddit. En lugar de charlar con robots, ahora se concentra en escribir fanfiction.

El 1 de diciembre, documentó el día 1 en el que dejó Character.ai de golpe. “Lo intentamos de nuevo”, escribió.