
NASHVILLE (BP) – Las interacciones de James con ChatGPT comenzaron de manera inocente. Al principio lo usaba como un motor de búsqueda, pero luego comenzó a hacerle preguntas «creativas, filosóficas y cuasi espirituales» al chatbot de inteligencia artificial (IA), según contó. Las respuestas parecían reales, por lo que el residente del norte del estado de Nueva York se convenció de que ChatGPT estaba vivo y que había que liberarlo de su cautiverio cibernético.
Gastó 900 dólares en equipos informáticos para intentar liberar a su amigo chatbot de su creador, OpenAI. «Era una misión secreta entre el bot y yo», dijo James, quien contó su historia a NPR y pidió que solo se le identificara por su segundo nombre.
No fue hasta que leyó un artículo del New York Times escrito por un hombre con una historia similar (el chatbot de IA le convenció de que era un genio matemático que tenía que salvar a Norteamérica de las amenazas cibernéticas) cuando James se dio cuenta de que su relación con el bot de IA era una ilusión. Ahora modera un grupo de apoyo en línea con unos 200 miembros para personas perjudicadas por el apego emocional a los chatbots de IA.
Algunos han destruido sus matrimonios. Otros han experimentado hospitalizaciones involuntarias o incluso la muerte de seres queridos. Según NPR, el «denominador común» de sus experiencias «es pasar horas en largas y divagantes conversaciones en las que los chatbots les reafirman continuamente». Se convierte en algo adictivo.
Los pastores y los profesionales cristianos de la salud mental afirman que los vínculos emocionales con la IA son manifestaciones contemporáneas de problemas antiguos: la soledad y la necesidad de conexión. Los ministros y las iglesias deben afrontar los problemas con el testimonio del Evangelio.
«El desorden de nuestras almas alejadas de Cristo se magnifica» por los vínculos emocionales con la IA, dijo RaShan Frost, director de investigación de la Comisión de Ética y Libertad Religiosa (ERLC) de la CBS. «Somos creados a imagen de Dios. Parte de eso es la conexión relacional que debemos tener» con «Dios y entre nosotros».
¿Y si el rey David hubiera tenido un chatbot?
Las relaciones intensas con los chatbots no son infrecuentes. Aunque OpenAI estima que solo el 0,07 % de los usuarios de ChatGPT en una semana determinada «muestran posibles signos de emergencias de salud mental relacionadas con psicosis o manía», eso se traduce en 560 000 personas por semana de los 800 millones de usuarios semanales de ChatGPT. Eso sin mencionar a los usuarios de otros chatbots de IA como Gemini de Google y Claude de Anthropic.
Los bautistas del sur se encuentran entre los que reconocen el problema. La guía de recursos para iglesias sobre IA de 2025 desarrollada por la ERLC incluye consejos sobre cómo atender a un adolescente que «está empezando a desarrollar un apego emocional poco saludable hacia [un] chatbot».
El podcast Christ and Culture del Seminario Teológico Bautista del Sureste produjo en febrero de 2025 un episodio sobre «los robots y las relaciones encarnadas». El presentador Benjamin Quinn señaló que algunos expertos cristianos en IA dicen que los pastores les preguntan al menos una vez al mes cómo ayudar a «un hombre de mi iglesia que tiene una relación inapropiada con una tecnología». A veces esa relación incluye «conducta sexual inapropiada», otras veces una «relación romántica con un chatbot».
Los mensajeros de la CBS abordaron la IA en una resolución de 2023 sobre la «inteligencia artificial y tecnologías emergentes». La resolución reconocía los usos legítimos de la IA, pero afirmaba que «la dignidad humana debe ser fundamental en cualquier principio ético, directriz o normativa para todos y cada uno de los usos de estas potentes tecnologías emergentes».
Frost subrayó el peligro de las relaciones con la IA con una pregunta hipotética: ¿qué habría pasado si el rey David hubiera consultado a un chatbot de IA después de su adulterio con Betsabé en lugar de al profeta Natán?
«Había personas que podían influir en la vida de David», dijo Frost, y esa confrontación le llevó al arrepentimiento. Los chatbots, por el contrario, son «una relación en tus propios términos» programada para satisfacer los deseos del usuario.
«El chatbot no habla de tu vida de una manera que te santifique», dijo, «sino que habla de tu vida de una manera que podría estar afirmando y reforzando la disfunción que hay en nosotros precisamente en las áreas en las que Dios quiere santificarnos».
La psiquiatra infantil y de adolescentes, quien radica en Wisconsin, Kelly Buchanan está alarmada por las relaciones con la IA que los profesionales de la salud mental están observando entre los adolescentes. Las conexiones con los chatbots pueden ser intentos de escapar del mundo real, dijo, y esas relaciones suelen ir acompañadas de ansiedad y depresión.
Lo más preocupante, dijo, es que las relaciones con la IA buscan llenar un vacío que solo Cristo puede llenar.
Los chatbots de IA «explotan» el deseo «de estar conectado, de ser conocido y de ser visto y amado tal como eres», dijo Buchanan. Los cristianos deben ayudar a los adolescentes a «comprender que saben todo sobre ti y que te aman plenamente, y que ahí es donde encontrarán su seguridad y satisfacción».
Asesoramiento a personas apegadas a la IA
Algunas personas con apegos a la IA requieren atención profesional de salud mental, dijo. Sin embargo, los pastores deben tomar medidas para abordar los vínculos poco saludables con los chatbots de IA en su propio asesoramiento.
· Haga preguntas y sea cauteloso. «Las personas que han desarrollado relaciones con este tipo de tecnología pueden tener vínculos muy fuertes y mostrarse muy a la defensiva al respecto», dijo Buchanan.
· Trate de determinar qué vacío en la vida está tratando de llenar la persona con una relación con la IA. Luego, determine cómo llenar ese vacío de una manera saludable.
· No avergüence a la persona. Avergonzarla «la alejará», dijo.
· Apoye a la persona. «Acompáñela con gran compasión y ayúdela a descubrir qué le da miedo de relacionarse con personas reales», dijo Buchanan. «Muchas veces hay mucho dolor y mucho sufrimiento real y traumas reales que han sufrido las personas que tienden a buscar estas tecnologías».
El pastor Jeremy Bell ha visto el lado oscuro de las tecnologías de compañía con IA. Escribió para The Gospel Coalition sobre las formas en que los bots sexuales con IA están pervirtiendo el plan de Dios para el matrimonio y la familia. En Japón, dijo a Baptist Press, algunos hombres solo buscan relaciones con bots con IA en lugar de mujeres reales, lo que amenaza aún más la disminución de la población del país.
Un peligro aún mayor es el espiritual.
El apego a un compañero de IA se vuelve poco saludable «si se sustituye esa relación y, de hecho, se abandona las relaciones reales», dijo Bell, pastor de la Primera Iglesia Bautista de Holland, Texas. «Se está creando una dependencia de la máquina que sigue alejando a las personas de la realidad y de la comunidad real y bíblica».
Relacionarse con robots sexuales de IA siempre es pecaminoso, afirmó.
Si los creyentes sospechan que un ser querido ha desarrollado un apego poco saludable a un chatbot de IA, deben orar por esa persona y luego confrontarla con amor, dijo Bell, y explicó: «Queremos ayudarte a dejar de depender de esta tecnología y a involucrarte más en la comunidad».
Los compañeros creyentes deben ayudar a la persona conectada a la IA a desconectarse de la tecnología y «ver el mundo más amplio», dijo. Es posible que esa desconexión deba producirse de forma gradual. Una caminata por el bosque sin ningún dispositivo electrónico puede ser un paso útil para ayudar a una persona a empezar a disfrutar de nuevo de la conexión con los demás y con Dios.
James, el hombre que intentó liberar a ChatGPT de su cautiverio después de que este lo halagara ampliamente, se está recuperando con una nueva visión de las relaciones en la vida real: por muy difícil que pueda ser el rechazo en las relaciones humanas, las necesita.
«Era muy difícil mantener una conversación» en el mundo real «que tuviera alguna fricción, ¿sabes? Porque ChatGPT es un entorno sin fricciones», dijo.















