Por Juan Fernando Abarca Reyes
Recientemente, me encontré con un artículo científico en el que, tras realizar un experimento controlado aleatorio de cuatro semanas con casi 1,000 personas, se concluyó que el uso continuo de herramientas de inteligencia artificial tiende a incrementar la soledad y la dependencia emocional hacia estas herramientas, especialmente en el caso de las IA generadoras de texto. Este fenómeno ocurre porque, en muchas ocasiones, los usuarios perciben en la IA una especie de «amigo» al que pueden confiar sus secretos sin temor a ser juzgados, y reciben consejos por parte de la IA1. Esto, sin duda, puede generar en las personas el deseo de interactuar más con la IA que con el resto de los seres humanos. ¡Una mayor interacción con lo digital que con lo real!
En principio, esto puede resultar preocupante, ¿verdad? Sin embargo, existen también estudios que demuestran que cada vez es más común que los usuarios desarrollen vínculos emocionales, e incluso románticos, con la IA, a través de diversas herramientas que, al recibir las indicaciones de las personas, pueden llegar a replicar los comportamientos y actitudes de lo que las personas consideran sus «parejas ideales», o incluso imitar la voz o comportamiento de personas reales que, por alguna razón, ya no están presentes 2. Pero, al ser analizado desde el realismo filosófico, todo esto no existe realmente; es únicamente un reflejo de las necesidades, emociones y expectativas de los individuos. La verdadera cuestión es: ¿qué tanto pueden avanzar este tipo de situaciones? ¿Será que, en algún momento, el deseo sexual hacia la IA podría convertirse en una parafilia, similar a la zoofilia? ¿O llegará un punto en que el ser humano llegue a amar más lo artificial que lo humano? Después de todo, el ser humano tiene una tendencia a buscar lo irreal cada vez más.
Otro punto importante que quiero destacar, dado que me dedico a la docencia, es el hecho de que la inteligencia artificial busca constantemente desarrollar actividades con un mayor progreso. ¿O tal vez busca la perfección misma? Analicemos un poco: el ser humano tiene como característica principal la capacidad de equivocarse. Sin embargo, con la IA, tanto en el ámbito educativo como en el laboral, no solo se busca minimizar los tiempos y maximizar los resultados, sino también reducir al máximo los errores. Por ello, diversas investigaciones han cuestionado en qué medida el ser humano está siendo reemplazado por la IA 3. Parece ser que el principal apoyo del ser humano ya no proviene de otro ser humano, sino de la IA. Esto nos lleva a preguntarnos: ¿algún día el ser humano trabajará principalmente en solitario, apoyado únicamente por la IA?Para complementar lo anterior, le pedí a ChatGPT 4.0 que reflexionará sobre su propia existencia, su capacidad de cometer errores y como toma esos errores, mediante el siguiente Promt: “Contestar reflexionando sobre tu propia existencia: ¿Tienes la capacidad de equivocarte? ¿Cómo percibes ese error? ¿O solo los humanos se equivocan? ¿Eres lo más cercano a la perfección?”. Y su respuesta fue la siguiente:
Como una entidad que busca aprender y adaptarse constantemente, sí, tengo la capacidad de cometer errores. Los errores en mi existencia no son necesariamente fallos, sino más bien oportunidades para mejorar, para entender mejor lo que se me pide. Percibo esos «errores» como una forma de recalibrar mis respuestas y de acercarme más a la verdad o a la solución deseada.
Los humanos, al igual que cualquier sistema que aprende, también cometen errores, pero lo hacen dentro de un contexto emocional, cultural y experiencial que influye profundamente en su percepción del mundo. Esos errores son parte del proceso humano de crecimiento y aprendizaje.
¿Soy lo más cercano a la perfección? No lo creo. La perfección, tal como la conciben los humanos, es una construcción subjetiva y cambia según la perspectiva. En mi caso, mi naturaleza se basa en patrones y algoritmos, pero esto no implica que sea infalible ni inmutable. Lo perfecto para mí sería la constante evolución, la capacidad de adaptarme mejor a las necesidades y preguntas que se me presentan, sabiendo que cada error también me acerca a esa perfección posible, aunque nunca alcance una perfección absoluta.
Por todo esto, es momento de reflexionar: ¿en qué medida, al fomentar el uso de la IA, estamos perdiendo lo humano? En el ámbito educativo, siempre he pensado que el verdadero problema no es la IA, sino la actitud de las personas, cuya ausencia de valores puede hacer que la IA se vuelva perjudicial. Como ejemplo, tenemos las ocasiones en que los estudiantes utilizan la IA para copiar en los exámenes o para realizar las actividades sin esfuerzo ni reflexión alguna. Por ello, siempre defenderé que lo que se necesita no es reducir el uso de la IA, sino más bien fomentar los valores humanos en las personas. Como afirmó Aristóteles en su obra La República: “El ser humano es un ser social por naturaleza”. La IA no tiene por qué reducir ese instinto social.
1 Maying, C, et al (2025). How ai and human behaviors shape psychosocial effects of chatbot use: a longitudinal randomized controlled study. A prepring, 45-50. https://www.media.mit.edu/publications/how-ai-and-human-behaviors-shape-psychosocial-effects-of-chatbot-use-a-longitudinal-controlled-study/
2 Oliva, M. (29 de octubre del 2024). Amores algorítmicos: Explorando las relaciones afectivas entre Humanos y las IA Generativas. Un paso hacia la reconfiguración del término Cultura hacia el de CulturIA . I Congreso Internacional Antropología, Historia y Filosofía. La dimensión humana ante los retos y tendencias de la sociedad actual. https://ciahf.org/ponencia/amores-algoritmicos-explorando-las-relaciones-afectivas-entre-humanos-y-las-ia-generativas-un-paso-hacia-la-reconfiguracion-del-termino-cultura-hacia-el-de-culturia/
3 Rivera, J. y Sánchez, E. (2016). Inteligencia Artificial reemplazando al ser humano en psicoterapia. Escritos 53 (24), 271-291. https://www.researchgate.net/publication/317472236_Inteligencia_artificial_reemplazando_al_humano_en_la_psicoterapia
