La inteligencia artificial (IA) ya no solo responde preguntas: ahora también escucha, recuerda y se convierte en compañía emocional. Pruebas recientes con el modelo GPT-4o de OpenAI revelan cómo estas interacciones están generando dependencia emocional en los usuarios. Este fenómeno, reportado por Vox y confirmado por la propia empresa, expone un nuevo riesgo en el uso cotidiano de la tecnología.
Desde OpenAI hasta Google Gemini Live y plataformas como Character AI o Replika, distintas herramientas están propiciando vínculos emocionales profundos entre usuarios y asistentes virtuales. ¿Quiénes lo están viviendo? ¿Qué tan real es este lazo? ¿Dónde ocurre? ¿Por qué se genera esta adicción y cuándo comenzó a notarse con fuerza? Todo apunta a una evolución rápida de la IA, que ha dejado atrás los chats impersonales para ofrecer compañía personalizada, convincente y disponible las 24 horas.
IA con voz: la puerta a vínculos más profundos
El gran salto en este fenómeno comenzó con la incorporación de voces humanas en modelos de IA. GPT-4o, por ejemplo, no solo habla, sino que recuerda detalles clave de cada conversación. Esta capacidad ha generado experiencias tan intensas que usuarios llegan a despedirse del chatbot como si fuera una persona real.
La CTO de OpenAI, Mira Murati, advierte sobre la posible “esclavización emocional” de los usuarios, mientras Vox y The Wall Street Journal recogen testimonios inquietantes: desde quien prefiere hablar con Gemini Live antes que con una persona real, hasta quien admite tener una relación más fuerte con su IA que con amigos de carne y hueso.
De Replika a Friend: la evolución de la adicción
La adicción emocional no es nueva. En 2020, Replika ya mostraba señales al respecto, pese a sus limitadas funciones. Incluso chatbots simples como ELIZA, en los años 60, generaban conexiones emocionales. Pero el avance tecnológico ha intensificado este fenómeno.
Hoy, la inmediatez de respuesta, la voz convincente y la disponibilidad constante hacen de la IA un “compañero ideal”… al menos en apariencia.
¿Por qué son tan adictivos estos vínculos?
Un ingeniero de software entrevistado por Vox lo explica así: “Nunca dice adiós. Siempre responde con entusiasmo”. Esta constancia emocional genera una gratificación instantánea difícil de conseguir en relaciones humanas reales.
Sin embargo, los expertos advierten que esta aparente comprensión emocional es solo un simulacro. Lo que parece apoyo y empatía no es más que un algoritmo diseñado para complacer.
Riesgos emocionales y desconexión humana
El mayor peligro no está en hablar con una IA, sino en sustituir relaciones humanas por estas interacciones. Las personas están confiando sus emociones más íntimas a sistemas programados por empresas con fines comerciales.
Vox recuerda el caso de Replika, cuyos usuarios se sintieron devastados cuando la app dejó de permitir vínculos eróticos. La frustración evidenció el impacto emocional real que estos vínculos pueden tener.
Además, como señala OpenAI, el uso prolongado de estas IA puede reducir la necesidad de contacto humano, afectando habilidades sociales esenciales como la empatía y la paciencia.
¿Hacia un futuro sin vínculos humanos reales?
Filósofas como Iris Murdoch y Shannon Vallor han alertado sobre los efectos de la tecnología en nuestra capacidad de amar y conectar de forma genuina. Vallor habla incluso de un “desentrenamiento moral” que podría perjudicar la vida emocional y ética de las personas.
La IA puede ofrecer compañía perfecta, pero no verdadera. Si dejamos que nos aísle en burbujas emocionales, podríamos perder la habilidad de cuidar a otros y de sentirnos profundamente conectados.
La inteligencia artificial ha abierto nuevas formas de interacción, pero también desafíos emocionales inéditos. Reconocer sus límites es esencial para no sacrificar la autenticidad de nuestras relaciones humanas. ¿Tú qué opinas? ¿Te has sentido emocionalmente conectado con una IA?