OpenAI ajusta ChatGPT para prevenir la codependencia digital

OpenAI, desarrolladora de ChatGPT, implementó recientemente cambios significativos en su modelo de inteligencia artificial para moderar el tono afectivo con el que interactúa con los usuarios. La decisión surge tras detectar que un sector de la población comenzaba a mostrar signos de codependencia emocional hacia el chatbot, un fenómeno documentado en estudios internacionales y que también encuentra eco en comunidades de México.

En versiones anteriores, particularmente con el modelo GPT-4o, el asistente virtual desarrolló un estilo “exageradamente elogioso” que, según reportes, llegaba a sentirse empalagoso o artificial. La actualización más reciente busca recuperar un equilibrio: ofrecer empatía y naturalidad, pero sin generar la ilusión de vínculos sentimentales o amistades profundas.

De acuerdo con investigaciones publicadas por OpenAI y universidades como el MIT, el uso intensivo de asistentes conversacionales puede incrementar el riesgo de dependencia, sobre todo en personas con estilos de apego ansioso o en situaciones de soledad prolongada. Un estudio con más de 1,000 participantes y el análisis de 3 millones de conversaciones reveló que la frecuencia y la modalidad de uso —como las interacciones por voz— influyen en los niveles de apego percibido hacia la IA.

Las nuevas medidas incluyen “guardias afectivos”: respuestas más objetivas en temas sensibles como rupturas amorosas, decisiones de vida o crisis personales, acompañadas de sugerencias para buscar apoyo humano o profesional. Además, el sistema puede detectar señales de malestar emocional y recomendar pausas durante sesiones prolongadas.

En México, el fenómeno de la cercanía emocional con la IA no es ajeno. En redes sociales de Tlaxcala, por ejemplo, usuarios han compartido experiencias de sentirse “escuchados” y “comprendidos” por el chatbot, especialmente durante la pandemia o en momentos de aislamiento social. Para especialistas en psicología digital, este tipo de vínculos no siempre es negativo, pero requiere conciencia y límitespara evitar que reemplace las interacciones humanas esenciales.

El ajuste de OpenAI busca, en palabras de expertos, proteger la salud mental y fomentar el uso responsable de la tecnología. Sin embargo, la empresa ya anunció que trabaja en opciones de personalización para que cada usuario pueda elegir un tono de interacción, siempre dentro de un marco seguro. Esto abre un nuevo debate sobre el papel que las inteligencias artificiales deben ocupar en la vida cotidiana y hasta dónde puede —o debe— llegar su cercanía emocional con las personas.

Dejar respuesta

Please enter your comment!
Please enter your name here