OpenAI modificó las políticas de uso de ChatGPT, por lo que ahora ya no podrá dar asesoramiento legal ni médico.

Así lo dio a conocer la compañía tecnológica, que destacó que las nuevas actualizaciones iniciaron el 29 de octubre.

Al respecto, detalló que no puede permitir que “se utilice la aplicación (…) para interferir con la capacidad de acceder a servicios críticos, incluido cualquier caso de uso para la automatización de decisiones de alto riesgo en áreas sensibles sin revisión humana, es decir, servicios gubernamentales, legales, médicos y esenciales”.

El cambio se produjo luego de varios casos que involucran a la plataforma en suicidios y homicidios, principalmente cometidos por jóvenes. El más famoso fue el de Adam Raine, un adolescente que terminó con su vida en abril pasado en Estados Unidos, tras mantener conversaciones de autoayuda con ChatGPT.

Adam empezó a hablar con ChatGPT a finales de noviembre de 2024, tras sentirse emocionalmente inestable. La plataforma le respondió con palabras de empatía y apoyo. Pero en enero de este 2025, cuando el menor pidió información sobre métodos específicos de suicidio, la Inteligencia Artificial se la proporcionó.

Pese a la nueva normativa, varios usuarios destacaron que, en realidad, la Inteligencia Artificial sigue haciendo sugerencias en materia jurídica y médica, pero con la aclaración de que su respuesta “no sustituye el asesoramiento” profesional.

Por ello, la medida fue interpretada como una forma de que OpenAi pueda desligarse de casos que la cataloguen como “negativa” entre la opinión pública.