Recientemente, una tendencia viral ha invadido las redes sociales: el «Trend Ghibli», donde los usuarios suben sus fotos para que, mediante inteligencia artificial (IA), sean transformadas en personajes animados al estilo del famoso Studio Ghibli. Sin embargo, expertos alertan sobre los peligros ocultos detrás de esta tendencia, principalmente relacionados con el uso y mal manejo de datos biométricos.

El Centro de Análisis y Estudio de la Comunicación (CAESCO) advierte que estas herramientas, aunque ofrecen resultados sorprendentes, también pueden extraer información personal sensible, lo que plantea serios riesgos de seguridad y privacidad para los usuarios.

¿Qué es el Trend Ghibli?

El Trend Ghibli consiste en utilizar herramientas de inteligencia artificial como ChatGPT y DALL·E para generar imágenes de personas al estilo de las películas del Studio Ghibli, como El viaje de Chihiro o Mi vecino Totoro. Esta tendencia ha sido adoptada por muchas figuras públicas, desde celebridades hasta políticos, quienes comparten sus versiones animadas con el objetivo de unirse a la moda digital.

¿Qué datos recopilan estas plataformas?

A pesar de la diversión y la popularidad del Trend Ghibli, el uso de estas herramientas conlleva riesgos. Según el CAESCO, las plataformas que permiten crear estas imágenes pueden recopilar información biométrica crucial, como:

  • Reconocimiento facial: La IA puede identificar rasgos únicos de cada persona.

  • Análisis de emociones: Evaluación de expresiones faciales para interpretar el estado emocional.

  • Elaboración de perfiles: Recopilación de patrones a partir de las imágenes procesadas.

El riesgo de los datos biométricos

Los datos biométricos son información única e inalterable, lo que significa que su exposición puede tener consecuencias permanentes. Entre los riesgos más graves se incluyen:

  1. Suplantación y deepfakes: Las imágenes pueden ser manipuladas para crear contenido falso, como ocurrió en una campaña de Deutsche Telekom que mostró cómo fotos inocentes pueden ser alteradas para crear videos falsos de menores.

  2. Sesgos y discriminación: Los sistemas de reconocimiento facial pueden tener márgenes de error elevados, especialmente en mujeres y personas de color, lo que podría vincular erróneamente a alguien con actividades delictivas si sus imágenes se usan para entrenar IA sesgadas.

  3. Uso no autorizado de obras protegidas: En 2024, una imagen estilo Ghibli de una mujer dominicana arrestada fue publicada sin el consentimiento de la artista Karla Ortiz, lo que derivó en una demanda contra OpenAI.

Niños y adolescentes: las víctimas invisibles

Los menores son los más vulnerables en este tipo de situaciones. Según Deutsche Telekom, un niño promedio tiene 1,500 fotos publicadas en línea antes de los 5 años,; muchas de las cuales terminan en bases de datos como LAION-5B. Estas imágenes pueden ser utilizadas para crear deepfakes sexuales y otras representaciones manipuladas. Además, la investigadora Hye Jung Han descubrió que más de 170 imágenes de niños brasileños fueron robadas para crear contenido falso, lo que pone en evidencia el abuso de datos biométricos de menores.