La inteligencia artificial (IA) está revolucionando el mundo de la locución a pasos agigantados y para muestra, la siguiente experiencia que les comparto a manera de anécdota.

Al fin de año 2024, me pidieron escuchara el audio de un video institucional – empresarial y que diera mi opinión al respecto de la voz que escuché y este fue el análisis:

“Su tono es bueno, también la dicción y empostación de voz. Cumple con lo necesario para el producto auditivo; sin embargo, creo que, en postproducción, tenían la oportunidad de matizar y mejorar el proceso sonoro, con un filtro para la voz, evitar que los segundos planos, superaran el volumen de la voz (primer plano) y por qué no, jugar con las pausas en la voz, para darle emotividad y no solo información a los escuchas. El principio y el final del audio, considero, pudieron tener un poco más de espacio, para que no se escuche “cortado” y dé la impresión de que algo faltó.”

La verdad, no me di cuenta, a primera escucha, que era una Inteligencia Artificial, lo que me llevó a investigar y reflexionar al respecto.

Aplicaciones como Murf, Narakeet, Speechify, Fliki y Resemble.ai están liderando la transformación en América Latina y España, generando voces sintéticas que, para el escucha promedio, son prácticamente indistinguibles de las voces humanas. Esto ocurre no solo en radio convencional, sino también en podcasts y producciones para redes sociales.

Estas herramientas ofrecen claras ventajas. Murf, por ejemplo, permite locuciones en más de 20 idiomas con ajustes de tono y velocidad, mientras que Narakeet facilita la creación de videos narrados con una impresionante gama de 700 voces en 100 idiomas. Speechify y Fliki se enfocan en la producción multimedia, ofreciendo narraciones en múltiples estilos y acentos.

Por su parte, Resemble.ai destaca por clonar voces con alta precisión, permitiendo a marcas y proyectos construir identidades vocales únicas.

¿Es la democratización del acceso a estas tecnologías un desafío, riesgo u oportunidad para la locución en países de habla hispana?

La respuesta no es sencilla, pues, si bien las voces generadas por IA son funcionales y económicas, también carecen de la calidez, la improvisación y la conexión emocional que los locutores aportan al micrófono.

El avance tecnológico no debe verse exclusivamente como un riesgo, sino como una oportunidad para la reinvención.

La clave está en equilibrar el uso de la IA con la autenticidad humana, donde las y los locutores puedan aprovechar su creatividad y habilidades interpretativas para destacar en un mercado saturado de voces perfectas, pero que carecen de alma.

Per el asunto se pone complicado, al menos en las estadísticas, pues con un mercado de IA proyectado en 134.8 billones de dólares para 2025 y sectores como finanzas, salud y educación liderando su adopción en América Latina, las posibilidades de que las voces sintéticas se consoliden son altas.

Más del 73% de las empresas estadounidenses ya utilizan inteligencia artificial, y el procesamiento de lenguaje natural superará los 40 mil millones de dólares, impulsando experiencias cada vez más personalizadas.

Para la locución en español, el impacto es profundo y de consideración, toda vez que las herramientas de IA están diseñadas para ser imperceptibles para el oyente promedio, lo que obliga a los profesionales a preguntarse si es una amenaza o una oportunidad.

Aquí todo podría depender de la capacidad que los y las profesionales de la voz en los países de habla hispana tengan para adaptarse, utilizar la tecnología como aliada y demostrar que, aunque las máquinas pueden imitar la voz humana, nunca podrán igualar la emoción que dan vida a las palabras.

Sigamos Haciendo Radio. ¡Llámalo Podcast!

Spotify: Bien y a la Primera de Omar Espinosa

Dejar respuesta

Please enter your comment!
Please enter your name here