Julián Neñer y Raúl Sosa, ingenieros del Instituto Balseiro, crearon “Neuralwave”, una plataforma capaz de segmentar los componentes del habla, como el mensaje, la emoción, el acento o la identidad. El proyecto sintetiza voces humanas con inteligencia artificial.
El funcionamiento es sencillo y rápido, “en el milisegundo en que uno habla, sale el audio modificado”, aclaró Neñer, uno de los fundadores. Junto a su compañero, Sosa, quien lleva adelante su doctorado en Luxemburgo, desarrollaron esta aplicación que apunta a crecer en el mundo de los videojuegos y el entretenimiento.
En el caso de las grandes productoras, con este programa conseguirán un gran ahorro ya que no deberán a equipos numerosos de actores de voz. En el caso del gaming, un usuario podrá personificar a todos los personajes y de esa manera se podrá reducir costos y tiempos de producción de los juegos. El sistema presenta una novedad, se puede modificar el acento y la emoción, sin cambiar la voz.
La idea de realizar esta plataforma surgió de estar en contacto con pequeños desarrolladores de videojuegos: “Nos comentaron que tenían este problema y a nosotros se nos ocurrió: ‘Bueno, ¿qué tal si le pudiéramos dar cualquier voz a cualquier persona?’”, recordó Neñer.
Ambos aclararon que las tecnologías habitualmente se presentan “de texto a voz”. Esta herramienta permite obtener un sonido específico, pero tiene la dificultad de que “la manera en que sale narrado no se puede manejar de manera perfecta”. En cambio, el voz a voz permite mayor control: “Las productoras requieren voces altamente emocionales, por ejemplo, llorar y reír. Se habla al micrófono y lo que se traduce en la salida es exactamente lo que dijiste, en la forma que lo dijiste, pero con otra voz”, ejemplificaron.