Meta ha anunciado un nuevo avance en la integración de la inteligencia artificial en sus productos, revelando una función que cambiará la manera en que los usuarios interactúan con los videos de Reels en Instagram. A través de Meta AI, su sistema de inteligencia artificial avanzado, los videos podrán traducirse y doblarse automáticamente de diversos idiomas a inglés y español, sincronizando los movimientos de los labios con el nuevo idioma. Este cambio busca romper las barreras lingüísticas y ampliar el alcance de los creadores de contenido a nivel global.
El anuncio fue realizado durante el evento Meta Connect 2024, donde se mostraron varias demostraciones de esta tecnología. Una de las funciones más destacadas es la capacidad de Meta AI para traducir y sincronizar el audio de un vídeo con los labios del hablante en otro idioma, proporcionando una experiencia visual más realista. La nueva función ya está siendo probada en Estados Unidos y América Latina, en una fase inicial que permitirá a un grupo limitado de creadores de contenido experimentar esta tecnología antes de su despliegue global.
Traducción de Reels
El desarrollo de esta nueva característica es producto de años de investigación y mejoras en inteligencia artificial por parte de Meta. Utilizando su modelo más reciente de IA, conocido como Llama 3.2, la compañía ha implementado un sistema que traduce automáticamente el audio de los videos de Reels, ajustando la voz del creador al idioma seleccionado. Esta tecnología no solo cambia el idioma, sino que también ajusta los movimientos de los labios del hablante, mejorando la precisión y naturalidad de la traducción respecto a los métodos tradicionales de doblaje.
Por ejemplo, si un creador de contenido graba un video en español, Meta AI podrá generar una versión en inglés, manteniendo el tono y estilo originales del hablante, pero con el nuevo idioma. Esto significa que el creador conservará su identidad vocal, lo que permitirá una conexión más auténtica con audiencias de diferentes lenguas. La tecnología también sincroniza los labios del creador para que coincidan con las palabras en el idioma de destino, algo que mejora sustancialmente la experiencia visual.
Resultados
Durante el evento de Meta Connect, se presentaron varios ejemplos de cómo esta tecnología puede transformar la creación de contenido en Instagram. Una de las demostraciones más notables fue la de la creadora de contenido Dana Buttigliero, conocida en redes sociales como Sabores del Conurbano. En el video, la IA tradujo al inglés una receta que ella presentó en español, sincronizando perfectamente sus labios con las palabras en el nuevo idioma. Aunque en algunos casos se observaron pequeños errores en la pronunciación de términos complejos, como "dulce de leche", que fue interpretado como "dulce de leshi", los resultados generales fueron impresionantes y señalaron un importante avance en la tecnología de traducción automática.
Otro creador que participó en la demostración fue Iván Acuña, conocido como artificialmente.ia, quien mostró cómo la IA podía traducir un vídeo lleno de diálogo directo a la cámara. En su caso, la sincronización de los labios fue destacable por la fluidez del resultado, demostrando que Meta AI tiene un gran potencial para automatizar la traducción de videos hablados con alta precisión.
Actualmente, la función de traducción y doblaje en Reels está en fase de pruebas limitadas. Solo un grupo seleccionado de creadores de contenido en Estados Unidos y América Latina tiene acceso a esta tecnología en su versión inicial. Aunque Meta no ha anunciado una fecha específica para su lanzamiento global, el CEO de la compañía, Mark Zuckerberg, adelantó que planean expandir la disponibilidad de la función a más países e idiomas en los próximos meses.