🌐 Meta sigue apostando por la inteligencia artificial y acaba de presentar una nueva herramienta que cambiará la forma en que los creadores de contenido interactúan con sus audiencias globales. A través de Meta AI, la compañía ha desarrollado una función que permite la traducción y doblaje en tiempo real de los Reels de Instagram, con la capacidad de traducir videos automáticamente entre español e inglés, modificando incluso el movimiento de los labios del creador para sincronizarlos con el nuevo idioma.
🤖 Cómo funciona la traducción en los Reels de Instagram
💡 Esta tecnología avanzada, impulsada por la última versión de su modelo de inteligencia artificial Llama 3.2, permite traducir no solo el contenido del video, sino también adaptar la voz del creador para que suene natural en el idioma de destino. Meta AI toma la voz original del video y genera una nueva versión, manteniendo el tono y estilo característicos, pero en otro idioma. Esto significa que, por ejemplo, un video grabado originalmente en español puede ser escuchado en inglés sin perder la esencia de la voz original.
🔄 Además, el sistema ajusta los movimientos de los labios del creador en el video, lo que permite una experiencia visual más realista y fluida en comparación con los sistemas de doblaje tradicionales, ofreciendo un nuevo nivel de inmersión para los espectadores.
🌍 Impacto para los creadores de contenido
Esta nueva función permitirá a los creadores de contenido eliminar barreras lingüísticas y expandir su alcance a nivel global, ofreciendo sus videos a audiencias que hablan otros idiomas. Al ofrecer contenido traducido y perfectamente sincronizado, los creadores pueden captar seguidores de nuevas regiones sin la necesidad de aprender un segundo idioma o contratar servicios de doblaje profesionales.
Durante el evento Meta Connect 2024, se mostraron varios ejemplos del potencial de esta tecnología. En uno de los casos, la creadora Dana Buttigliero (conocida como Sabores del Conurbano) presentó un video de cocina, donde la IA tradujo su explicación del español al inglés, adaptando los movimientos de sus labios de manera precisa, aunque con algunos pequeños errores en la pronunciación de términos como “dulce de leche”. A pesar de esto, la demostración dejó en claro que la tecnología está alcanzando un nivel avanzado.
Otro ejemplo destacado fue el del creador Iván Acuña (artificialmente.ia), quien mostró un video con mucho diálogo. La sincronización de los labios en este caso fue especialmente fluida, demostrando que la IA puede manejar incluso conversaciones largas con gran precisión.
📅 Disponibilidad y expansión de la función
Por ahora, esta función de traducción en tiempo real está disponible solo en fase de pruebas limitadas para creadores de contenido en Estados Unidos y América Latina. Meta ha confirmado que, en los próximos meses, la función se expandirá a otros territorios e incluirá más idiomas. Mark Zuckerberg, CEO de Meta, mencionó que la compañía está trabajando en aumentar la disponibilidad, pero no se han anunciado fechas específicas para el lanzamiento global.
Este tipo de lanzamientos limitados permite a Meta probar la funcionalidad en un entorno controlado, resolver posibles problemas y ajustar detalles antes de lanzarlo a una audiencia más amplia.