Microsoft presenta una inteligencia artificial capaz de generar deepfakes realistas a partir de una sola imagen y afirma desconocer cómo prevenir su uso indebido
Introducción
La inteligencia artificial (IA) continúa avanzando a pasos agigantados y una de las áreas más prometedoras es la de generación de contenido. Sin embargo, el reciente desarrollo de una herramienta de IA por parte de Microsoft Research Asia podría tener consecuencias negativas si cae en manos equivocadas.
El proyecto VASA-1
Según TechSpot, Microsoft Research Asia está trabajando en una aplicación generativa de IA llamada VASA-1. Esta herramienta es capaz de crear vídeos sorprendentemente realistas a partir de una simple imagen de un rostro y una pista de audio. VASA-1 es capaz de cambiar rostros en tiempo real y, utilizando aprendizaje automático, analiza una foto para animar la voz y sincronizar el movimiento de los labios y la boca con el audio.
Una herramienta con potencial para el fraude
Además de cambiar rostros, VASA-1 también puede simular expresiones faciales y realizar movimientos de cabeza y cuerpo. A pesar de algunos errores relacionados con las manos y los dientes (dos de los grandes desafíos en la IA actual), esta herramienta abre la puerta a posibles suplantaciones de identidad.
Usos malintencionados
Esta tecnología podría ser utilizada para difundir información falsa o, en el peor de los casos, intentar estafar a millones de personas con vídeos que suplantan la identidad de familiares, amigos o personas cercanas. Microsoft es consciente del riesgo potencial asociado a esta tecnología y sugiere llevar a cabo un «análisis meticuloso de los vídeos» al recibirlos. Sin embargo, es innegable que las posibilidades de VASA-1 son tanto emocionantes como aterradoras.
El futuro de la IA y la protección contra el fraude
Con herramientas como VASA-1 cada vez más perfeccionadas, es necesario abordar las cuestiones éticas y de seguridad asociadas a su uso. Las compañías y legisladores deben cooperar para establecer salvaguardias que protejan a los ciudadanos del uso indebido de estas tecnologías y eviten el plagio. Mientras tanto, todos debemos estar alerta y ser escépticos ante la información que recibimos.