LA EVOLUCIÓN DE LAS TÉCNICAS DE MANIPULACIÓN AUDIOVISUAL GENERARÁ NUEVAS PROBLEMÁTICAS EN NUESTRO FUTURO MUNDO DIGITAL
Ya son familiares y de uso corriente las múltiples opciones que algunas apps y redes sociales nos ofrecen para retocar nuestras imágenes y videos según la emoción que deseemos transmitir o la realidad que queremos filtrar.
Sin embargo, gracias a los avances en los campos de la inteligencia artificial –en específico, las redes neuronales-- y el procesamiento de gráficos, se han desarrollado nuevas herramientas de manipulación de audio y video que permitirán la creación de videograbaciones realistas donde cualquiera podría aparecer confesando cualquier cosa. Trump revelando su pasión por las aguas doradas, Felipe Calderón su alcoholismo o Peña Nieto su analfabetismo. Este es el futuro de las noticias falsas.
Varios equipos de investigación estadounidenses se encuentran capturando y sintetizando los diferentes aspectos audiovisuales de la comunicación humana. Entre ellos destaca la Universidad de Stanford con su software “Face2Face”, capaz de manipular video de figuras públicas como George W. Bush, Putin o Trump y sobreponer en tiempo real palabras nunca pronunciadas, utilizando únicamente una webcam.
Si a lo anterior se le añade un sintetizador de voz, la ilusión de veracidad se duplica. La Universidad de Alabama en Birmingham ha investigado y desarrollado herramientas de alteración de voz en un esfuerzo por diseñar sistemas de autenticación más seguros, pues se ha demostrado que con un audio de 3 a 5 minutos tomado de la radio o de la web un agresor puede sintetizar una voz capaz de engañar humanos y sistemas de seguridad biométricos utilizados por bancos y smartphones.
Como muestra del método para animar imagen --la boca, específicamente-- a partir de una pista de audio la Universidad de Washington elaboró el proyecto Sintetizando a Obama, en el cual los estudiantes tomaron el audio de un discurso de Obama y lo usaron para animar su cara en un video distinto mediante el empleo de redes neuronales artificiales que analizaron, sintetizaron y reprodujeron la cadencia de los movimientos al hablar.
No obstante, las diferentes técnicas aún no están perfeccionadas. Las expresiones faciales no parecen naturales, las voces aún suenan robotizadas, y las luces y las sombras, así como la perspectiva del entorno pueden delatar su fabricación. Pero gracias al avance tecnológico, eventualmente se podrá recrear fielmente el sonido y la apariencia de una persona. Esta sofisticación abre una amplia gama de problemáticas potenciales a nivel individual y global. Un agresor podría suplantar a un familiar o a uno mismo para perjuicio personal, o bien, podría suplantar a algún líder político-militar y desatar un conflicto imprevisto, sin contar los retos periodísticos para mantener la credibilidad.
Existen suficientes pruebas de los estragos de la desinformación. La tecnología tiene el potencial de revolver más el río para ver qué pescadores ganan.
Ya son familiares y de uso corriente las múltiples opciones que algunas apps y redes sociales nos ofrecen para retocar nuestras imágenes y videos según la emoción que deseemos transmitir o la realidad que queremos filtrar.
Sin embargo, gracias a los avances en los campos de la inteligencia artificial –en específico, las redes neuronales-- y el procesamiento de gráficos, se han desarrollado nuevas herramientas de manipulación de audio y video que permitirán la creación de videograbaciones realistas donde cualquiera podría aparecer confesando cualquier cosa. Trump revelando su pasión por las aguas doradas, Felipe Calderón su alcoholismo o Peña Nieto su analfabetismo. Este es el futuro de las noticias falsas.
Varios equipos de investigación estadounidenses se encuentran capturando y sintetizando los diferentes aspectos audiovisuales de la comunicación humana. Entre ellos destaca la Universidad de Stanford con su software “Face2Face”, capaz de manipular video de figuras públicas como George W. Bush, Putin o Trump y sobreponer en tiempo real palabras nunca pronunciadas, utilizando únicamente una webcam.
Si a lo anterior se le añade un sintetizador de voz, la ilusión de veracidad se duplica. La Universidad de Alabama en Birmingham ha investigado y desarrollado herramientas de alteración de voz en un esfuerzo por diseñar sistemas de autenticación más seguros, pues se ha demostrado que con un audio de 3 a 5 minutos tomado de la radio o de la web un agresor puede sintetizar una voz capaz de engañar humanos y sistemas de seguridad biométricos utilizados por bancos y smartphones.
Como muestra del método para animar imagen --la boca, específicamente-- a partir de una pista de audio la Universidad de Washington elaboró el proyecto Sintetizando a Obama, en el cual los estudiantes tomaron el audio de un discurso de Obama y lo usaron para animar su cara en un video distinto mediante el empleo de redes neuronales artificiales que analizaron, sintetizaron y reprodujeron la cadencia de los movimientos al hablar.
No obstante, las diferentes técnicas aún no están perfeccionadas. Las expresiones faciales no parecen naturales, las voces aún suenan robotizadas, y las luces y las sombras, así como la perspectiva del entorno pueden delatar su fabricación. Pero gracias al avance tecnológico, eventualmente se podrá recrear fielmente el sonido y la apariencia de una persona. Esta sofisticación abre una amplia gama de problemáticas potenciales a nivel individual y global. Un agresor podría suplantar a un familiar o a uno mismo para perjuicio personal, o bien, podría suplantar a algún líder político-militar y desatar un conflicto imprevisto, sin contar los retos periodísticos para mantener la credibilidad.
Existen suficientes pruebas de los estragos de la desinformación. La tecnología tiene el potencial de revolver más el río para ver qué pescadores ganan.
FUENTE: PIJAMASURF