Microsoft anuncia nueva tecnología para detectar deepfakes y combatir la desinformación

Microsoft Video Authenticator analiza una foto fija o un video para comprobar si se trata de una imagen real o un deepfake, que son fotos, videos o archivos de audio manipulados por inteligencia artificial.

No hay duda de que la desinformación está generalizada. Una investigación del profesor Jacob Shapiro en Princeton apoyada por Microsoft y actualizada en agosto de 2020, catalogó 96 campañas separadas de influencia extranjera dirigidas a 30 países, entre 2013 y 2019. Estas campañas, realizadas a través de redes sociales, buscaban difamar a personas notables, persuadir al público o polarizar debates.

Mientras que el 26% de estas campañas fueron dirigidas a Estados Unidos, otros países que fueron objetivo incluyeron a Alemania, Arabia Saudita, Armenia, Australia, Brasil, Canadá, Francia, Holanda, Polonia, Reino Unido, Sudáfrica, Taiwán, Ucrania y Yemen. Alrededor del 93% de estas campañas incluyeron la creación de contenido original, 86% amplificaron contenido preexistente, y 74% distorsionaron hechos verificables de manera objetiva.
Nuevas tecnologías

La desinformación viene en muchas formas, y una sola tecnología no resolverá el desafío de ayudar a las personas a descifrar lo que es cierto y preciso. Por esto, en Microsoft se ha trabajado en dos tecnologías para hacer frente a los diferentes aspectos del problema.

Uno de estos problemas son los deepfakes, o medios sintéticos, que son fotos, videos o archivos de audio manipulados por inteligencia artificial (IA) en formas que son difíciles de detectar. Pueden usarse para hacer que la gente diga cosas que no dijo o estar en lugares donde no estuvo, y como están generadas por IA, puede continuar aprendiendo, haciendo inevitable que puedan vencer a la tecnología convencional de detección.

Es por esto que Microsoft anunció la herramienta Microsoft Video Authenticator, que puede analizar una foto fija o un video para brindar un porcentaje de probabilidad, o una calificación de confianza, de que el medio haya sido manipulado de manera artificial. En el caso de un video, puede brindar este porcentaje en tiempo real sobre cada cuadro a medida que se reproduce el video. Funciona a través de detectar el límite de fusión del deepfake y el sutil desvanecimiento o elementos de escala de grises que tal vez no puedan ser detectados por el ojo humano.

Esta tecnología fue desarrollada por Microsoft Research, en coordinación con el equipo de Responsible AI de Microsoft, y el Comité de IA, ética y efectos en ingeniería e investigación (AETHER, por sus siglas en inglés) de Microsoft, que es un consejo asesor en Microsoft que ayuda a asegurar que la nueva tecnología sea desarrollada e integrada de manera responsable. Video Authenticator fue creado a través de una base de datos pública de Face Forensic++ y fue probada en el DeepFake Detection Challenge Dataset, ambos modelos líderes para el entrenamiento y pruebas de tecnologías de detección de deepfake.

Microsoft también anunció una nueva tecnología que puede detectar contenido manipulado y asegurar a la gente que los medios que ven son auténticos. Esta tecnología tiene dos componentes, el primero es una herramienta integrada en Microsoft Azure, que permite a un productor de contenido agregar hashes y certificados a una pieza de contenido, que luego viven en él como metadatos, donde sea que viajen en línea. El segundo es un lector, que puede existir como una extensión de navegador o en otras formas, que comprueba los certificados y relaciona los hashes, para permitir a la gente saber, con alto grado de precisión, que el contenido es auténtico y que no ha sido cambiado, así como brindar detalles sobre quién lo produjo.

Esta tecnología ha sido construida por Microsoft Research y Microsoft Azure, en asociación con el Programa Defending Democracy, y va a impulsar una iniciativa recién anunciada por la BBC, llamada Project Origin.

Menu