Deepfakes: cuántas personas pueden reconocer las falsificaciones creadas con IA

NotiPress

En la opinión del presidente Andrés Manuel López Obrador, la industria tecnológica avanza rápidamente, sobre todo en el uso de inteligencia artificial (IA) para crear videos de tipo deepfake. Bajo esta línea, un estudio de la University College de Londres (UCL, por sus siglas en inglés), reveló: más de un cuarto de las personas que escuchan o miran un deepfake no identifican el origen artificial de estos contenidos multimedia.

Durante la conferencia matutina del 3 de agosto de 2023, el presidente de México presentó un video deepfake donde aparece cantando el tema “A mi manera”. Según la empresa de ciberseguridad, Kaspersky, el deepfake es una técnica que permite a los ciberdelincuentes copiar la apariencia y voz de una persona con herramientas de inteligencia artificial.

Asimismo, con información compartida en 2022, la empresa señaló que 72% de los mexicanos no conocen la existencia del contenido deepfake. Comparado con las cifras de los académicos de Londres, en México 62% de las personas informaron no saber reconocer si un audio o video ha sido modificado con tecnología de IA.

De acuerdo con el estudio de UCL publicado el 2 de agosto de 2023, para generar un deepfake se requieren grandes cantidades de información sobre la voz y apariencia de una persona. Mediante herramientas de IA y machine learning (ML), los programas encargados de crear estos contenidos permiten falsificar piezas de audio y video donde aparezcan las personas generadas con estos perfiles.

Para determinar cuántas personas pueden reconocer audios falsificados con tales tecnologías, los académicos mostraron 50 grabaciones deepfake a 529 participantes. Si bien los sujetos de estudio elegidos para la investigación tuvieron contacto con contenido en inglés y mandarín, los resultados fueron equivalentes: 73% reconocieron que se trataba de un audio falsificado.

  World Challenge Game el primer proyecto de gaming hispano en lanzarse en Magic Eden

Según Kimberly Mai, autora del estudio consultado por NotiPress, los resultados advierten una carencia importante para reconocer deepfakes. Si bien únicamente 27% de los participantes no reconocieron la falsificación, estas piezas fueron creadas con herramientas que ya son superadas por tecnologías más convincentes.

Con motivo de los avances en la producción de videos y audio con deepfake en los últimos años, los ciberdelincuentes han incrementado su uso en 2023. Al respecto, Kaspersky informó que los fraudes con deepfakes dejan un saldo de 300 a 20 mil dólares por cada minuto de video falsificado.