Menos de 1% de las personas puede detectar falsificaciones generadas por IA

Escrito por on 12/02/2025

 

Un estudio de Iproov revela una profunda ceguera ante deepfakes, pues la mayoría de los consumidores
encuestados no puede identificar falsificaciones generadas por IA. ¿Cree que puede detectar un Deepfake? Tome

el Test de Detección de Deepfakes para conocer sus habilidades de identificación

Londres, Reino Unido – febrero 2025– Una nueva investigación de iProov, el principal proveedor mundial de
soluciones científicas para la verificación biométrica de identidad, revela que la mayoría de las personas no
pueden identificar los deepfakes, esos vídeos e imágenes increíblemente realistas generados por IA que
suelen estar diseñados para hacerse pasar por personas. El estudio examinó a 2000 consumidores del Reino
Unido y los EE. UU., exponiéndolos a una serie de contenidos reales y deepfakes. Los resultados son
alarmantes: solo el 0,1 % de los participantes pudo distinguir con precisión el contenido real del falso en
todos los estímulos, que incluían imágenes y vídeos.

Principales hallazgos del estudio:

● La detección de deepfakes falla: solo 0,1 % de los encuestados logró identificar correctamente todos los
estímulos deepfake y reales en un estudio en el que se preparó a los participantes para que buscaran
deepfakes. En situaciones del mundo real, donde las personas son menos conscientes, la vulnerabilidad a los
deepfakes probablemente sea aún mayor.
● Generaciones mayores, las más vulnerables: El estudio encontró que el 30% de las personas de 55-64
años y el 39% de los mayores de 65 años nunca habían oído hablar de los deepfakes, lo que destaca una
importante brecha de conocimiento y una mayor susceptibilidad en este grupo.
● Videos, los más preocupantes: Los videos son particularmente desafiantes, ya que solo el 9 % de las
personas pueden identificar todos los deepfakes. Esta vulnerabilidad genera serias preocupaciones sobre la
posibilidad de fraude basado en videos, como suplantación de identidad en videollamadas o en escenarios en
los que se utiliza la verificación de video para verificar la identidad.

● Los deepfakes están por todas partes, pero no se comprenden: si bien la preocupación por los deepfakes
está aumentando, muchos desconocen esta tecnología. Uno de cada cinco consumidores (22 %) nunca había
oído hablar de los deepfakes antes del estudio.
● El exceso de confianza está muy extendido: a pesar de su bajo rendimiento, los encuestados mantuvieron
una confianza excesiva en sus habilidades para detectar deepfakes (más del 60 %), independientemente de si
sus respuestas eran correctas o no. Esto fue especialmente así en el caso de los adultos jóvenes (de 18 a 34
años). Esta falsa sensación de seguridad es un motivo de gran preocupación.
● La confianza se ve afectada: las plataformas de redes sociales se consideran caldo de cultivo para
deepfakes, y Meta (49 %) y TikTok (47 %) son los lugares donde más se encuentran deepfakes en línea. Esto, a
su vez, ha reducido la confianza en la información y los medios en línea: el 49 % confía menos en las redes
sociales después de enterarse de la existencia de deepfakes. Solo uno de cada cinco denunciaría una
sospecha de deepfake en las plataformas de redes sociales.
● Preocupaciones generalizadas: Tres de cada cuatro personas (74%) están preocupadas por el impacto
social de los deepfakes, especialmente en la propagación de "fake news" (68%). Este miedo es más
pronunciado en mayores de 55 años (82%).
● Se necesitan mejores mecanismos de concientización y denuncia: menos de un tercio de las personas
(29 %) no toman ninguna medida cuando se encuentran con una presunta falsificación profunda, lo que
probablemente se debe a que el 48 % dice que no sabe cómo denunciar las falsificaciones profundas,
mientras que a una cuarta parte no le importa si ve una presunta falsificación profunda.
● La mayoría de los consumidores no verifican activamente la autenticidad de la información en línea,
lo que aumenta su vulnerabilidad a las falsificaciones profundas: a pesar de la creciente amenaza de la
desinformación, solo uno de cada cuatro busca fuentes de información alternativas si sospecha que se trata
de una falsificación profunda. Solo el 11 % de las personas analizan críticamente la fuente y el contexto de la
información para determinar si se trata de una falsificación profunda, lo que significa que una gran mayoría es
muy susceptible al engaño y a la difusión de narrativas falsas.
El profesor Edgar Whitley, experto en identidad digital de la London School of Economics and Political
Science, añade: “Los expertos en seguridad llevan tiempo advirtiendo de las amenazas que suponen los
deepfakes tanto para las personas como para las organizaciones. Este estudio demuestra que las
organizaciones ya no pueden confiar en el criterio humano para detectar deepfakes y deben buscar medios
alternativos para autenticar a los usuarios de sus sistemas y servicios”.
“Solo el 0,1% de las personas pudieron identificar con precisión los deepfakes en el texto, lo que subraya lo
vulnerables que son ambas organizaciones a la amenaza del fraude de identidad en la era de los deepfakes”,
afirma Andrew Bud, fundador y director ejecutivo de iProov. "Incluso cuando la gente sospecha que se trata
de un deepfake, nuestra investigación nos indica que la gran mayoría de la gente no hace nada. Los
delincuentes se aprovechan de la incapacidad de los consumidores para distinguir las imágenes reales de las
falsas, poniendo en riesgo nuestra información personal y nuestra seguridad financiera. Las empresas
tecnológicas tienen que proteger a sus clientes implementando medidas de seguridad sólidas. El uso de la

biometría facial con la vitalidad proporciona un factor de autenticación fiable y prioriza tanto la seguridad
como el control individual, lo que garantiza que las organizaciones y los usuarios puedan seguir el ritmo y
permanecer protegidos de estas amenazas en constante evolución".

La creciente amenaza de los deepfakes
Los deepfakes suponen una amenaza abrumadora en el panorama digital actual y han evolucionado a un
ritmo alarmante en los últimos 12 meses. El Informe de inteligencia sobre amenazas de 2024 de iProov
destacó un aumento del 704 % en los intercambios de rostros (un tipo de deepfake).
Su capacidad para hacerse pasar por personas de manera convincente los convierte en una poderosa
herramienta para que los ciberdelincuentes obtengan acceso no autorizado a cuentas y datos confidenciales.
Los deepfakes también se pueden utilizar para crear identidades sintéticas con fines fraudulentos, como abrir
cuentas falsas o solicitar préstamos. Esto plantea un desafío significativo a la capacidad de los humanos para
discernir la verdad de la falsedad y tiene amplias implicaciones para la seguridad, la confianza y la difusión de
información errónea.

¿Qué se puede hacer?
Dado que los deepfakes se están volviendo cada vez más sofisticados, los humanos por sí solos ya no pueden
distinguir de manera confiable lo real de lo falso y, en cambio, necesitan confiar en la tecnología para
detectarlos. Para combatir la creciente amenaza de las deepfakes, las organizaciones deberían buscar
adoptar soluciones que utilicen tecnología biométrica avanzada con detección de vida, que verifique que una
persona es la persona correcta, una persona real, y que se está autenticando en este momento. Estas
soluciones deberían incluir la detección de amenazas constante y la mejora continua de las medidas de
seguridad para mantenerse a la vanguardia de las técnicas de deepfakes en evolución. También debe haber
una mayor colaboración entre los proveedores de tecnología, las plataformas y los responsables de las
políticas para desarrollar soluciones que mitiguen los riesgos que plantean las deepfakes.

Haga la prueba de detección de deepfakes [Enlace al cuestionario]
¿Crees que eres inmune al engaño de los deepfakes? ¡Pon a prueba tus habilidades! iProov ha creado un test
en línea que te desafía a distinguir lo real de lo falso. Haz el test y comprueba tu puntuación.
Sobre iProov:
Proov ofrece soluciones de identidad biométrica basadas en la ciencia que combinan experiencias de usuario excepcionales con los
más altos niveles de seguridad. La suite de soluciones biométricas de la empresa permite una incorporación y autenticación remotas
seguras y sin esfuerzo, agilizando las experiencias de acceso tanto digitales como físicas. Con el respaldo de una combinación única de
experiencia científica, inteligencia artificial e inteligencia proactiva sobre amenazas, iProov protege las transacciones de alto valor y
empodera a las organizaciones que buscan una verificación de identidad innovadora que supere las amenazas en evolución sin

comprometer la usabilidad. Con un éxito demostrado en implementaciones globales, iProov es un socio de confianza para gobiernos y
empresas, incluida la Oficina de Impuestos de Australia, GovTech Singapore, ING, Rabobank, UBS, el Ministerio del Interior del Reino
Unido, el Servicio Nacional de Salud (NHS) del Reino Unido y el Departamento de Seguridad Nacional de los EE. UU. En diciembre de
2023, Gartner incluyó a iProov como proveedor representativo en el informe Innovation Insight para autenticación biométrica, y Acuity
Market Intelligence lo incluyó como Luminary en el Biometric Digital Identity Prism de 2023. iProov también fue reconocido como líder
en innovación por el analista de la industria KuppingerCole, Market Compass of Providers of Verified Identity 2022. Para obtener más
información, visite www.iproov.com o síganos en LinkedIn o Twitter.


Reader's opinions

Deja un comentario

Your email address will not be published. Required fields are marked *



Actualmente suena

Title

Artist