TGW
Guatevision
DCA
Prensa Libre
Canal Antigua
La Hora
Sonora
Al Día
Emisoras Unidas
AGN

¿Compartió una foto o su voz en una app para sumarse a un reto viral? Cómo la inteligencia artificial puede suplantar su identidad con datos biométricos
Sumarse a las tendencias relacionadas con la inteligencia artificial puede parecer inofensivo, pero proporcionar la voz o escanear el rostro expone los datos biométricos del usuario y abre la puerta a fraudes y suplantación de identidad.
Enlace generado
Resumen Automático
Las tendencias en redes sociales y el uso de inteligencia artificial se han convertido en herramientas atractivas, pero también en potenciales amenazas para la privacidad. Transformar una foto al estilo Studio Ghibli o rejuvenecer el rostro puede parecer inofensivo, pero estas acciones exponen datos biométricos únicos, como el rostro o las huellas dactilares, que podrían ser aprovechados por ciberdelincuentes.
Expertos en ciberseguridad comparan el hecho de escanear el rostro para un video con inteligencia artificial o tomarse fotos virales con entregar las llaves de su propia casa. Una vez que estos datos están en manos de terceros, pueden utilizarse para ingresar a cuentas bancarias, suplantar identidades o falsificar documentación.
Mario Micucci, especialista en ciberseguridad de ESET, advierte: “La identidad biométrica es como la llave de nuestra casa”. Al subir una foto a una aplicación desconocida o basada en inteligencia artificial, muchas personas entregan su identidad sin saber en qué base de datos queda almacenada ni qué uso se le dará.
Como ejemplo, menciona el caso de FaceApp, popular durante la pandemia. “Nos transformábamos en versiones más jóvenes o mayores sin saber que estábamos regalando nuestro rostro a los desarrolladores. Además, se crean imágenes de terceros sin consentimiento, lo que vulnera la privacidad”, afirma.
También destaca el peligro de los deepfakes, herramientas que manipulan voces e imágenes para simular acciones o declaraciones falsas. “Estos recursos pueden usarse para estafas, suplantar a familiares o acceder a cuentas bancarias mediante imágenes biométricas”, explica.
Micucci alerta sobre casos como el de Worldcoin, una empresa que ofrecía criptomonedas a cambio de escanear el iris de los usuarios. “Muchos no sabían qué harían con esa información”, afirma. Esto evidencia la importancia de leer los términos de privacidad antes de usar cualquier aplicación.
“Nuestra vida digital gira en torno a la información. Nuestro rostro, huellas y datos personales tienen valor. Por eso es vital pensar dos veces antes de compartirlos”, señala.
El riesgo aumenta si las bases de datos son vulneradas. “Si un hacker accede a ellas, puede usar esa información para entrar a sistemas, aplicaciones y cuentas bancarias. Nuestro rostro es una llave de acceso. Darlo sin pensar es como entregar una copia de las llaves de nuestra casa”, advierte.

El avance de la IA, según expertos pone en riesgo a la ciudadanía guatemalteca ante la falta de aprobación de una ley que regule su uso y datos obtenidos del usuario. (Foto: Prensa Libre: Shutterstock)
Riesgos reales y falta de regulación de la IA
Miguel Morales, director del Área de Educación Digital en la Universidad Galileo, también advierte que herramientas como ChatGPT 4.0, aunque útiles para crear imágenes fotorrealistas, pueden comprometer datos biométricos, como el rostro, que se utilizan para desbloquear dispositivos y acceder a información confidencial.
“El problema se agrava con versiones gratuitas, que no garantizan la protección de datos. No se deben subir documentos de identificación, información financiera ni confidencial”, explica Morales.
Asegura que una sola imagen no basta para recopilar todos los rasgos biométricos, pero que una interacción constante, como un video o escaneo directo, o incluso la venta de datos, puede ser suficiente para capturarlos.
Uno de los mayores riesgos, advierte, es la clonación de voz. “Con solo cinco segundos de audio, es posible replicar una voz humana y usarla para estafas mediante llamadas falsas”. Además, ya existen videos generados con imagen y voz clonadas, utilizados para engañar.
En 2024, CNN reportó una banda dedicada a estafas románticas mediante deepfakes. Simularon videollamadas con mujeres ficticias que convencían a las víctimas de invertir en planes de criptomonedas. “Los responsables usaban videos, audios y otros archivos manipulados para fingir relaciones sentimentales”, informó HuffPost.
En Guatemala, Morales señala que no existe un marco legal específico sobre inteligencia artificial. La iniciativa 6347, aún pendiente en el Congreso, contempla aspectos regulatorios relacionados con IA y seguridad nacional.
Otros riesgos emergentes son los ataques por inyección. Esta técnica permite a los atacantes suplantar identidades frente a sistemas de verificación facial con rostros falsos generados en tiempo real. Así, engañan cámaras y programas que validan identidades reales.
También existen ataques con plantillas de identidad, donde se falsifican documentos mediante IA, utilizando datos extraídos de redes sociales o bases de datos para suplantar identidades con fines delictivos.

Herramientas como ChatGPT 4.0, aunque útiles para crear imágenes fotorrealistas, pueden comprometer datos biométricos. (Foto: Prensa Libre: Shutterstock)
Recomendaciones para protegerse
Desde ESET Latinoamérica recomiendan las siguientes medidas para reducir riesgos al interactuar con aplicaciones de inteligencia artificial:
- Revisar las políticas de privacidad: Conozca cómo se maneja la información antes de subir datos personales
- Verificar respaldo legal: Asegúrese de que la plataforma cumpla con leyes y principios éticos de protección de datos
- Usar aplicaciones oficiales: Evite versiones no verificadas que podrían contener software malicioso
- Subir solo imágenes seguras: Prefiera ilustraciones o paisajes sin derechos de autor, en lugar de imágenes personales