¿Cómo se fabrica el engaño?
Imagine que la inteligencia artificial (IA) es como un hijo brillante pero un poco despistado: es capaz de imitar una voz a la perfección, pero a veces olvida cómo parpadea un ojo humano o cuántos dientes tenemos en la boca.
Técnicamente, los deepfakes se crean mediante un duelo entre dos «mentes» digitales. Una actúa como el falsificador, que intenta crear una imagen o un audio de un político; la otra actúa como el detective, que analiza el resultado y le dice al falsificador en qué falló (por ejemplo: «esa sombra en la nariz se ve falsa»). Este proceso se repite millones de veces en segundos hasta que el falsificador logra crear un video que engaña incluso al detective digital. Es lo que los expertos llaman Redes Generativas Antagónicas (GAN).
Este «disfraz digital» permite tres tipos de engaños principales:
- Cuentas y rostros sintéticos: Crear personas que no existen para que parezcan ciudadanos reales apoyando a un candidato.
- Clonación de voz: Grabar unos pocos segundos de un político real para luego hacerlo decir cualquier cosa en un audio de WhatsApp.
- Intercambio de rostros (FaceSwap): Poner la cara de un candidato sobre el cuerpo de un actor para simular que está en una situación comprometedora o en un lugar donde nunca estuvo.
Mira este ejemplo:
Tácticas de abuso: El juego sucio en las campañas
Los políticos no solo usan la IA para verse mejor; la usan para que el rival se vea peor o para confundir al votante de formas muy astutas.
1. El «Juego Largo» de la credibilidad falsa
Una de las tácticas más usadas es crear perfiles en redes sociales que parecen inofensivos. Durante meses, estas cuentas comparten memes, noticias reales de fútbol o consejos de cocina para ganar seguidores. Sin embargo, pocos días antes de la elección, estas cuentas «activan» su función real: difundir un deepfake escandaloso contra un oponente. Como las personas ya confían en la cuenta por sus publicaciones anteriores, bajan la guardia y creen en
la mentira.
2. La supresión de votos mediante audios falsos
El audio es el arma preferida porque es barato y difícil de verificar. En procesos recientes, se han detectado llamadas automáticas (robocalls) que imitan la voz de líderes políticos para decirles a sus propios seguidores que «no vayan a votar» porque la elección ya está ganada o
porque hay peligro en los centros de votación. Es una forma de fraude invisible que llega directamente al oído del ciudadano.
3. El «Dividendo del Mentiroso»
Este es el truco psicológico más peligroso. Ahora que todos sabemos que los deepfakes
existen, un político que es captado en un video real cometiendo un acto de corrupción puede
simplemente decir: «Ese video es falso, fue creado con inteligencia artificial». La existencia de
la tecnología les da una excusa perfecta para negar la verdad. Esto genera una duda constante
donde el ciudadano ya no sabe qué es real y qué no.
El espejo de Guatemala: Lecciones de las elecciones
Guatemala ha sido un campo de pruebas para estas tácticas. El proceso electoral de 2023 en Guatemala fue uno de los más tensos y cuestionados en casi cuatro décadas de democracia, marcado por la persecución judicial y una fuerte polarización. En el contexto guatemalteco, el abuso de la IA se ha manifestado de formas muy específicas:
• Ataques en grupos de WhatsApp: Debido a que muchas comunidades en el interior del país confían más en líderes locales o religiosos que en las instituciones, los audios falsos enviados por WhatsApp son extremadamente efectivos. Un audio con la voz clonada de un líder respetado puede cambiar la intención de voto de toda una comunidad en horas.
• Desinformación como arma judicial: Durante la crisis del Tribunal Supremo Electoral (TSE), circularon narrativas fabricadas que buscaban deslegitimar el conteo de votos. Aunque no todas fueron deepfakes de video, el uso de bots para amplificar estas mentiras creó un ambiente de caos que justificó acciones legales contra el proceso democrático.
Guía práctica: Cómo detectar el disfraz digital
Usted no necesita ser un experto para notar que
algo anda mal. La clave es fijarse en lo que la IA todavía no puede hacer bien.
1. El parpadeo y los ojos
Los seres humanos parpadeamos de forma natural cada 2 a 8 segundos. Los deepfakes a menudo muestran a políticos que no parpadean en absoluto o que lo hacen de manera extraña, como si les pesaran los párpados. Además, fíjese en el brillo de los ojos: en una persona real, el reflejo de la luz cambia si se mueve la cabeza; en un deepfake, el brillo suele estar «pegado» o no existir, dando una mirada sin vida.
2. El interior de la boca y los dientes
Esta es la debilidad más grande de la IA. Al hablar, fíjese en los dientes: ¿se ven como piezas individuales o como una sola masa blanca borrosa? ¿La lengua se mueve de forma natural o parece un bulto extraño? Si el interior de la boca se ve oscuro o con sombras que no tienen sentido, es muy probable que sea una manipulación.
3. La sincronización y el audio
Si es un video, ¿el sonido de las palabras coincide exactamente con el movimiento de los labios? Si es un audio de WhatsApp, ¿la voz suena «metálica» o le faltan las respiraciones naturales entre frases? Las voces de IA a menudo carecen de la entonación emocional adecuada; si el político está diciendo algo escandaloso pero su voz suena plana y aburrida, sospeche.
El filtro emocional: La última línea de defensa
La mejor tecnología de detección es su propio cerebro. Los deepfakes están diseñados para hacernos sentir rabia, miedo o una sorpresa extrema. Su objetivo es que compartamos el contenido por impulso antes de pensar.
Si recibe un video que parece «demasiado bueno para ser verdad» o que «confirma todos sus miedos» sobre un candidato, haga una pausa. Respire. Pregúntese: ¿Quién se beneficia de que yo crea esto? ¿Lo están reportando los medios serios o solo circula en grupos anónimos? En
las campañas actuales, la duda es una herramienta de protección. No permita que un algoritmo decida su voto; aprenda a ver detrás del disfraz digital.
Referencias:
GIA (Grupo Inteligencia Artificial) (Marzo 2025 DEEPFAKES: RIESGOS, CASOS REALES Y DESAFÍOS EN LA ERA DE LA IA
https://www.ismsforum.es/ficheros/descargas/deepfake-final1742458135.pdf
Universitas (Septiembre 2025) La manipulación de la evidencia de políticas públicas con la Inteligencia Artificial Generativa: los riesgos de los deepfakes
https://universitas.ups.edu.ec/universitas/article/view/11014/9901
Soy502 (octubre,2025) Hasta Q500 mil de multa por alterar fotos y videos con IA, propone iniciativa de ley
https://www.soy502.com/articulo/proponen-multas-alteracion-fotos-videos-ia-101772

