Noticias

La inteligencia artificial frente a la desinformación electoral

La desinformación electoral no es un fenómeno nuevo, pero la irrupción de la inteligencia artificial (IA) ha llevado este desafío a un nivel sin precedentes. Hoy, los deepfakes, los ejércitos de bots y las narrativas falsas generadas con IAconstituyen una amenaza directa a la integridad democrática y a la confianza ciudadana en los procesos electorales.

Para autoridades electorales, partidos políticos y organizaciones de la sociedad civil, comprender estas amenazas y desarrollar herramientas para contrarrestarlas se ha vuelto una prioridad ineludible.

El impacto de la IA en la desinformación electoral

Las campañas de desinformación han acompañado a procesos democráticos durante décadas, pero lo que diferencia a la era actual es la capacidad de la IA para automatizar, escalar y sofisticar la manipulación informativa.

  • Deepfakes: videos o audios hiperrealistas que imitan la voz o la imagen de candidatos, capaces de difundir mensajes falsos en segundos.
  • Bots políticos: cuentas automatizadas que multiplican un mensaje de manera artificial, influyendo en tendencias en redes sociales.
  • Narrativas falsas generadas con IA: textos, imágenes y noticieros falsos que simulan medios de comunicación legítimos.

El resultado es un ecosistema informativo saturado, donde al votante le resulta cada vez más difícil distinguir entre lo real y lo fabricado.

Ejemplo 1: Deepfakes en las elecciones argentinas de 2025

En mayo de 2025, durante la campaña electoral en Argentina, circularon múltiples deepfakes de figuras políticas como Mauricio Macri, Javier Milei y Axel Kicillof.

Según una investigación de Newtral (19 de mayo de 2025), los videos mostraban a los líderes emitiendo mensajes falsos, algunos con contenido humorístico y otros claramente diseñados para influir en la opinión pública【Newtral, 2025†source】.

Aunque en muchos casos los votantes lograron identificar las piezas como falsas, su masiva circulación evidenció cómo la IA puede manipular narrativas políticas en contextos altamente polarizados.

Ejemplo 2: Noticieros falsos en Ecuador

En Ecuador, durante las elecciones recientes, circularon videos de supuestos noticieros televisivos creados con IA. Estas piezas imitaban el formato de programas informativos y presentaban datos falsos sobre candidatos y resultados.

Un reporte de DW (2025) mostró cómo estas falsificaciones lograron viralizarse en redes sociales, generando confusión entre los electores【DW, 2025†source】.

Este caso revela que la amenaza de la desinformación con IA no se limita a caricaturas o sátiras: también puede adoptar formatos serios que erosionan la credibilidad de los medios tradicionales y de la información verificada.

Bots y la amplificación artificial de mensajes

Además de los deepfakes, los bots políticos siguen desempeñando un rol clave en la manipulación electoral. Estos programas automatizados:

  • Replican mensajes en cuestión de segundos.
  • Influyen en los algoritmos de las plataformas para posicionar tendencias.
  • Crean una falsa percepción de consenso o apoyo ciudadano.

La combinación de bots con narrativas falsas generadas por IA permite a los actores malintencionados amplificar contenido engañoso de manera exponencial.

Herramientas de detección de desinformación con IA

Afortunadamente, la misma tecnología que alimenta estas amenazas también ofrece soluciones. En la actualidad existen herramientas basadas en IA que permiten:

  1. Detección de deepfakes: algoritmos entrenados para identificar alteraciones en la imagen, irregularidades en los parpadeos, sincronización de labios o texturas de piel poco naturales. Grandes empresas tecnológicas como Microsoft y Meta han desarrollado iniciativas en este campo.
  2. Análisis de bots en redes sociales: plataformas como Botometer (Universidad de Indiana) analizan patrones de comportamiento para diferenciar usuarios reales de cuentas automatizadas.
  3. Monitoreo de narrativas falsas: herramientas de social listening con IA permiten rastrear el origen de mensajes, identificar redes de cuentas coordinadas y mapear la velocidad de propagación de un rumor.

Pautas para autoridades y partidos políticos

Frente a este escenario, los organismos electorales y partidos deben adoptar estrategias claras:

  • Capacitación en alfabetización digital: formar a funcionarios, candidatos y equipos de campaña para reconocer señales de desinformación.
  • Protocolos de respuesta rápida: establecer equipos especializados para monitorear y desmentir información falsa en tiempo real.
  • Colaboración con plataformas digitales: exigir a las redes sociales mecanismos de detección y etiquetado de contenido manipulado.
  • Transparencia en la comunicación: emitir información oficial frecuente y clara, reduciendo el espacio que ocupan rumores y falsificaciones.
  • Simulacros de crisis: entrenar a las instituciones en la gestión de incidentes de desinformación, incluyendo la detección y la reacción ante un deepfake viral.

El rol de la sociedad civil

La lucha contra la desinformación con IA no puede recaer únicamente en los organismos electorales. La sociedad civil cumple un papel fundamental en:

  • Monitorear redes sociales de forma independiente.
  • Educar a los votantes en habilidades de verificación de la información.
  • Generar alertas tempranas sobre campañas coordinadas de manipulación.

La colaboración entre instituciones públicas, partidos políticos, organizaciones ciudadanas y empresas tecnológicas es clave para enfrentar este desafío.

Conclusión

La inteligencia artificial y la desinformación electoral representan uno de los mayores riesgos para la democracia en el siglo XXI. Los casos de Argentina y Ecuador demuestran que los deepfakes, bots y narrativas falsas ya no son un escenario hipotético, sino una realidad que impacta directamente en la percepción de los votantes.

La respuesta debe ser integral: herramientas tecnológicas de detección, protocolos institucionales, campañas de alfabetización digital y cooperación entre actores. Solo así será posible aprovechar la IA como aliada, en lugar de permitir que se convierta en una amenaza para la integridad de las elecciones.

Publicaciones relacionadas

Botón volver arriba