La Desinformación Explota Tras Anuncio de Trump sobre Venezuela
La reciente declaración de Donald Trump sobre un "ataque a gran escala" en Venezuela ha desatado una ola de imágenes generadas por inteligencia artificial en las redes sociales, confundiendo a los usuarios con información falsa y manipulada.
Minutos después de que Trump hiciera su anuncio, circulaban imágenes falsas de Nicolás Maduro bajo custodia de agentes de la DEA y de ciudadanos venezolanos celebrando en Caracas, todo ello sin fundamento. La combinación de contenido real, como videos de aviones estadounidenses sobrevolando la capital, ha complicado la distinción entre la verdad y la ficción en esta crisis.
El Viral Efecto de las Imágenes Falsas
Cuando Trump compartió una imagen verificada de Maduro esposado a bordo del USS Iwo Jima, ya había miles de visualizaciones en el ciberespacio de imágenes fraudulentas de su captura. Las redes como X, Instagram y TikTok protagonizaron la rápida difusión de este contenido, lo que llevó a que millones de usuarios lo compartieran, según el portal de verificación NewsGuard.
Reacciones de Líderes Locales
El alcalde de Coral Gables, Florida, Vince Lago, contribuyó al esparcimiento de desinformación al publicar en Instagram la imagen manipulada de Maduro. En su post, Lago lo tildó de «líder de una organización narco-terrorista», generando más de 1500 «me gusta» rápidamente.
Desafíos para Verificar la Verdad
Herramientas de detección de imágenes manipuladas, como búsquedas inversas y plataformas para verificar contenido, aún presentan inconsistencias. La editora Sofía Rubinson, de NewsGuard, advirtió que las imágenes AI son sutilmente similares a eventos reales, dificultando aún más la identificación de la información genuina.
La Estrategia de la Desinformación
Rubinson explicó que muchas visuales generadas por AI no distorsionan drásticamente los hechos, lo que las hace aún más engañosas. Estas representaciones se están convirtiendo en la nueva táctica de la guerra de desinformación, puesto que llenan vacíos en la cobertura en tiempo real, complicando la labor de los verificadores de hechos.
Reportes de Contenido Falso
NewsGuard publicó un informe que identificó varias imágenes y videos manipulados vinculados al supuesto operativo militar en Venezuela, añadiendo que han acumulado más de 14 millones de visualizaciones solo en X. Un ejemplo incluye un video erróneamente presentado de un helicóptero, que en realidad pertenece a un ejercicio militar en Carolina del Norte.
Desinformación del Pasado como Presente
Otros contenidos de eventos anteriores, como protestas de 2024, han sido reutilizados para dar la impresión de que son parte de la actual crisis. Laura Loomer, una influencer de derecha, fue acusada de compartir un video viejo de un cartel de Maduro retado que no correspondía a los recientes acontecimientos.
Reacción de la Comunidad y Moderadores
El influencer de extrema derecha Alex Jones también se vio involucrado, publicando un video de celebraciones en Caracas que resultó ser de hace más de 18 meses. Los comentarios en el post sugirieron que la información era engañosa. La plataforma X, así como Meta y TikTok, no han realizado comentarios al respecto.
