Un informe regional identificó 217 casos de contenidos falsos generados con inteligencia artificial en nueve países. La mayoría estuvo vinculada a estafas financieras y de salud, pero también se usó en campañas electorales, catástrofes y para fabricar falsos apoyos de celebridades y líderes políticos.
Ecuador Chequea comparte este informe elaborado por el medio argentino Chequeado, pionero en verificación de datos en Latinoamérica. Ecuador Chequea también participó en la investigación.
La inteligencia artificial (IA) se consolidó como una de las principales herramientas para producir y difundir desinformación en América Latina durante 2024. Un informe coordinado por Chequeado, con la participación de once organizaciones de verificación, entre ellas Ecuador Chequea, documentó 217 casos de contenidos generados con IA en Argentina, Bolivia, Brasil, Chile, Colombia, Ecuador, Guatemala, México y Venezuela. El reporte revela que el fenómeno abarca desde fraudes financieros hasta campañas electorales y narrativas de conflictos internacionales.
El 26,7% de las desinformaciones detectadas correspondió a promociones de estafas, principalmente ligadas a temas financieros y de salud. En esta línea, por un lado, se detectó la publicación de videos falsos en los que se usó la imagen de periodistas, presentadores y políticos para simular anuncios de inversión o programas oficiales. En Colombia, por ejemplo, se difundieron videos manipulados de Noticias Caracol en los que la imagen de periodistas como Catalina Gómez o Jorge Alfredo Vargas aparecían recomendando inversiones, con voces clonadas generadas por IA. También se usaron montajes con líderes como Gustavo Petro o Luis Arce, presentados como promotores de supuestos proyectos financieros, reforzando la apariencia de respaldo institucional. Todos estos fueron calificados como falsos y fueron desmentidos por medios especializados.
En materia de salud, la IA se utilizó para suplantar a médicos y científicos reconocidos en videos donde promovía curas o suplementos falsos. Entre los casos más notorios están los del médico brasileño Drauzio Varella y el científico colombiano Manuel Elkin Patarroyo, cuyas imágenes y voces fueron alteradas para publicitar tratamientos inexistentes para la diabetes, hipertensión o disfunción sexual. Estas piezas solían dirigir al público hacia sitios fraudulentos o grupos de mensajería como WhatsApp, donde se solicitaban datos personales o dinero.
El segundo ámbito con mayor incidencia (23%) fueron los contextos electorales. La IA se empleó para atacar o favorecer candidatos en las presidenciales de Estados Unidos y Venezuela, las municipales de Brasil y las elecciones bolivianas previstas para 2025. Circularon imágenes manipuladas, audios falsos y videos fabricados. Algunos ejemplos incluyen una imagen sexualizada de Kamala Harris, una fotografía falsa del opositor venezolano Edmundo González junto a Donald Trump, y audios simulados de conversaciones privadas entre Nicolás Maduro, Elvis Amoroso, Juan Guaidó y Edmundo González, presentados como filtraciones que probarían fraudes o pactos secretos.
Otro patrón relevante fue la fabricación de falsos posicionamientos de celebridades y figuras internacionales. Se difundieron imágenes del boxeador Mike Tyson con la bandera de Palestina, del empresario Elon Musk sosteniendo la bandera de Brasil y del actor Will Smith posando con la bandera venezolana en apoyo a la oposición. También aparecieron videos falsos de Cristiano Ronaldo enviando mensajes sobre la guerra en Gaza o de Donald Trump insultando en español a Gustavo Petro. Incluso se usaron canciones generadas con IA, como una supuesta composición de Karol G, cantautora colombiana, contra Petro y otra a favor del candidato venezolano Edmundo González.
El estudio también detectó el uso de IA en catástrofes climáticas y conflictos bélicos. En Brasil, durante las inundaciones en Rio Grande do Sul, se difundieron imágenes falsas que exageraban la magnitud del desastre, mientras que en Colombia un fotógrafo reconoció haber usado IA para crear fotos de incendios en los Cerros Orientales de Bogotá, que alcanzaron más difusión que las reales. En paralelo, circularon escenas completamente inventadas, como la Torre Eiffel en llamas o un tornado cayendo sobre el Parlamento británico, que acumularon millones de vistas en TikTok.
En el plano internacional, la IA sirvió para amplificar conflictos y manipular percepciones. Circuló material que mezclaba imágenes reales con contenido fabricado, como un supuesto ataque israelí al Líbano o una fotografía de soldados israelíes capturados por Hezbollah. También se viralizaron imágenes falsas que ridiculizaban a líderes como Benjamín Netanyahu, Vladimir Putin y Volodímir Zelenski, y en algunos casos se usaron recursos satíricos o exagerados que reforzaban narrativas ideológicas o ataques personales.
El informe advierte que, aunque muchas piezas presentan fallas evidentes voces desincronizadas, errores de anatomía o baja calidad visual, su impacto es alto debido a la facilidad de producción y la velocidad de difusión en redes. Las organizaciones participantes concluyen que la IA generativa democratizó la capacidad de fabricar falsedades, lo que exige reforzar la educación mediática, la alfabetización digital y la cooperación regional en verificación para contener este fenómeno creciente; por esto, hablan también de sus riesgos en la expansión clara de la desinformación.



