Los deepfakes, contenidos manipulados mediante inteligencia artificial que imitan la voz, el rostro o los gestos de una persona real, se han convertido en una herramienta eficaz para la desinformación y el acoso.
Un análisis de Reporteros Sin Fronteras (RSF) identificó al menos 100 periodistas víctimas de deepfakes en 27 países entre diciembre de 2023 y diciembre de 2025. Las consecuencias van desde la difamación y el fraude hasta riesgos para la integridad física.
El fenómeno afecta de manera desproporcionada a mujeres periodistas: el 74 % de las víctimas registradas son mujeres.
El problema no es únicamente tecnológico. Tiene implicaciones directas en la libertad de prensa, la confianza pública y el derecho ciudadano a recibir información verificada.
Primero: algunas definiciones básicas
Deepfake: Contenido audiovisual manipulado mediante inteligencia artificial —especialmente redes generativas adversariales (GAN) y modelos de síntesis de voz— para simular que una persona dijo o hizo algo que nunca ocurrió.
Inteligencia Artificial Generativa (IAG): Sistemas capaces de crear texto, imagen, audio o video a partir de datos de entrenamiento.
Usurpación de identidad digital: Uso no autorizado de la imagen, voz o datos personales para suplantar a una persona.
Trazabilidad digital: Capacidad de verificar el origen y las modificaciones de un contenido mediante metadatos o estándares técnicos.
¿Cuál es el alcance del problema?
El auge de la inteligencia artificial generativa ha reducido las barreras técnicas y económicas para crear deepfakes. Lo que antes requería conocimientos avanzados y software especializado ahora puede producirse con herramientas accesibles al público.
Según el recuento no exhaustivo de RSF, los 100 casos documentados en 24 meses evidencian una expansión global del fenómeno. Los ejemplos abarcan América, Europa, África y Asia, y se relacionan principalmente con contenidos políticos, campañas de descrédito y estafas financieras.
Algunos casos ilustrativos:
- Cristina Caicedo Smit (Voice of America, EE. UU.): en febrero de 2025 circularon en X videos que replicaban su voz e imagen para hacerle pronunciar ataques contra figuras políticas estadounidenses.
- Pedro Benevides (TV1, Portugal): un video manipulado difundido en Facebook lo mostraba afirmando falsamente que el Gobierno conspiraba con farmacéuticas para imponer la vacunación contra la COVID-19.
- Leanne Manas (SABC, Sudáfrica): víctima de múltiples deepfakes usados en estafas farmacéuticas y de criptomonedas.
- Julia Mengolini (Argentina): objeto de un deepfake pornográfico con fines de denigración política.
En varios casos, incluso tras denunciar los contenidos, estos reaparecen en nuevas cuentas o plataformas.
Violencia de género y ataques sexuales digitalizados
El análisis de RSF muestra un patrón claro: el 74 % de las víctimas identificadas son mujeres periodistas y el 13 % de ellas fue blanco de contenidos de carácter pornográfico.
Los deepfakes sexuales suelen integrarse en campañas de ciberacoso y deslegitimación. Este tipo de violencia digital busca desacreditar profesionalmente, intimidar y generar autocensura. En entornos polarizados, los ataques suelen tener motivación política.
El fenómeno amplifica desigualdades preexistentes: las mujeres periodistas ya enfrentan mayores niveles de hostigamiento en línea, y la inteligencia artificial facilita una forma más sofisticada y difícil de contener de violencia digital.
Más allá del daño reputacional, los deepfakes tienen efectos prácticos:
- Pérdida de credibilidad ante la audiencia.
- Acoso masivo y amenazas.
- Investigaciones policiales injustificadas.
- Presión psicológica y autocensura.
- Necesidad de modificar rutinas profesionales para reducir exposición digital.
Algunos periodistas han suspendido temporalmente la producción de videos o han cambiado sus formatos para disminuir la posibilidad de reutilización maliciosa de su imagen.
Además, la impunidad es frecuente. En varios países, las investigaciones judiciales no logran identificar a los responsables debido a la dificultad técnica de rastreo y la circulación transnacional del contenido.
¿Qué hacen las plataformas digitales y cuáles son las dificultades de control?
Las redes sociales son el principal canal de difusión de deepfakes. Aunque algunas plataformas retiran contenidos tras denuncias, los procesos suelen ser lentos o inconsistentes. En ocasiones, los materiales reaparecen rápidamente.
La falta de estándares obligatorios de identificación de contenido generado por IA dificulta que los usuarios distingan entre material auténtico y manipulado. La moderación reactiva no siempre logra contener la viralización inicial.
¿Qué propone Reporteros Sin Fronteras?
RSF plantea tres medidas principales:
- Adopción de normas técnicas de trazabilidad por parte de medios
Sistemas de marcado y metadatos que permitan verificar el origen y modificaciones del contenido, en línea con estándares como la Carta de París sobre IA y periodismo. - Obligaciones para plataformas digitales
Integrar mecanismos de certificación de autenticidad y señalización clara de contenido generado por IA. - Tipificación penal específica para deepfakes maliciosos
Sancionar a quienes produzcan o difundan contenidos con intención de engañar o causar daño.
Preguntas frecuentes
¿Todos los deepfakes son ilegales?
No necesariamente. Algunos usos pueden ser satíricos o artísticos. El problema central surge cuando existe intención de engañar, difamar o defraudar.
¿Cómo se puede detectar un deepfake?
Indicadores técnicos incluyen desincronización labial, anomalías en iluminación o parpadeo y metadatos inconsistentes. Sin embargo, la tecnología mejora rápidamente y dificulta la detección manual.
¿Por qué afectan especialmente a periodistas?
Porque su imagen pública y credibilidad son centrales para su trabajo. Un deepfake puede erosionar la confianza en su labor informativa.
¿Qué riesgos implica para la ciudadanía?
Socava la confianza en los medios y facilita campañas de manipulación política, fraude y desinformación masiva.
Entonces…
Los deepfakes contra periodistas no son un fenómeno aislado ni anecdótico. Constituyen una amenaza estructural para la libertad de prensa y el derecho a la información. La combinación de accesibilidad tecnológica, viralidad en plataformas y vacíos regulatorios crea un entorno propicio para la manipulación.
La respuesta requiere medidas técnicas, regulatorias y editoriales coordinadas. Sin mecanismos efectivos de trazabilidad y responsabilidad, la erosión de la confianza pública puede profundizarse en un contexto donde distinguir lo auténtico de lo manipulado es cada vez más complejo.
Bibliografía y fuentes
- Reporteros Sin Fronteras (RSF). Análisis sobre periodistas víctimas de deepfakes (2023–2025): https://rsf-es.org/analisis-a-cien-deepfakes-rsf-alerta-sobre-una-amenaza-creciente-para-los-periodistas-especialmente-las-mujeres/
- Carta de París sobre la IA y el periodismo: https://rsf.org/sites/default/files/medias/file/2023/11/Carta%20de%20Pari%CC%81s%20sobre%20la%20IA%20y%20el%20periodismo_0.pdf

