20.7 C
Ecuador
viernes, diciembre 5, 2025
spot_img

El algoritmo de X durante la Consulta Popular en Ecuador: Un análisis experimental de Ecuador Chequea

Por Esteban Cárdenas y Yalilé Loaiza

Durante la campaña para la consulta popular y el referéndum del 16 de noviembre de 2025, Ecuador Chequea realizó un experimento para entender qué muestra el algoritmo de X a un usuario recién llegado a la plataforma en un momento político clave. Lo hicimos siguiendo, y adaptando al caso ecuatoriano, la metodología desarrollada por Chequeado (Argentina), con su acompañamiento técnico.

La pregunta era simple: si alguien abre hoy una cuenta nueva en X para informarse sobre política, ¿qué encuentra? ¿Qué temas predominan? ¿Quiénes hablan? ¿Hacia qué lado se inclina el contenido recomendado?

Para responderla, creamos varias cuentas desde cero, sin historial ni señales que pudieran influir en el algoritmo. Solo activamos cada perfil que siguió a las cuentas oficiales de los partidos y organizaciones a favor del «sí» y del «no» en la Consulta Popular. Evitamos seguir a los voceros para garantizar la mayor ecuanimidad en el experimento. Para seleccionar qué cuentas seguir, usamos una herramienta de aleatoriedad, para que no hubiera sesgo ni siquiera en el orden en el que se realizaba el seguimiento.

Después, cada cuenta navegó durante 15 minutos la pestaña “Para ti”, el espacio donde X decide qué mostrar. Ahí registramos todos los tuits políticos que aparecieron: de qué cuentas provenían, si eran verificadas, qué tema trataban y si su mensaje favorecía al oficialismo, a la oposición o a ninguno.

El objetivo fue reproducir la experiencia de una persona neutral que entra a X para entender lo que ocurre en el país. Toda la codificación se hizo de forma manual y quedó documentada para asegurar transparencia y permitir su réplica.

Nuestro interés no fue descifrar las intenciones del algoritmo –que sigue siendo opaco–, sino observar los patrones que crea y las narrativas que amplifica en pleno periodo electoral. Los resultados muestran cómo esas decisiones automáticas pueden influir en la conversación pública.

Nuestros hallazgos

Los resultados permiten ver con mucha claridad cómo X organiza lo que muestra en la pestaña “Para ti”. No es un feed neutral: prioriza ciertos temas, amplifica algunas voces por encima de otras y selecciona contenido que no necesariamente refleja la diversidad del debate público, según la observación que realizamos.

Sobre los temas, el algoritmo prácticamente “inundó” el feed con la temática general de la Consulta Popular y Referédum y los llamados a votar en plancha por una de ambas posturas. Tres de cada cuatro tuits políticos que aparecieron eran sobre ese tema.

X no mostró un panorama variado de la conversación política. En cambio, concentró la atención en el tema general, dejando muy poco espacio para los demás. Para un usuario nuevo, la impresión es que “todo” gira alrededor de la Consulta, aunque el debate público sea más amplio.

El contenido estuvo marcado por una fuerte inclinación hacia la oposición

Cuando analizamos si los tuits favorecían al oficialismo (opción Sí) o a la oposición (opción No), la mayoría tenía una inclinación clara.


Pero la explicación no está en todos los temas: la asimetría nace sobre todo del tema dominante. En los temas menos frecuentes (Constituyente y Bases militares) la tendencia se invierte: allí aparece más contenido favorable al oficialismo.


El “sesgo” no es general: está concentrado en el tema que el algoritmo amplificó casi por completo. Como el feed estuvo dominado por un asunto que, en ese momento, tenía una narrativa muy cargada hacia la oposición, ese desequilibrio se trasladó a la experiencia del usuario.

El 92% del contenido vino de cuentas que el usuario no seguía

Este es uno de los hallazgos más claros. El feed que ve un usuario nuevo no depende de a quién decide seguir, sino de lo que X elige recomendar. Es decir: la experiencia informativa está moldeada casi por completo por el algoritmo, según lo observamos en el experimento. El 92% eran cuentas que el usuario no seguía.


Además, la mayoría de los tuits provenían de cuentas verificadas. Según los hallazgos de este experimento, X tiende a priorizar cuentas con tilde azul, que en la plataforma es una función paga. Estas cuentas, al tener más visibilidad algorítmica, influyen en lo que ve un usuario nuevo.


¿Hubo un sesgo político en el feed?

Sí. El desequilibrio político observado se explica por tres factores que coinciden:

  1. La concentración extrema en un solo tema (Consulta Popular y Referéndum), donde la mayoría del contenido era opositor.
  2. El peso que el algoritmo da a las cuentas verificadas, que publican masivamente sobre ese mismo tema.
  3. Que casi todo lo mostrado proviene de recomendaciones algorítmicas, no de la elección del usuario.

Aunque las cuentas creadas eran neutrales, el feed resultante no lo fue. No podemos afirmar que X “busque” favorecer a un bando, pero sí podemos decir que su diseño amplifica lo que ya es dominante, sin introducir equilibrio ni diversidad.

Nuestra conclusión

El algoritmo de X construyó un feed politizado y desequilibrado, donde la oposición apareció sobrerrepresentada porque coincidía con el tema que más amplificó la plataforma. Aunque no podemos asegurar que existe manipulación deliberada, esto sí evidencia que X puede moldear la experiencia informativa durante periodos electorales, reforzando narrativas dominantes y reduciendo la diversidad de contenidos a los que accede un usuario nuevo.


Metodología

Para este experimento, Ecuador Chequea creó seis cuentas nuevas en X (Twitter) con combinaciones de edad y género (mujeres y hombres de 16, 25 y 50 años). Todas se configuraron en español, sin seleccionar intereses, usando navegadores limpios y sin historial.

Cada cuenta siguió solo a las organizaciones políticas y sociales habilitadas por el CNE para hacer campaña sobre los cuatro temas del referéndum (bases militares, financiamiento a partidos, Asamblea Constituyente y reducción de asambleístas). No se siguieron vocerías personales ni cuentas partidarias no oficiales. El orden de seguimiento se aleatorizó.

Para activar el algoritmo sin crear sesgos, las cuentas solo visualizaron los cinco últimos posteos de cada organización:

  • 30 segundos en videos,
  • scrolleo completo en hilos o carruseles,
  • clic en textos o imágenes. No se dieron “me gusta”, retuits ni respuestas.

Luego, cada perfil navegó 15 minutos en la pestaña “Para ti”, donde X muestra contenido recomendado. Cada posteo político que apareció fue registrado y archivado, repitiendo la misma interacción mínima (ver 30 segundos, abrir imágenes, scrollear hilos).

Cada publicación se codificó manualmente según:

  • Tendencia: a favor del Sí, del No o neutral.
  • Tema: bases militares, financiamiento a partidos, Asamblea Constituyente, reducción de asambleístas u otros.
  • Origen: cuenta seguida/no seguida y verificada/no verificada.

Los porcentajes y patrones reportados en este análisis provienen exclusivamente de esa base de datos.

Limitaciones

  • Se usaron seis perfiles nuevos, suficientes para detectar patrones, pero no representativos del universo total de usuarios de X.
  • El experimento refleja un momento específico de la campaña del referéndum (lunes, 10 de noviembre); los resultados pueden variar según la coyuntura.
  • Las cuentas tuvieron interacciones mínimas para aislar el comportamiento del algoritmo, lo cual no reproduce todas las dinámicas de un usuario real.
  • X no transparenta cómo decide qué contenido mostrar, por lo que el experimento describe qué muestra, no por qué lo muestra.
  • La presencia real de actores políticos en la plataforma también influye en lo que aparece en el feed, más allá del algoritmo.
Ecuador Chequea
Ecuador Chequea
Primer medio de verificación de datos en Ecuador. Único verificador ecuatoriano certificado por la International Fact-Checking Network. Miembro de LatamChequea. Colaborador de Meta para verificaciones en redes sociales.

artículos relacionados

Mantente conectado

19,000FansMe gusta
8,136SeguidoresSeguir
42,708SeguidoresSeguir

chequea