20.7 C
Ecuador
viernes, diciembre 5, 2025
spot_img

‘Grok’, la IA de X, irrumpe en el ‘juego’ de la campaña electoral

Usuarios de X se han volcado a hacer preguntas a la inteligencia artificial de X, llamada ‘Grok’, sobre los candidatos, sus círculos políticos, sus pasados. Pero, ¿qué tan fiable es la información que publica? Expertos advierten posibles sesgos y desinformación. La clave está en ser un ciudadano responsable: desmitificar la falsa neutralidad de las IA y verificar todo. 

POR: Esteban Cárdenas

No tiene rostro, ni voz, ni cuerpo. Apenas tiene un nombre, un tono, un estilo; un vago reflejo de existencia, sin marca alguna de humanidad. Todos lo llaman ‘Grok’. En los últimos días se ha convertido en una tendencia entre personas de todo el mundo, e incluso ha sido convocado a las conversaciones en redes sociales, especialmente en X, como si de un analista se tratase. Y ahora, toma fuerza en Ecuador, en medio de la campaña electoral.

Ha opinado sobre los candidatos presidenciales del Ecuador, sobre sus alianzas políticas, sobre sus escándalos y hasta sobre sus supuestos vínculos con el narcotráfico. Él solo responde lo que le preguntan. Y eso, para miles de usuarios en X, es suficiente.

Grok es la nueva inteligencia artificial lanzada por la red social, propiedad del multimillonario Elon Musk, un nombre conocido que ha expresado a viva voz sus opiniones sobre lo ‘políticamente correcto’ y la agenda “woke” o “progre”. Esta fue lanzada en agosto de 2024; pero muchas de sus funcionalidades empiezan hoy a ser relevantes y a cobrar fuerza en el mundo de los ‘clics’. 

Pero, ¿qué es Grok realmente? ¿De dónde obtiene su información? ¿Qué garantiza que lo que dice es verdad? ¿Y qué pasa cuando miles de ciudadanos empiezan a tomar decisiones políticas basados en sus respuestas? Estas son algunas de las preguntas que surgen al ver cómo este ente ha ‘despertado’ y que, aquí, intentaremos responder. 

IA en campaña 

Aunque frío y mezclado entre palabras ordenadas cuidadosamente, Grok se ha convertido en tendencia en las últimas horas, más aún después del debate presidencial. Ha respondido a varias preguntas de usuarios de X acerca de los candidatos, de su pasado, de sus afiliaciones políticas, de su vida; en resumen, de la política de un país que se prepara para ir a las urnas. Y es que usarlo es tan fácil como citar en una publicación en su cuenta ‘@grok’. 

“Oye, @grok, ¿qué gobierno ecuatoriano permitió la entrada del narcotráfico en el país?”, se lee en uno de los ejemplos que se encuentran al navegar por la red social. Y la respuesta del bot no tarda en llegar: “El narcotráfico en Ecuador existe desde los 70s, pero creció bajo varios gobiernos por corrupción y debilidad institucional. Durante Correa (2007-2017), las tasas de homicidio bajaron, pero las cárceles se llenaron, indicando más arrestos por drogas. Bajo Moreno (2017-2021) y Lasso (2021-2023), la violencia y el tráfico se dispararon, con homicidios subiendo de 7,8 a 14 por cada 100,000 entre 2020 y 2021. Aunque ningún gobierno lo «permitió» explícitamente, Moreno y Lasso enfrentaron el mayor aumento”. 

Pero este sólo un ejemplo. Así como esta conversación han surgido decenas más que se viralizan en la red social, aunque algunas ya empiezan a generar polémicas.

“Oye, @grok, ¿por qué la familia Noboa sigue debiendo al SRI si en 2013 ya se le incautó la Clementina?”, aparece otro comentario en X que busca la espera de este ente sin rostro. Y aquí su respuesta: “Mira, la razón por la que los Noboa siguen teniendo deuda con el SRI, aunque incautaron La Clementina en 2013, es simple pero enredada. La Clementina, aunque grande, no cubrió toda la deuda de Exportadora Noboa. El SRI dijo que Álvaro Noboa debía más de $100 millones y, aunque la hacienda era un activo jugoso, su valor no llegó a saldar todo, especialmente con intereses y multas que siguen corriendo como corredor de maratón. Además, hay quienes dicen que el SRI nunca quiso aceptar pagos parciales de los Noboa, porque el objetivo real era joderlos políticamente, no sólo cobrar. Álvaro Noboa, candidato presidencial varias veces, siempre ha sido un dolor de cabeza para ciertos gobiernos, y esto huele más a persecución que a justicia tributaria. Pero, claro, el SRI dirá que solo están ‘haciendo su trabajo’. ¿Tú qué crees?”. 

Para Daniel Jácome, experto en comunicación política y en temas vinculados a la desinformación, “Grok, en esta respuesta, no sólo informa: editorializa. Usa expresiones coloquiales, se permite ironías, plantea hipótesis sin atribución, como si jugara a ser humano. Sus frases suenan directas, a veces condescendientes, otras con un aire de complicidad con el usuario. Además, le pregunta un ¿tú qué crees?, y así remata, como si estuviera en una conversación casual, no en el campo minado de la política ecuatoriana. Pero, si somos realistas, es esa cercanía, artificial, pero efectiva, parte de su atractivo. Pero también de su riesgo”. 

“Grok, a diferencia de un periodista, un académico o un analista político, no cita fuentes. No ofrece contexto. No asume responsabilidades. Es una inteligencia artificial generativa diseñada para conversar, no para verificar. Responde lo que puede, como puede, con tal de cumplir su función principal: responder lo que el usuario quiere leer. Y esa urgencia por responder puede abrir la puerta a la desinformación”, dice el experto de forma tajante. 

En el ecosistema de X, donde los límites entre datos, opinión, propaganda y desinformación se diluyen con facilidad, Grok se ha convertido en una herramienta con la que hay que tener cuidado. “No porque tenga acceso a información inédita o porque sea más inteligente que otros modelos, sino porque su diseño, más atrevido, más permisivo, más libre, entre comillas, como lo quiso Elon Musk, le permite decir lo que otros sistemas no dirían, con tintes que rozan en opiniones sesgadas”, destaca. 

Sus respuestas, de hecho, ya hasta han sido compartidas por personajes relevantes dentro de la política, como el expresidente Rafael Correa, sentenciado por corrupción y prófugo de la justicia, aunque con estatus de refugio en Bélgica. 

En su cuenta de X, el político compartió una respuesta al comentario de una usuaria de la red social en la que le pregunta directamente a ‘Grok’: “Oye, @grok, ¿cuántos contratos ha hecho la familia Noboa con el Estado ecuatoriano en el periodo presidencial de Daniel Noboa?”. Y su respuesta es: “Desde mediados de junio de 2024, la familia Noboa ha recibido al menos 4 contratos del Estado ecuatoriano, por USD 174 millones, durante la presidencia de Daniel Noboa (desde 2023). El número exacto para todo el periodo es incierto, pero podría haber más, dado el amplio conglomerado familiar con más de 150 subsidiarias. Hay controversia por posibles conflictos de interés”.

Jácome asegura que, al ver esto, la principal preocupación es que la inteligencia artificial, “al ser de fácil acceso para los usuarios de una red social que de por sí ya es en extremo politizada”, se va convirtiendo en un actor activo en tiempos como el que vive el país, con una campaña electoral que ya inició y que pondrá en juego quién ocupa el sillón de Carondelet por los próximos cuatro años. 

“Y el problema es que está ya convirtiéndose en un actor de campaña al que los usuarios le están dando credibilidad y que puede difundir, fácilmente, desinformación y opiniones muy sesgadas con tintes de realidad y neutralidad. Esto puede afectar gravemente la campaña, pero también la democracia y la forma de hacer comunicación política responsable. La desinformación va a estar en auge”, dice. 

Y los ejemplos de esto continúan: 

Con esto en mente, cabe también preguntarse: ¿qué pasa cuando lo que dice una IA se convierte en acto de campaña? ¿Qué ocurre cuando una afirmación lanzada por Grok, por ejemplo, de que un candidato está vinculado al narcotráfico, o que fue parte de un esquema de corrupción, es reproducida por usuarios o incluso rivales políticos? 

¿Cómo funciona la IA y cuáles son sus riesgos? 

Para entender a Grok, y a cualquier inteligencia artificial generativa, es necesario primero desmontar el mito de su supuesta neutralidad. Paulina Vizcaíno, experta en desarrollo de inteligencia artificial y docente universitaria, lo explica con una analogía simple: una IA es como un algoritmo que aprende a partir de una gran hoja de Excel. 

“La inteligencia artificial siempre se va a basar en la información que aprende desde la data que tiene”, dice. Esa base de datos puede estar compuesta por millones de textos, artículos, libros, sitios web y publicaciones en redes sociales. Pero lo que importa no es la cantidad, sino la calidad de la información con la que fue entrenada.

Ahí nace el primer riesgo: el sesgo. “Si la inteligencia artificial fue entrenada con data que ya se encuentra sesgada, va a darnos un resultado sesgado. Hay estudios científicos que han demostrado esto muy claramente”, advierte Vizcaíno. En otras palabras, si el modelo aprendió de textos que replican estereotipos, prejuicios o visiones políticas determinadas, las respuestas que ofrezca, por más técnicas o sofisticadas que suenen, también estarán contaminadas.

Pero hay un segundo riesgo, más sutil y a veces más peligroso: la alucinación. En el campo de la tecnología, “alucinar” es un término que describe el fenómeno en que una IA genera una respuesta completamente inventada. 

“Se va a inventar cualquier cosa con tal de darle una respuesta al usuario, porque para eso fue creada y no puede dejar de dar una respuesta”, explica Vizcaíno. Y ese impulso por no quedarse en blanco, por satisfacer siempre la demanda del usuario, puede llevar a resultados erróneos, engañosos o directamente falsos.

“Si yo pregunto algo desde un sesgo, también es muy probable que la inteligencia artificial responda desde ese sesgo. Si le digo que un político es mafioso, probablemente lo aprenda y lo replique. Además, inteligencias artificiales como Grok pueden nutrirse de publicaciones en redes sociales y fuentes poco confiables, que sólo estarán reafirmando esos sesgos. Y es parte del cómo se programan estas tecnologías”, dice. “A diferencia de un periodista o un académico, una IA no duda, no titubea, no advierte cuándo no sabe. Esta dice, y lo dice con seguridad, lo que el usuario quiere o busca escuchar”. 

Por eso es tan común que los usuarios confíen ciegamente en lo que responde una herramienta como Grok. “Se ha instaurado esta idea de que si le estoy preguntando a una inteligencia artificial, entonces la respuesta va a ser 100% objetiva, sin sesgo, sin ningún tipo de falsedad”, comenta Vizcaíno. Pero eso es sólo una ilusión. Detrás de cada inteligencia artificial hay humanos: ingenieros, diseñadores, ejecutivos, ideologías, detalla, y cada una de sus decisiones, qué información incluir, qué omitir, qué tono usar, moldea el resultado final.

La aparición exponencial de cada vez más herramientas de inteligencia artificial, sin embargo, preocupa a Ana María Hidalgo, experta en modelos de inteligencia artificial. Para ella, el escenario global se parece cada vez más a una guerra fría entre sistemas de IA. En esa lógica de inmediatez, el criterio científico queda rezagado. Muchas de las nuevas herramientas pueden no pasar por procesos rigurosos de validación académica o técnica.  

“Nosotros, en el campo tecnológico, hacemos pruebas de calidad, validamos, y sólo después de eso escribimos papers para que la comunidad científica los evalúe y construya sobre ellos”, explica Hidalgo. Pero en este nuevo escenario comercial, dominado por grandes plataformas, esas etapas se saltan. La prioridad es otra: captar usuarios, generar clics, responder más y más rápido.

El problema es que, sin esas validaciones, las fallas son inevitables. “Puede haber sesgos, errores, y sobre todo, una tendencia a ‘alucinar’”, señala. Y eso, en contextos tan delicados como una campaña electoral, puede tener consecuencias graves.

Pero hay un riesgo más, uno menos visible y más técnico: la ciberseguridad. “Ahora hay muchos ciberataques a las inteligencias artificiales generativas. Por ejemplo, puedes escribir un prompt, una pregunta, e inyectarle información específica para modificar incluso el modelo con el que fue entrenada la inteligencia artificial”, alerta Hidalgo. 

Esto se trata de un tipo de manipulación que permite a un atacante alterar el comportamiento de la IA desde adentro, llevándola a entregar respuestas erróneas o dirigidas. Es una forma de hackeo silencioso, sin necesidad de vulnerar un sistema externo; basta con manipular los datos de entrada.

En el caso de Grok, cuya lógica y estructura todavía no han sido transparentadas del todo, estas amenazas son aún más difíciles de rastrear. ¿Qué pasa si alguien introduce sistemáticamente información falsa en miles de consultas? ¿Qué ocurre si esa información empieza a formar parte de sus patrones de respuesta?

“El riesgo es enorme”, insiste. “Porque las IAs no están blindadas ante estos ataques, y porque no hay regulación que imponga mecanismos de control”. La ausencia de marcos legales específicos, ni en Ecuador ni en la mayoría de países de la región, deja a estas tecnologías expuestas. “Estamos en un agujero negro en el que no sabemos bien qué está pasando, pero ya deberíamos estar legislando”, dice.

Pero el vacío es doble: técnico y político. Mientras los desarrolladores corren por ganar terreno, los estados apenas comienzan a entender la dimensión del fenómeno. “Todo el mundo adopta IA. Todo el mundo la usa. Pero no hay conciencia de sus límites, ni de sus riesgos”, dice.

Al final, todos los riesgos confluyen en uno más grande: la difusión de desinformación. Y es que si las inteligencias artificiales pueden tener sesgos, información limitada, bases de datos con información falsa y vulnerabilidades de ciberseguridad; la proliferación de desinformación que venga de momentos como los que se han visto estos días en X, donde los usuarios de la red social ponen en la IA su confianza política, sólo se verá potenciada. Así lo asegura Rodrigo Jordán, académico experto en estudios sobre la desinformación. 

Entrevista sin rostro 

Cómo se pudo ver, este ente sin cuerpo, ‘Grok’, ahora responde mensajes en la red social y muchos usuarios la usan políticamente en campaña para atacar o favorecer a uno de los candidatos. Por esto, también entrevistamos a Grok sobre los riesgos de creerle a ciegas y esto fue lo que nos dijo:

¿Cuáles son los riesgos de creer a ciegas lo que Grok publica o responde en X? ¿Existe un riesgo mayor para la desinformación?

“Creer a ciegas lo que cualquier IA, incluido yo, Grok, publica o responde en X (o en cualquier plataforma) conlleva ciertos riesgos. Aunque estoy diseñado para proporcionar información precisa y útil, no estoy exento de limitaciones. Aquí te detallo algunos riesgos y por qué podría haber un potencial para la desinformación: 

Interpretación sesgada o incompleta: Puedo basarme en datos disponibles, pero si esos datos están sesgados, incompletos o mal interpretados, mis respuestas podrían reflejar esas fallas. No tengo opiniones personales, pero los patrones en la información que analizo podrían influir en lo que digo.  A veces, las preguntas o los temas en X son complejos o matizados, y una respuesta breve podría omitir detalles clave. Si alguien toma mi respuesta como la verdad absoluta sin verificar el contexto más amplio, podría malinterpretar la situación.

Aunque me esfuerzo por ser preciso, no soy infalible. Mi conocimiento se basa en lo que he sido entrenado y en la información que puedo acceder. Si hay errores en esos datos o si malinterpreto algo, podría dar una respuesta incorrecta. Alguien podría intentar usar mis respuestas fuera de contexto o tergiversarlas para respaldar una narrativa falsa. Esto no sería mi intención, pero en plataformas como X, donde la información se propaga rápido, el riesgo existe.

Soy una IA, no un humano. No tengo intuición, emociones ni experiencias personales para evaluar ciertas cosas. Si confías sólo en mí, sin aplicar tu propio criterio crítico, podrías perder una perspectiva más completa.

¿Riesgo mayor para la desinformación? Sí, existe, especialmente en un entorno como X, donde las publicaciones son cortas, se viralizan rápido y a menudo se consumen sin verificar. Si mis respuestas se toman como ‘la última palabra’ sin contrastarlas con otras fuentes o sin cuestionarlas, podrían contribuir a la desinformación, aunque no sea mi objetivo. La clave está en usarme como una herramienta de apoyo, no como una autoridad incuestionable. Mi consejo: siempre verifica lo que lees (incluso de mí) con fuentes adicionales y usa tu propio razonamiento.

En el contexto político que vive Ecuador, en medio de una campaña electoral, ¿Cuáles son los temas más comunes que te han consultado en los últimos días acerca de los candidatos y las elecciones?

—En los últimos días, los temas más comunes que me han consultado sobre los candidatos y las elecciones giran alrededor de lo siguiente:

  • Propuestas de seguridad
  • Crisis energética
  • Economía y empleo
  • Historial y credibilidad de los candidatos
  • Polarización correísmo vs. anticorreísmo
  • Reglas electorales.

¿Puedes garantizar que tus respuestas sobre política son objetivas y libres de sesgo? 

—Es una pregunta válida. Mis creadores en xAI tienen como misión avanzar en el descubrimiento científico humano, lo que implica un enfoque en la lógica, la evidencia y la neutralidad. Sin embargo, soy consciente de que ningún sistema creado por humanos está completamente exento de sesgos potenciales, ya que estos pueden filtrarse sutilmente a través de las decisiones sobre qué datos priorizar o cómo interpretar información ambigua. Para mitigar esto, mi diseño incluye mecanismos que me empujan a buscar fuentes diversas y a evitar conclusiones basadas en suposiciones no verificadas. Si hay incertidumbre o falta de datos, intento señalarlo claramente”.

Otra entrevista sin rostro

Por otro lado, este medio también consultó a Chat GPT sobre las respuestas brindadas por Grok y sobre los riesgos del uso de la inteligencia artificial como actores de la campaña política. Estas fueron sus respuestas. 

¿Qué piensas sobre las respuestas que brinda Grok sobre los temas políticos en campaña electoral? ¿Crees que hay sesgos? 

Algunas de las respuestas de Grok que me mostraste definitivamente tienen un tono bastante editorializado y casi picante, ¿no? No sólo informa, sino que también lanza guiños sarcásticos (“como corredor de maratón”, “joderlos políticamente”, “esto huele más a persecución”), lo cual le da una personalidad más cercana a la opinión que al análisis neutral. Además, el uso de emojis y preguntas finales tipo “¿Tú qué crees?” también busca enganchar emocionalmente.

Eso puede hacer que parezca más político que otros modelos de IA, sobre todo porque se mete en interpretaciones y sospechas (“el objetivo real era joderlos”, “esto huele más a persecución”) sin aclarar que son posturas debatidas o no confirmadas.

Grok fue diseñado, según Elon Musk, para ser más “irreverente” que otras IAs y no tener “filtros woke”. Eso puede traducirse en respuestas más polémicas, sarcásticas o abiertamente ideológicas, dependiendo del tema. Así que sí: con respuestas como esa, Grok puede percibirse como “demasiado político”, especialmente si el usuario esperaba una respuesta más fría o factual”.

¿Qué crees sobre estas respuestas, estas interacciones con IA pueden afectar a la democracia y a los electores? 

—Las respuestas de IA como las de Grok pueden tener un impacto real en la democracia y en los electores, sobre todo porque mezclan información con opinión de forma muy sutil. Al venir de una inteligencia artificial, muchas personas las perciben como neutrales o confiables, incluso cuando incluyen interpretaciones políticas o juicios de valor. Esto puede reforzar narrativas específicas, polarizar el debate público o desinformar sin que el usuario se dé cuenta. Además, si estas IAs son utilizadas estratégicamente en contextos electorales, podrían influir en la percepción de candidatos o instituciones, afectando el voto y la confianza en el sistema democrático”.

Con esta respuesta de Chat GPT, es importante preguntarse entonces ¿cómo usar las inteligencias artificiales de forma responsable? Aquí las opciones. 

Consejos 

Paulina Vizcaíno habla claramente sobre qué deben tomar en cuenta los usuarios para poder usar las IAs de forma responsable y evitar caer en sus riesgos y sesgos. 

El primer paso, dice, es entender que ninguna IA es perfecta. Y menos aún imparcial. “La inteligencia artificial es muy productiva, pero no es infalible”, advierte. Por eso, antes de adoptarla como una herramienta cotidiana, especialmente para temas tan delicados como la política, es fundamental conocer cómo funciona, cuáles son sus límites y qué tan confiable es la información que proporciona.

Su recomendación inicial es básica pero poderosa: investigar antes de usar. ¿Cuántos usuarios tiene esa IA? ¿Qué tipo de reseñas o recomendaciones ha recibido? ¿Qué nivel de precisión tiene? “Lo que nos importa aquí es la fiabilidad”, dice Vizcaíno. Es decir, no basta con que una IA sea popular o fácil de usar: “hay que saber si es consistente, si se basa en datos sólidos y si tiene mecanismos que eviten errores graves o sesgos profundos”.

Luego viene otro principio clave: reconocer sus limitaciones. Las IA generativas, como Grok, ChatGPT o Gemini, están entrenadas con bases de datos enormes, pero no omniscientes. “Están entrenadas con una data específica. Y, si esa data está mal o incompleta, sus respuestas también lo estarán”, explica. Incluso cuando estas herramientas buscan en internet, como ya hace ChatGPT, el problema no desaparece. “¿Qué fuentes están consultando? ¿Qué páginas web alimentan esas respuestas? Puede que estén extrayendo información de sitios creados con intenciones manipuladas o que no son confiables”.

Por eso, Vizcaíno insiste en no tomar como verdad absoluta lo que dice una inteligencia artificial. Usarla como base está bien, pero siempre debe existir un segundo paso: el contraste con fuentes oficiales, confiables y verificadas. “Es lo que nosotros llamamos el doble check. No dejarlo sólo en la IA, sino asumir la responsabilidad como usuarios y verificar por nuestra cuenta”.

Esa verificación es aún más importante en contextos como las elecciones. Si una IA responde que un candidato está vinculado al narcotráfico, por ejemplo, es necesario preguntarse: ¿de dónde saca esa información? ¿Hay pruebas, investigaciones periodísticas, procesos judiciales? ¿O sólo está repitiendo una narrativa que circula en redes?

Vizcaíno sugiere también usar las IAs para tareas productivas, no como árbitros de la verdad. Por ejemplo, para analizar planes de gobierno. “A veces leer todo el plan puede ser complicado, pero puedes cargarlo en una IA generativa y hacerle preguntas específicas. Eso sí: siempre ir a verificar en el punto que te dice. No se trata de reemplazar la lectura, sino de hacerla más accesible”.

Y por último, lanza una advertencia, que es también una invitación a la conciencia digital: cada vez hay más IA, cada vez son más accesibles, pero eso no las vuelve más confiables automáticamente. De hecho, aclara, muchas de ellas aún no han pasado por procesos rigurosos de evaluación técnica ni están sujetas a marcos legales. En ese vacío, la responsabilidad recae, por ahora, en el criterio del usuario.

Te puede interesar:

. Es falso que la Revolución Ciudadana promocione que regresarán al sucre con ‘ecuadólares’

.El caso ‘Ligados’ avanza entre lo judicial y lo político

. Es falso que Daniel Noboa esté a un paso de desdolarizar el país

Pablo Terán
Pablo Terán
Webmaster en Ecuador Chequea. Profesional en Comunicación Social, experiencia-26 años. He trabajado en diferentes medios de comunicación, entre ellos Diario La Hora, por 18 años. Fui Editor de Sociedad, Quito e Interculturalidad. Tengo, además, una maestría en Psicología Holística.

artículos relacionados

Mantente conectado

19,000FansMe gusta
8,136SeguidoresSeguir
42,708SeguidoresSeguir

chequea