Aunque esta práctica aún no se ha masificado en el país, en el mundo gana terreno y Ecuador Chequea ha detectado los ‘primeros pininos’ de imágenes creadas por IA para desinformar. ¿Qué deben hacer los usuarios digitales? La alfabetización digital es siempre la respuesta.
Desde inocentes juegos infantiles del ‘teléfono dañado’ hasta complejas campañas propagandísticas transnacionales, dar información insuficiente, omitirla o manipularla intencionalmente al servicio de ciertos fines, altera la comunicación humana. Hoy en día, gracias a las redes sociales y tecnologías como la inteligencias artificiales, es cada vez más fácil suplantar voces y rostros de políticos, superestrellas o cualquier individuo, atribuyéndoles afirmaciones que nunca expresaron, ya sean declaraciones de amor o de guerra. En esencia, nos enfrentamos a una nueva versión de un antiguo problema en la comunicación entre las personas: la desinformación.
Ecuador Chequea monitorea a diario posts con riesgo de desinformación que circulan en redes sociales. Pese a que en el mundo la Inteligencia Artificial es cada vez más usada por las redes de la desinformación, en el país esto no se ha hecho presente todavía, al menos en gran medida. Sin embargo, hemos detectado recientemente su uso desde algunas cuentas que son identificadas como generadoras de engaños, especialmente en la construcción de fotografías, que ayudan muchas veces a darle un sesgo al posteo.
Este medio entrevistó a cuatro especialistas en diferentes áreas de la comunicación digital interactiva para discutir los riesgos del uso de la Inteligencia Artificial en la propagación de desinformación, así como las precauciones que debe tomar la gente. Esta discusión cobra especial relevancia considerando la actual coyuntura de conflicto armado interno, la proximidad de una nueva consulta popular y las elecciones presidenciales del 2025.
Los cuatro expertos coincidieron en advertir que el uso de las cada vez más sofisticadas herramientas de inteligencia artificial para propagar desinformación representa, en la práctica, series de riesgos y amenazas a escalas individuales y sociales, tanto para personas en particular como para poblaciones de ciudades y países enteros.
El consultor en comunicación política y columnista de CNN Rodrigo Jordán empezó recordando uno de los pronunciamientos internacionales más importantes sobre este tema, como fue la advertencia que en julio del 2023 realizó el secretario general de la ONU, Antonio Guterrez, de que la Inteligencia Artificial tiene un potencial para el bien, pero también representa amenazas para las democracias y la paz en el mundo.
SIN ESTUDIOS
En Ecuador, no existe un estudio estadístico específico sobre el impacto de la desinformación generada con IA, pero sí es posible aproximarse a los impactos en poblaciones de habla hispana, en otros contextos culturales. El denominador común que elimina esta distancia, en todo caso, es el de una misma era de proliferación de nuevas opciones de generación de contenidos con un par de clics e instrucciones verbales simples con lenguaje natural.
Jordán recordó que una reciente investigación de este mismo fenómeno, realizada por la firma de estudio de mercados Ipsos, refleja que el 70% de los ciudadanos considera que con las inteligencias artificiales se proliferará la desinformación, y que el 60% considera que la gente aún no está preparada para distinguir este tipo de desinformación.
En el contexto Latinomericano, explicó Jordán, este tipo de actitudes representaron, en la práctica, que la desinformación generada con inteligencia artificial influyeron en las elecciones, en la gobernabilidad y en las democracias de varios países de la región.
OPERACIONES PSICOLÓGICAS
Rommel Comeca, comunicador y especialista en tecnologías y herramientas de inteligencia artificial para la Educación en América latina, recordó que, históricamente, por razones geopolíticas o económicas, la desinformación ha sido utilizada por todos los gobiernos del mundo, sin excepción alguna, mediante las denominadas ‘operaciones psicológicas’, de inteligencia y contrainteligencia.
En consecuencia, explicó, hoy se observa cómo los estados aplican nuevas herramientas digitales para las viejas tácticas de desinformación, con las que buscan generar conflictos internos en otros estados, en particular sobre temas de la organización política y de sus principales actores políticos: “Las operaciones psicológicas consisten en crear ‘falsas verdades’ y con la inteligencia artificial se puede hacer”, explicó.
LA ÚLTIMA GENERACIÓN
Tras el aparecimiento de ChatGPT, a fines del 2023, y luego de más de un año de un desarrollo exponencial, sin precedentes, de aplicaciones generadoras de todo tipo de audios, imágenes estáticas o en movimiento a partir de textos simples con instrucciones, las pantallas de los usuarios de plataformas digitales siguen inundándose con fotografías y videos que cada vez son más difíciles de distinguir si son reales o creados con inteligencia artificial.
Tal es el grado de apariencia de verdadero de estos contenidos que académicos e investigadores anticipan que, de hecho, ya somos la última generación viva que pudo reconocer una imagen real de una falsa a primera vista. Esto es literal, no una ficción, ante la irrupción de nuevas gafas no sólo para visualizar, sino también para interactuar con la realidad virtual.
¿Y esto es bueno o malo? No tan bueno, responden los expertos consultados, debido a que, a pesar de esfuerzos e iniciativas para abordar estos problemas, aún no hay regulaciones y políticas claras de actuación de los estados y sus instituciones.
Comeca señala que uno de los esfuerzos más destacados en esta materia se lleva a cabo en el Senado de Estados Unidos, donde se intenta establecer la norma de que las plataformas tecnológicas incluyan códigos internos en sus imágenes generadas con inteligencia artificial para distinguir, precisamente, si fueron creadas con este tipo de tecnología.
Y para abordar este tema, recordó, han asistido, por ejemplo, representantes de OpenAI, la empresa tecnológica responsable del desarrollo del ahora ultraconocido ChatGPT y sus versiones en video como Sora y en imágenes como DALL-E.
COYUNTURA ECUATORIANA
En una búsqueda realizada la mañana de este miércoles 27 de febrero sobre los temas del contexto ecuatoriano, que marcan tendencias en redes sociales como TikTok y Facebook se encontró una pequeña cantidad de imágenes que inevitablemente lucían como creadas por inteligencia artificial, ya sea por la falta de definición, colores excesivamente brillantes, sus texturas llamativas y, sobre todo, por las situaciones inusuales que referían.
Una de estas cuentas, por ejemplo, corresponde a Ecuador Play, que en su línea de publicaciones incluye una imagen fotográfica del presidente, Daniel Noboa, sentado en una especie de trono de rey, con un bastón de mando, bajo un paraguas de oro, mientras gente a su alrededor soporta una lluvia que ha inundado la calle.
Otras imágenes del mismo tipo presentan a Noboa sentado, con una misma actitud de arrogancia y autosuficiencia, junto al líder de organizaciones criminales alias ‘Fito’.
Sobre este tema el consultor Jordán recuerda que en uno de los momentos más críticos del reciente clima de violencia criminal, en semanas anteriores, se propagaron en redes sociales microvideos que mostraban a Noboa declarando que no va a respetar los Derechos Humanos en el marco de Estado de Excepción que inició el 8 de enero anterior.
“Me ha sorprendido la capacidad que tienen estas cuentas trolls porque, lastimosamente, hay que decir, la desinformación está incorporada ya a la gestión de la comunicación política en América Latna”, indicó.
“Ecuador vive en este febrero y marzo de 2024 un gran desafío respecto a la detección y gestión de las ‘noticias falsas’ generadas con inteligencia artificial se potencian en momentos históricos que vive el país”, comentó Jordán sobre el impacto de este tipo de desinformación en Ecuador ante la consulta popular del 21 de abril próximo en medio de un conflicto armado interno así como por la convocatoria a elecciones presidenciales de febrero del 2025.
A criterio del comunicador y analista político Wilson Benavides, hay tres situaciones y momentos claves de “eclosión” de la desinformación en redes sociales: las paralizaciones y disturbios de octubre de 2019 y de junio de 2020 en contra de los gobiernos de Lenín Moreno y de Guillermo Lasso, así como la declaratoria de conflicto armado interno por parte del presidente Noboa, el 9 de enero anterior.
Sobre este último evento señaló: “El efecto fue inmediato. Nos dimos cuenta de lo frágiles que somos, como sociedad, ante este tipo de informaciones, muchas de ellas ciertas, pero otras solo rumores con impactos brutales que, en el caso de Quito, terminó caotizando la ciudad”, dijo
SOLUCIONES
Dado el impacto social que tiene la proliferación de la desinformación, que ahora se realiza a mayor escala al grado de que una sola de las herramientas sustituye a ‘Troll centers’ enteros, Jordán sugiere a las autoridades educativas que se incorpore la alfabetización digital como materia obligatoria de los planes de estudio en Ecuador.
“Esto quiere decir que la inteligencia artificial y la desinformación se discute en ciertos foros, en la academia, en ciertos sectores políticos, pero todavía no ha sido incorporado como un eje transversal en los currículos de estudio de las escuelas y universidades”, comentó.
Lo dijo luego de recordar que la propagación de las mal denominadas ‘fake news’ afecta de manera masiva la capacidad de poblaciones enteras de acceder a información confiable. Y en el caso ecuatoriano, agregó, se requiere que el Consejo de Promoción de la Comunicación (Cordicom) realice campañas directas, grandes y potentes para luchar contra la desinformación y promover una alfabetización digital y mediática.
El analista Benavides coincide con este criterio de que en Ecuador es urgente emprender iniciativas de alfabetización digital. Esto se justifica en estudios como los del Latinobarómetro 2023 y el Barómetro de las Américas de la Universidad de Vanderbilt que señalan, por ejemplo, que apenas el 44% de más de 41 mil personas encuestadas en las Américas verificaron la información que encontraron en internet en los últimos tres meses y un 56% que nunca verificó.
RESPONSABILIDAD INDIVIDUAL
Todos los expertos consultados coinciden en la necesidad de que los propios usuarios de las plataformas digitales asuman sus responsabilidades individuales al consumir contenidos. Y para ello, insistieron, se debe seguir tres sencillos pasos que empiezan con preguntarse sobre la veracidad y la confiabilidad de los contenidos que aparecen en sus pantallas, especialmente si son muy llamativos o extraordinarios.
Segundo, verificar y contrastar ese contenido en cuestión en otras fuentes con reconocida credibilidad. Y tercero acudir por cuenta propia a las propias fuentes involucradas o mencionadas en los contenidos, que pueden ser personas o instituciones.
***
CRITERIO EXPERTO (En primera persona)
Mayra Godoy, especialista en comunicación digital, editora de la revista «Esta es tu casa»
Actualmente, la desinformación creada y enviada a través de herramientas de IA es el mayor riesgo al que se enfrenta el planeta a corto plazo, así reveló el Global Risks Report 2024, elaborado por el WEF (World Economic Forum) Fondo Económico Mundial.
Desencadenar disturbios civiles, confusión y aumentar la desconfianza en los medios tradicionales y gubernamentales son algunos efectos que ya los estamos palpando.
No es ajeno que un mensaje que llegue por WhatsApp sea compartido inmediatamente sin previa verificación. Ante esta situación, los organismos reguladores están evaluando la posibilidad de limitar el uso indebido de la IA; sin embargo hasta que eso suceda, la velocidad con la que avanza la tecnología, sin duda va a superar las regulaciones legislativas.
En Ecuador, según el último informe de DataReportal, el Internet tiene una penetración del 83,6% (15,29 millones de usuarios) el 62,2% (12,66 millones de usuarios) ocupa redes sociales y un 96,0% de la población total (17,56 millones) de conexiones móviles celulares. https://datareportal.com/reports/digital-2024-ecuador
Seguramente, a través de las redes sociales hemos visto videos falsos de personas que pueden ser reales o no, así como diseños de clonación de voz o páginas web falsas. La desinformación no es de ahora, pero hoy se amplifica gracias a la velocidad con que se propaga a través de las diversas redes sociales y plataformas digitales.
Es todo un reto identificar la información veraz o falsa, más aún porque genera polarización social (división o confrontación que puede llevar una idea a extremos opuestos). La responsabilidad está en cada uno de nosotros a la hora de publicar, comentar y compartir información.
El entorno actual que vive el país nos obliga como ciudadanos, profesionales, padres de familia, a ser más selectivos a la hora de informarnos. Para ello, es recomendable acudir a fuentes veraces, buscar medios o alternativas informativas que ofrezcan información relevante, significativa y con sentido; sin necesidad de acudir al morbo.
La crisis delincuencial y de violencia que vive el país ha servido —no es solo de ahora— de “insumo” para alimentar informativos que, en algunos casos, no elevan el discurso ni la reflexión. Es menester filtrar información que podría obviarse.
Algunas consideraciones útiles a la hora de informarnos:
· Verifique la fuente y autoría de la información
· Vaya más allá de la fotografía, logo o titular principal
· Revise la fecha de la publicación
· Compare con otras fuentes la información, a fin de corroborarla
· No comparta la información si no está seguro de su veracidad.
Te puede interesar:
· La eutanasia pone a prueba un Código de Ética Médica obsoleto
· Durante un mes, Verónica Abad será presidenta de Ecuador
· “El desempleo en Quito pasa del 7,8% al 8,3%”. Wilson Merino, concejal de Quito