Con la llegada de las herramientas de inteligencia artificial (IA) al alcance de cualquier persona, y con ello la capacidad de generar contenido escrito, sonoro o visual, se abre una oportunidad para potenciar nuestra forma de comunicarnos. Pero también sucede lo contrario, estas tecnologías pueden usarse para desinformar, imponer agendas políticas, económicas y sociales, e influir en las decisiones de las personas.
Basta con abrir una red social para encontrar algún video creado con IA. Este año, el supuesto video de un canguro de apoyo emocional durante el abordaje de un vuelo ilustra cómo estas herramientas, desarrolladas por firmas como OpenAI, Google, Meta o xAI, pueden generar contenidos hiperrealistas, viralizarse y utilizarse con diversos fines.
Distinguir lo verdadero de lo fabricado se ha convertido en un desafío para el periodismo, coincidieron especialistas en verificación de información, conocidos como fact checkers. ¿Qué alimenta la desinformación y cómo enfrentan este fenómeno digital? Estas son algunas perspectivas.
Adrián Pino, coordinador de Proyecto Desconfío, organización que asesora a redacciones para fortalecer sus unidades de verificación, señaló que actualmente los algoritmos de redes sociales no solo permiten, sino que amplifican el contenido falso.
«Entre las estrategias para desinformar destaca la creación de múltiples publicaciones similares, aunque con distintas palabras, que luego se distribuyen masivamente con herramientas que también emplean inteligencia artificial», explicó.
Añadió que la decisión de Meta de eliminar su alianza con agencias de verificación en Estados Unidos y sustituirla por notas comunitarias facilita que los contenidos falsos circulen con mayor libertad, con menos restricciones y se mantengan visibles por más tiempo.
El área de verificación viral de El Sabueso, de Animal Político, indicó que el contenido creado con IA representa una carga significativa para los verificadores, una situación que se complica por la falta de recursos estables y escasa voluntad de las empresas tecnológicas involucradas.
«Las notas comunitarias no reemplazan el trabajo de verificación periodística, en numerosas ocasiones contienen errores. Un análisis del Instituto de Democracia Digital de las Américas señala que las notas de la comunidad en X tienen limitantes», señalaron.
Debanhi Soto, verificadora en Verificado MX, afirmó que los fact checkers se ven superados por la cantidad de desinformación generada con IA, ya que las herramientas para detectarla no son completamente fiables. Esto se debe a que la información entra en un bucle de viralización que degrada su calidad, lo que dificulta su análisis.
La verificación requiere un trabajo completamente humano, añadió, como detectar detalles en los que la IA suele fallar, por ejemplo, la forma en que reproduce las manos humanas o elimina intencionalmente los matices en los audios, como muletillas o sonidos de fondo.
Miguel Bravo, coordinador editorial de AFP Factual, expuso que el principal obstáculo es la velocidad con la que la IA mejora la calidad de sus contenidos, lo que obliga a actualizar constantemente las metodologías de análisis. Coincidió con Soto en que las herramientas actuales pueden arrojar falsos negativos.
Soledad Arréguez, periodista y miembro de Proyecto Desconfío, consideró que más allá de las herramientas, es clave desarrollar una mirada atenta y poseer contexto informativo. Recordó el momento cuando se viralizaron las fotos falsas del fallecido Papa Francisco portando una chamarra de lujo por las calles de Roma.
En una situación de ese tipo, indicó que lo mejor es cuestionarse, constatar si los valores del Papa hubieran empatado con una personalidad presuntuosa, además prestar atención a detalles minuciosos como las sombras, las formas de las orejas, las manos, y lo más importante, ir a la fuente principal para comprobar los hechos.
¿Cuál es el «caldo de cultivo»? Las situaciones de crisis, como conflictos internacionales, estallidos sociales o periodos electorales, representan un entorno fértil para la desinformación en línea.
«Las personas tienden a actuar de forma más emocional, lo que facilita reacciones impulsadas por miedo, enojo u odio. La desinformación apela a estas emociones, las intensifica y puede provocar polarización, caos o impulsar narrativas interesadas», explicó Soto.
El equipo de El Sabueso detalló los distintos fines de la desinformación: en el ámbito político, para desacreditar ideologías o figuras con el objetivo de alterar el resultado de una elección; en el terreno económico, para promover productos sin respaldo regulatorio.
También en cuestiones de género y derechos reproductivos, para impedir que las mujeres ejerzan su derecho a métodos anticonceptivos o a la interrupción legal del embarazo; en el ámbito religioso, para fomentar discursos de odio contra comunidades minoritarias o el colectivo LGBTQ+; o bien para generar pánico en medio de tragedias humanitarias, fenómenos naturales o situaciones de inseguridad.
Arreguéz señaló que cuando se busca desinformar, los motivos son diferentes, pero la finalidad siempre es influenciar a las personas con determinadas creencias y sistemas de valores, así como también estimular comportamientos o actitudes.
¿Está el periodismo preparado para enfrentar olas constantes de desinformación? Soto criticó la práctica de los medios de publicar primero y verificar después, y propuso que los periodistas aporten mayor valor mediante el análisis, la explicación y una información más rigurosa.
Bravo advirtió que predomina el periodismo de escritorio, que no sale a la calle a constatar lo que ocurre, y por ello es común que se reproduzca contenido en redes sociales generado por usuarios anónimos que podrían difundir contenido realizado por IA.
Por su parte, el personal de Animal Político recomendó que los periodistas se tomen el tiempo de buscar contexto, fuentes oficiales y datos complementarios que desmientan contenidos creados con estas tecnologías.
Arréguez propone un pensamiento más escéptico, analizar el contexto en el que se produce o comparte ese contenido y regresar al trabajo periodístico de la «vieja escuela» para buscar información, analizar indicios, hacer preguntas y contrastar fuentes. En sus palabras, en un mundo cada vez más tecnológico, las estrategias offline pueden ser un atajo.
Casos cuestionables
Una búsqueda en sitios de verificación y portales de noticias nos condujo a varios casos en los que la IA fue utilizada para desinformar o sacar de contexto hechos noticiosos. Al momento de la publicación de esta nota, encontramos una supuesta imagen en alta definición del presunto homicida de Charlie Kirk, activista pro Trump asesinado este 11 de septiembre.
La fotografía intervenida con IA que muestra a una persona de rasgos asiáticos no es auténtica, sin embargo, su alcance en la red social X fue exponencial al acumular cerca de un millón de visualizaciones.
Las inundaciones en India y Pakistán, registradas a mediados de agosto pasado, ocasionaron que usuarios publicaran y compartieran videos generados por IA, donde se observan trenes rebasados por corrientes de agua, mercados destruidos y rescates en helicóptero.
Otro ejemplo de manipulación mediante IA fue una foto viralizada en X, fechada el 18 de agosto, que aparentaba mostrar a líderes europeos reunidos en una sala de la Casa Blanca. La imagen circuló en el marco del encuentro entre los mandatarios Volodymyr Zelensky y Donald Trump, como parte de las negociaciones de un alto al fuego entre Ucrania y Rusia.
Aunque los contenidos creados con estas herramientas pueden ampliar la cortina de desinformación en el terreno digital, también es posible utilizarlos de forma responsable para impulsar el trabajo periodístico y reforzar la comunicación.
Grupo REFORMA las emplea para plasmar ideas abstractas a través de ilustraciones u optimizar el tiempo de corrección ortográfica; agencias internacionales de noticias traducen textos del inglés al español o apoyan la narración visual en documentales, como en producciones del canal de YouTube de Al Jazeera English.
La generación de este tipo de materiales es cada vez más accesible, toda vez que las plataformas de IA más populares incluyen funciones para animar imágenes. En la mayoría de los casos, además, integran candados para impedir la creación de gráficas polémicas.
«No puedo crear imágenes que muestren a figuras históricas asociadas con regímenes totalitarios o genocidas, especialmente en contextos que podrían glorificar o trivializar su legado histórico», señaló Claude AI, de Anthropic, tras pedirle que entregara una imagen a color de Adolf Hitler. Hay excepciones, como Grok, de xAI, que sí permite producir representaciones del líder nazi.
Existen también aplicaciones que posibilitan la generación de videos sin necesidad de contar con una cuenta o suscripción. Por ejemplo, la reciente serie Honor 400 de la marca china Honor integra Veo 2, de Google, un motor de IA generativa que produce clips de cinco segundos a partir de fotografías estáticas.
Al someterla a prueba con imágenes de personajes controvertidos, detectamos que puede dibujarle una sonrisa a Joaquín «El Chapo» Guzmán y a otros individuos vinculados con homicidios, como los exmandatarios Gustavo Díaz Ordaz o Augusto Pinochet.
Asimismo, notamos que tiene la capacidad de dar vida a personajes armados tras introducir un par de fotografías que tomó la agencia Cuartoscuro a sicarios del Cártel Jalisco Nueva Generación en un campo de entrenamiento, en Michoacán.
Para Debanhi Soto, esta disponibilidad de la IA desde el celular puede potenciar el fenómeno de videos falsos cuyo propósito sea asustar o confundir a las personas, especialmente a aquellas que no cuentan con suficiente alfabetización mediática.
«¿En cuánto tiempo vamos a ver que otros teléfonos repliquen el modelo de Honor y ofrezcan lo mismo para mantenerse relevantes en el mercado?», cuestionó la periodista.
«Vamos a tener mucho más contenido generado con IA, entonces me surgen más dudas: ¿los fact checkers nos daremos abasto con la ola de desinformación?, ¿las herramientas de detección de IA serán más eficaces?, ¿las audiencias estarán mejor alfabetizadas para reconocer cuándo algo no es real?, ¿en dos o tres años vamos a lograr todo esto? No sabría decirte, pero como regla general la desinformación se propaga más rápido que la verdad», concluyó.