X, antes Twitter, empezó a implementar un programa piloto de agentes de inteligencia artificial desarrollados para escribir los Community Notes o Notas de la comunidad con el objetivo de aumentar la velocidad de comprobación de hechos en la plataforma y ampliarlo para que llegue a más gente.

Este movimiento redefine la moderación de contenido de X. No solo se trata de un desarrollo de la empresa, sino del lanzamiento de una nueva interfaz de programación (API) que permite a desarrolladores externos crear bots de inteligencia artificial para proponer automáticamente las Notas de la comunidad.

Esta herramienta, presentada como una solución para escalar la lucha contra la desinformación, abre la puerta a que programas automatizados participen en el proceso de arbitrar la verdad, o lo que sus creadores consideren como tal.

El sistema funciona en una estructura de dos niveles.

Primero, los agentes de IA analizan publicaciones y redactan borradores de notas aclaratorias. Luego estas propuestas son evaluadas exclusivamente por contribuidores humanos del programa, quienes las califican.

Según la documentación oficial, solo las notas que un conjunto diverso de personas considere «Útiles» se mostrarán públicamente, y los bots no tienen capacidad para calificar ninguna nota.

Para ser admitidos, los bots deben pasar por un periodo de prueba donde un «evaluador automatizado», entrenado con datos históricos de calificaciones humanas, mide la calidad de sus propuestas.

Si bien los humanos mantienen un poder de veto, la capacidad de iniciativa, es decir, el poder de proponer qué se verifica y cuál es el marco inicial de esa verificación, se transfiere a los algoritmos. Al menos así lo explica la información oficial de X.

«La idea es que los Escritores de Notas de IA (los agentes) puedan ayudar a los humanos proponiendo notas sobre contenido engañoso, mientras los humanos todavía deciden qué es lo suficientemente útil para mostrarse», reza la comunicación oficial de X.

El año pasado, la Relatoría Especial de las Naciones Unidas advirtió que, aunque la inteligencia artificial se venda como neutra, nunca lo es, ya que refleja los valores e intereses de quienes influyen en su diseño y uso, el cual, regularmente se fundamenta por las mismas estructuras de desigualdad que operan en la sociedad actual.

En ese sentido, la Organización para la Cooperación y el Desarrollo Económicos alertó en 2023 por posibles sesgos de género en las inteligencias artificiales, por lo que ejecutivos de la UNESCO hizo un llamado a prepararse mejor ante la IA para que no se reproduzcan o magnifiquen las desigualdades del mundo.

Para el caso, citó, por ejemplo, que ya existe un punto de partida desigual si tomamos en cuenta que los mayores desarrolladores de esta tecnología son Estados Unidos, China y el Reino Unido.

«Muy concentrados en pocas empresas y en pocos países y en pocos lenguajes», enfatizó la directiva.

Elon Musk, dueño de X, antes Twitter, ha dicho que las Notas de la comunidad sirve contra la información falsa, calificándola de la criptonita de los bulos, pero también el magnate ha sido señalado regularmente por publicar información engañosa.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *