10 de octubre de 2024

El Gran Vacío en la Detección de Deepfakes: Cómo la IA Está Fallando a los Votantes del Sur Global

En los últimos años, la inteligencia artificial (IA) generativa ha revolucionado varios sectores, incluido el político. A medida que las elecciones alrededor del mundo se ven afectadas por el contenido manipulado por IA, ha surgido un fenómeno preocupante: una brecha en la capacidad de detectar este tipo de manipulaciones en el Sur Global.

Mientras que los países occidentales cuentan con herramientas de detección relativamente robustas, los sistemas disponibles en países fuera de Estados Unidos y Europa suelen ser ineficaces, o simplemente no funcionan.

En las recientes publicaciones de Donald Trump, el ex presidente de Estados Unidos, compartió fotos que mostraban a seguidores de la cantante Taylor Swift apoyando su candidatura a la presidencia. Las imágenes parecían generadas por IA, y con una herramienta de detección de la organización sin fines de lucro True Media, se pudo confirmar que probablemente fueron manipuladas.

Aunque este fue un caso relativamente sencillo, el panorama en otras partes del mundo es más sombrío. En muchos países del Sur Global, los sistemas de detección de contenido generado por IA enfrentan barreras tecnológicas y sesgos inherentes a los modelos en los que están basados, lo que agrava el problema de la desinformación.

La Expansión Global de la IA Generativa

El uso de la IA generativa en las campañas políticas se ha vuelto común, y su capacidad para crear contenido multimedia falso está afectando elecciones en todo el mundo. Organizaciones como Wired han documentado su uso en múltiples continentes.

Sin embargo, la tecnología de detección de deepfakes y otros tipos de contenido generado por IA no ha seguido el mismo ritmo en todas las regiones. Los países del Sur Global, incluidos Bangladesh, Senegal y otros, se encuentran en una posición de vulnerabilidad debido a la falta de herramientas de detección adaptadas a sus contextos.

Sabhanaz Rashid Diya, fundadora del Tech Global Institute, una organización enfocada en políticas tecnológicas en el Sur Global, señala que actualmente «hay más herramientas disponibles para crear contenido sintético que para detectarlo». Esto refleja una tendencia preocupante: la tecnología que facilita la creación de falsificaciones está ampliamente accesible, mientras que las herramientas para combatirla son insuficientes y, a menudo, ineficaces.

Sam Gregory, director del programa de la organización Witness, que utiliza tecnología para promover los derechos humanos, menciona que las herramientas más avanzadas logran, en el mejor de los casos, una precisión de entre el 85 y el 90 por ciento.

Pero cuando se trata de contenido proveniente de países como Bangladesh o Senegal, esa precisión cae drásticamente. La razón principal radica en que los modelos de IA han sido entrenados mayoritariamente con datos occidentales, lo que deja fuera a otras culturas, idiomas y contextos socioeconómicos.

Sesgos en los Modelos de Detección de IA

Los modelos de IA dependen de grandes volúmenes de datos para entrenarse, y esos datos suelen provenir de fuentes digitales de fácil acceso. En internet, el inglés es el idioma predominante, lo que deja una cantidad limitada de datos para entrenar modelos que puedan manejar otros idiomas y acentos. Richard Ngamita, fundador de Thraets, una organización sin fines de lucro que monitorea amenazas digitales en África, destaca que «gran parte de nuestros datos en África están en formato impreso», lo que significa que esos datos no pueden ser utilizados para entrenar modelos de IA hasta que sean digitalizados.

Esto crea un círculo vicioso. Sin suficientes datos digitales de alta calidad, las herramientas de detección tienden a cometer errores, como confundir el contenido generado por IA con contenido real y viceversa. En muchos casos, esto lleva a falsos positivos, donde texto escrito por personas que no son hablantes nativos de inglés es identificado erróneamente como contenido generado por IA.

«Hay una gran cantidad de falsos positivos porque los modelos no fueron entrenados con ciertos tipos de datos», menciona Diya.

Este sesgo no solo está presente en el lenguaje, sino también en los rostros y voces. Los modelos de IA han sido entrenados para reconocer, en su mayoría, rostros occidentales, lo que dificulta la detección precisa de manipulación en rostros de personas de otras etnias.

Barreras Tecnológicas y Económicas

Otro problema significativo es la calidad del contenido digital en el Sur Global. Las herramientas de detección de deepfakes se entrenan a menudo con medios de alta calidad, como las imágenes y videos capturados por dispositivos avanzados. Sin embargo, en regiones como África, la mayoría de la población utiliza smartphones de bajo costo, como los fabricados por marcas chinas. Estos dispositivos generan imágenes y videos de menor calidad, lo que confunde aún más a los modelos de detección.

Gregory señala que incluso el ruido de fondo en un archivo de audio o la compresión de un video para su publicación en redes sociales puede provocar un falso positivo o negativo. Estas son circunstancias comunes en el mundo real, lo que complica la detección precisa en entornos fuera de Occidente.

Además, las herramientas gratuitas disponibles para periodistas y verificadores de hechos suelen ser las más inexactas, ya que no están equipadas para manejar los desafíos de trabajar con contenido de baja calidad o representaciones desiguales en los datos.

La Amenaza de los “Cheapfakes”

Además de los deepfakes, otro tipo de contenido manipulado conocido como cheapfakes se ha vuelto extremadamente común en el Sur Global. Estos incluyen contenido manipulado de manera más simple, como la adición de etiquetas engañosas o la edición básica de audio y video. Los modelos de detección deficientes a menudo confunden estos cheapfakes con contenido generado por IA, lo que lleva a errores adicionales.

La experta Sabhanaz Rashid Diya advierte sobre los peligros de depender demasiado de estas herramientas de detección inexactas. Si los gobiernos y legisladores basan sus políticas en datos incorrectos, podrían tomar decisiones desastrosas que perjudiquen aún más el ecosistema de información.

El Futuro de la Detección en el Sur Global

Desarrollar nuevas herramientas de detección de IA para el Sur Global es un reto que va más allá de lo técnico. Las infraestructuras energéticas y de centros de datos necesarias para entrenar y ejecutar modelos de IA no están disponibles en muchas partes de estas regiones. Ngamita explica que sin acceso a potentes recursos computacionales, es imposible desarrollar soluciones locales. Ante esta situación, las organizaciones de estos países dependen de herramientas extranjeras costosas o ineficaces, o de colaboraciones con universidades de Europa y América del Norte.

Estas colaboraciones, aunque útiles, tienen limitaciones.

«El tiempo de respuesta es significativo», dice Diya.

El proceso puede tardar semanas, y en ese tiempo, el contenido falso ya ha causado un impacto considerable.

Sam Gregory, de Witness, concluye que aunque la detección es crucial, enfocarse demasiado en esta área puede desviar recursos de una necesidad más apremiante: crear un ecosistema de información más resiliente. Para ello, las inversiones deben centrarse en los medios de comunicación locales y en las organizaciones civiles que construyan confianza pública, en lugar de simplemente financiar tecnologías de detección que aún están lejos de ser perfectas.

La batalla contra la desinformación es global, pero no se lucha en condiciones iguales. Mientras los países occidentales avanzan hacia soluciones más sofisticadas, el Sur Global sigue esperando las herramientas necesarias para proteger su integridad democrática y combatir la creciente ola de desinformación.


Fuente: Wired

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *