27 de julio de 2024

Uso de la Inteligencia Artificial Generativa y extremistas el nuevo desafío para la seguridad digital

En un mundo cada vez más digitalizado, la inteligencia artificial (IA) ha emergido como una herramienta revolucionaria, transformando múltiples aspectos de nuestra vida cotidiana.

Sin embargo, esta tecnología no solo está siendo utilizada para fines constructivos; grupos extremistas han comenzado a experimentar con la inteligencia artificial generativa (IA generativa) para crear una avalancha de nueva propaganda, planteando serias preocupaciones sobre la seguridad en línea.

Según un informe reciente de WIRED, expertos en tecnología y seguridad han detectado un aumento en el uso de herramientas de IA generativa por parte de grupos extremistas. Estos grupos están utilizando estas herramientas para evadir los sistemas de detección automatizados que las grandes plataformas tecnológicas han implementado en los últimos años para mantener su contenido fuera de Internet.

Adam Hadley, director ejecutivo de Tech Against Terrorism, expresó su preocupación sobre el potencial de la IA generativa para manipular imágenes a gran escala, lo que podría invalidar el uso de bases de datos de hash compartidas como solución.

Estas bases de datos, utilizadas por plataformas tecnológicas importantes, contienen contenido extremista conocido y permiten su eliminación rápida y automática de Internet. Sin embargo, la capacidad de la IA generativa para crear contenido nuevo y no detectado previamente representa un desafío significativo para este enfoque.

Cada semana, los colegas de Hadley están identificando alrededor de 5,000 ejemplos de contenido generado por IA. Esto incluye imágenes compartidas recientemente por grupos vinculados a Hezbollah y Hamas, diseñadas para influir en la narrativa en torno a la guerra entre Israel y Hamas.

Además, se han descubierto canales de mensajería neonazis compartiendo imágenes generadas por IA creadas con indicaciones racistas y antisemitas, y guías de apoyo técnico publicadas por el Estado Islámico sobre cómo usar de manera segura herramientas de IA generativa.

Más allá de la manipulación de imágenes, Tech Against Terrorism ha publicado un informe que cita otras formas en que las herramientas de IA generativa pueden ser utilizadas por grupos extremistas. Estas incluyen el uso de herramientas de autotraducción para convertir rápidamente la propaganda en múltiples idiomas y la capacidad de crear mensajes personalizados a gran escala para facilitar los esfuerzos de reclutamiento en línea.

Sin embargo, Hadley cree que la IA también ofrece una oportunidad para anticiparse a los grupos extremistas y utilizar la tecnología para prevenir lo que podrían hacer con ella.

«Vamos a asociarnos con Microsoft para averiguar si hay formas de usar nuestro archivo de material para crear un sistema de detección de IA generativa para contrarrestar la amenaza emergente de que la IA generativa se use para contenido terrorista a gran escala»

Adam Hadley, director ejecutivo de Tech Against Terrorism

Esta asociación se anunció en la víspera de la Cumbre de Líderes del Llamado de Christchurch, un movimiento diseñado para erradicar el terrorismo y el contenido extremista de Internet.

Mientras que empresas como Microsoft, Google y Facebook ya están desplegando sus propios recursos para combatir este problema, la nueva iniciativa ayudará especialmente a aquellas empresas que no pueden combatir estos esfuerzos por sí mismas. Esto es particularmente importante para plataformas más pequeñas que no cuentan con sus propios centros de investigación en IA.

El desafío que representa el contenido generativo de IA no se limita a los grupos extremistas. El mes pasado, la Internet Watch Foundation, una organización sin fines de lucro con sede en el Reino Unido que trabaja para erradicar el contenido de explotación infantil de Internet, publicó un informe detallando la creciente presencia de material de abuso sexual infantil (CSAM) creado por herramientas de IA en la web oscura.

Los investigadores encontraron más de 20,000 imágenes generadas por IA en un foro de CSAM en la web oscura en solo un mes, con 11,108 de estas imágenes consideradas muy probablemente criminales por los investigadores de la IWF.

Estos desarrollos subrayan la necesidad urgente de una respuesta coordinada y sofisticada para abordar el uso indebido de la IA generativa. Mientras que la IA ofrece oportunidades sin precedentes para el avance y la innovación, su uso indebido por parte de actores malintencionados plantea serios desafíos para la seguridad en línea y la integridad de la información.

La colaboración entre organizaciones tecnológicas, gobiernos y grupos de la sociedad civil será crucial para desarrollar estrategias efectivas que no solo detecten y eliminen contenido dañino, sino que también prevengan su creación y distribución en primer lugar.

En conclusión, la IA generativa, aunque prometedora en muchos aspectos, también ha abierto la puerta a nuevos riesgos y desafíos en la lucha contra el extremismo y el contenido dañino en línea. A medida que esta tecnología continúa evolucionando, también debe hacerlo nuestra capacidad para comprender y mitigar sus posibles usos indebidos.


Vía Wired.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *