Campañas engañosas con IA: de estafas laborales a injerencias electorales

Las herramientas de inteligencia artificial como ChatGPT han revolucionado la productividad en muchos sectores, pero también están siendo aprovechadas con fines cada vez más cuestionables. Un reciente informe de OpenAI reveló cómo diversos actores internacionales están abusando de estos sistemas para lanzar campañas de desinformación, cometer fraudes y realizar operaciones políticas encubiertas.

Una de las campañas más llamativas fue identificada por azar, cuando uno de los investigadores de OpenAI recibió un mensaje fraudulento por SMS. La estafa, conocida como “Wrong Number”, utilizaba modelos lingüísticos avanzados para generar ofertas laborales falsas. Las víctimas eran atraídas con la promesa de obtener más de cinco dólares por simplemente dar ‘me gusta’ a publicaciones en redes sociales; una suma completamente fuera de los márgenes de mercado, donde mil ‘me gusta’ suelen costar menos de diez dólares.

Los operadores del fraude seguían una fórmula conocida: primero se generaba un interés seductor (ping), luego se otorgaban pequeños pagos simbólicos para ‘demostrar’ legitimidad (zing), culminando en una fase final donde las víctimas debían transferir dinero o invertir criptomonedas (sting). Todo se realizaba a través de plataformas como WhatsApp y Telegram, usando conversaciones elaboradas por IA para ganar la confianza de las personas.

Desde Rusia hasta China: desinformación multilenguaje con fines electorales

OpenAI también desmanteló una operación promovida por Rusia, bautizada como “Operación Helgoland Bite”. Esta red usaba ChatGPT para redactar contenido en alemán con miras a influir en las elecciones federales de Alemania de 2025. Las publicaciones, difundidas en un canal de Telegram y en una cuenta en la red social X que logró más de 27,000 seguidores, atacaban a Estados Unidos y a la OTAN, además de promover al partido ultraderechista Alternativa para Alemania (AfD).

Aunque OpenAI evalúa que el impacto real fue limitado, la preocupación radica en el uso automático y escalable de modelos de IA para reproducir narrativas propagandísticas sin intervención humana directa. Además del contenido textual, estos chatbots también sirvieron para investigar a activistas opositores y traducir propaganda al idioma alemán, haciendo más efectiva su penetración.

Por su parte, China desplegó varias campañas específicas a través de franjas regionales. Una de ellas, “Sneer Review”, generaba comentarios críticos sobre temas geopolíticos en plataformas como TikTok y X, en especial contra activistas pakistaníes como Mahrang Baloch. Otra operación, “Uncle Spam”, inundaba los debates estadounidenses con opiniones contradictorias y utilizaba fotos de falsos veteranos militares, generadas con IA, para dotar de credibilidad a perfiles ficticios.

Conclusión: IA como herramienta de manipulación global

Según el informe, OpenAI detectó un total de diez campañas coordinadas desde países como Rusia, China, Irán, Israel y Corea del Norte, donde se utilizó tecnología de IA para fines políticos, fraudulentos o incluso criminales. Estas actividades incluyen desde estafas laborales y manipulación de elecciones hasta la creación de medios falsos y personajes inventados.

Frente a esta situación, la compañía ha procedido a suspender cuentas y bloquear actividades sospechosas, además de colaborar con autoridades para monitorear el uso indebido de sus tecnologías. Sin embargo, la creciente sofisticación de estas campañas demuestra que la lucha contra el mal uso de la inteligencia artificial apenas comienza. La capacidad de producir textos coherentes y convincentes en múltiples idiomas convierte a herramientas como ChatGPT en un arma de doble filo, particularmente en contextos donde la desinformación puede tener consecuencias graves.

Este tipo de abusos subraya la urgencia de establecer normas éticas y mecanismos de detección robustos, tanto por parte de los desarrolladores como de los gobiernos y plataformas tecnológicas. Mientras la IA sigue creciendo en adopción y potencia, proteger a los usuarios frente a estos riesgos será tan esencial como continuar innovando.