Los ciberdelincuentes aprovechan la inteligencia artificial según un estudio de Microsoft y OpenAI
Los ciberdelincuentes han comenzado a utilizar herramientas de inteligencia artificial (IA) para mejorar la efectividad de sus ataques. Microsoft y OpenAI han descubierto que estos actores malintencionados están aprovechando los grandes modelos de lenguaje (LLM), como GPT-4, para perfeccionar sus técnicas. Al igual que nosotros utilizamos herramientas como ChatGPT para tareas cotidianas, los piratas informáticos utilizan la IA para actividades ilegales, a pesar del riesgo de ser descubiertos.
Estas compañías han identificado varios grupos de ciberdelincuentes vinculados a Rusia, Corea del Norte, Irán y China que han estado utilizando sus servicios para llevar a cabo actividades sospechosas. Estos hallazgos provienen de una investigación exhaustiva centrada en las «amenazas emergentes en la era de la inteligencia artificial». A continuación, se detallan algunos de los grupos mencionados en el estudio de Microsoft y OpenAI:
- Strontium: Un grupo considerado «actor de inteligencia militar ruso» que realiza ataques tácticos y estratégicos en nombre de su gobierno. Utiliza la IA para automatizar operaciones técnicas, comprender protocolos de comunicación por satélite y tecnologías de radar.
- Emerald Sleet: Un grupo norcoreano que utiliza los LLM para identificar víctimas y encontrar vulnerabilidades en sistemas con el fin de llevar a cabo ataques. Han mejorado la redacción y generación de contenidos utilizando la IA, posiblemente para campañas de phishing.
- Charcoal Typhoon: Un actor malintencionado vinculado al gobierno chino que tiene como objetivo sectores gubernamentales, tecnológicos, de infraestructura de comunicaciones y de energía. Utilizan la IA para comprender mejor tecnologías y plataformas que podrían ser utilizadas en ataques, así como para mejorar el código de malware y llevar a cabo prácticas de ingeniería social.
- Crimson Sandstorm: Un grupo vinculado al Cuerpo de la Guardia Revolucionaria Islámica (IRGC) y activo desde al menos 2017. Se centran en sectores como el transporte marítimo, la defensa y la atención médica. Utilizan la IA para intentar evadir los sistemas de seguridad de sus potenciales víctimas.
Aunque hasta ahora no se ha detectado ningún «ataque significativo» específico utilizando LLM, Microsoft y OpenAI han publicado su investigación para exponer estas amenazas emergentes en una etapa temprana. Además, han bloqueado las cuentas asociadas a los grupos mencionados.
Es importante destacar que el uso de herramientas como ChatGPT y DALL·E de OpenAI está sujeto a políticas de uso, y la compañía evalúa las actividades sospechosas. Violaciones de estas políticas pueden resultar en acciones contra la cuenta del usuario, incluyendo suspensión o cancelación, según la página de política de uso actualizada por la compañía el 10 de enero.