Piratas informáticos al servicio de países como China, Rusia, Irán o Corea del Norte ya están utilizando ChatGPT para refinar sus ciberataques. Así lo desvela una investigación publicada este miércoles de Microsoft y OpenAI, las empresas que están detrás del popular chatbot.
El estudio, compartido en su página web, documenta por primera vez cómo este tipo de ciberdelincuentes usan la aplicación generativa de inteligencia artificial (IA) para investigar a sus potenciales víctimas y para mejorar sus técnicas de manipulación, pero también para ser más productivos. Así, ChatGPT se emplea para redactar correos electrónicos, traducir documentos, depurar código informático u optimizar el desarrollo de ‘malware‘ (software malicioso).
«Grupos de ciberdelincuentes, agentes de estados-nación y otros adversarios están explorando y probando diferentes tecnologías de IA a medida que surgen, en un intento de comprender el valor potencial para sus operaciones y los controles de seguridad que pueden necesitar para eludirlas», asegura Microsoft en su comunicado.
Actores maliciosos
Ambas compañías han identificado y desarticulado las cuentas de cinco actores afiliados a Estados que usaban IA para apoyar sus ciberamenazas. Es el caso de Forest Blizzard, un grupo «extremadamente activo» vinculado al GRU —el servicio de inteligencia militar de Rusia— que se ha servido de ChatGPT para investigar tecnologías de satélite y radar «que pueden estar relacionadas con operaciones militares» de la guerra en Ucrania. También conocido como APT28 o Fancy Bear, estuvo involucrado en ciberataques contra la campaña presidencial de Hillary Clinton en 2016.
Entre los actores maliciosos detectados por Microsoft también están Charcoal Typhoon y Salmon Typhoon, vinculados a China; Crimson Sandstorm (Irán) y Emerald Sleet (Corea del Norte). Todos ellos han usado IA en contenidos para ataques de tipo ‘pishing‘ (suplantación de identidad), comprender vulnerabilidades en los sistemas informáticos o para investigar cómo evadir la detección de las autoridades.
Aun así, ni Microsoft ni OpenAI han detectado que sus herramientas de IA hayan sido usadas para dar forma a técnicas de ciberataque «especialmente novedosas o únicas».