Ciberseguridad: el doble filo de la Inteligencia Artificial

La Inteligencia Artificial es parte del problema, pero también de la solución. La usa el lado oscuro en ataques más sofisticados, y concede capacidades inéditas al defensor. Hay que evolucionar hacia una visión integral de ciberseguridad.

La conclusión es que la Inteligencia Artificial es un arma de doble filo y reclama una política de seguridad al nivel de su potencial destructor.

Esa capacidad de aprender por su cuenta es crucial en la automatización, por ejemplo de un malware robótico que opera solo, de forma masiva, muta, se perfecciona y busca gateras en los sistemas mal protegidos o evita blindajes sofisticados. Ni siquiera tiene que desarrollarlo el delincuente-usuario, puede comprárselo a un tercero en la modalidad de crimen como servicio, otra de las grandes tendencias, según Europol. La conclusión es que la Inteligencia Artificial es un arma de doble filo y reclama una política de seguridad al nivel de su potencial destructor. ¿Cómo se consigue esa protección? Invirtiendo precisamente en IA defensiva.

En el colmo de esta eterna lucha del bien contra el mal, la llamada Inteligencia Artificial ofensiva tendría la capacidad de sabotear a la Inteligencia Artificial defensora en su esencia. Los algoritmos inteligentes necesitan entrenarse procesando cantidades ingentes de datos. Entoncs, si un cracker logra inyectar información falsa en esa fase, todo el análisis posterior quedaría corrompido sea cual sea su aplicación, desde la conducción autónoma a la identificación de voz o, incluso, la telemedicina.

La respuesta es sencilla: ofrece nuevas oportunidades a la industria del cibercrimen. Su capacidad de aprender tanto de errores como de aciertos, de encontrar patrones y relaciones de sentido en los datos caóticos o secuencias de causas y efectos en el comportamiento de un usuario, permiten nuevas formas de engañar.  

Hace tiempo, una compañía estadounidense de ciberseguridad ya demostró que la IA es tan hábil como los humanos al crear tuits como ganchos de phishing o suplantar identidades para acceder a contraseñas, todo un hito porque a veces hace falta sutileza, no solo ingenio, para convencer a alguien de hacer clic aquí o allá. Esto podría ocurrir cuando alguien hace algún trámite online bancario, administrativo o comercial y de repente interfiere un chatbot disfrazado que le ofrece alguna ventaja.

La IA aprende a seleccionar información valiosa (claves, datos de facturación, conversaciones privadas…) por la que el dueño pagaría rescate, o utiliza el mismo proceso de un captcha (selección de imágenes o identificación de letras distorsionadas) para que un algoritmo franquee esa barrera de acceso igual que un humano.

Un alto ejecutivo de una empresa británica recibe una llamada de su CEO. El mensaje le urge a ingresar 220.000 euros antes de una hora en la cuenta de un proveedor de Hungría. Aunque no media una solicitud escrita, lo hace sencillamente porque ha reconocido la voz del jefe. Y así cae en la trampa. Este caso saltó a la prensa no por la cantidad estafada, sino por los algoritmos capaces de imitar una voz humana concreta. Sucedió en 2019, pero desde al menos dos años atrás ya existían aplicaciones similares.

La producción de vídeos falsos que manipulan voces e imágenes (deep fake) está en todos los rankings de tendencias de innovación para 2022, pero su ascenso va unido también a un salto de escala y de sofisticación de malware y ransomware. En esta dicotomía entre avance tecnológico y delitos influye el avance imparable de la digitalización, a la que se ha sumado la Inteligencia Artificial (IA).

En 2020, el Centro Nacional de Inteligencia español registró el doble de incidentes de peligrosidad muy alta. En junio de 2021, Fortinet había detectado diez veces más intentos de ransomware global que un año antes. Según la compañía ESET, a mediados del año pasado los correos phishing habían aumentado un 132% respecto a 2019 en Latinoamérica. Y Allianz sitúa los incidentes cibernéticos en el riesgo empresarial más elevado, junto con las interrupciones de negocio y el impacto económico de la Covid-19.

 

¿Cómo debe ser una política de ciberseguridad IA?

 

Ofensiva vs defensiva

De hecho, este sector concreto crecerá un 23,3% anual hasta 2026, según MarketsandMarkets. “Puede acelerar drásticamente la identificación de nuevas amenazas y las respuestas, ayuda a detener ataques antes de que se propaguen, permite automatizar y orquestar procesos y requiere menos tiempo de análisis por parte de los especialistas”, explica Deloitte.

De acuerdo con la consultora, se debe orientar el paradigma desde la reacción a la prevención: “Orquestar procesos y tecnologías de detección aporta proactividad frente a las amenazas avanzadas”. Si un malware IA puede aprender de los ataques y volverse más listo, también una base de datos con aprendizaje automático puede detectar ese malware modificado y bloquearlo porque ha analizado incidentes previos.

Y desde luego puede aplicarse igualmente a posteriori. Un ejemplo: el pirateo de eventos deportivos de pago, sobre todo fútbol, es una herida abierta para clubes, plataformas y televisiones. La tendencia empieza a cambiar con una mayor agilidad judicial, pero también gracias a soluciones machine learning de rastreo y bloqueo. En 2020 La Liga española redujo casi un 20% los partidos pirateados y ya exporta el sistema a otras competiciones.

José Luis Laguna, director de ciberseguridad en varias multinacionales, apuesta en un artículo por la integración que aproveche los recursos, sin precedentes, de las empresas actuales y supere el enfoque de seguridad fragmentada por donde se cuelan los ataques. Ese modelo coral y distribuido implica la integración profunda de todos los sistemas, dispositivos y fuentes de datos en una empresa. La interoperabilidad resulta crítica para que las soluciones de aprendizaje automático accedan a toda la información, la compartan y la protejan con un escudo homogéneo. Su integración no solo sería tecnológica sino humana, desde la visión de la cúpula a la formación (uno de los cuellos de botella por la escasez de talento tecnológico) o la incorporación de cargos específicos en ciberseguridad IA.

Es más, los rankings de tendencias apuntan a que esa integración debe trascender a las empresas y alcanzar a todos los actores implicados en un modelo de cooperación público-privada: desde las víctimas potenciales y los desarrolladores de soluciones al sistema educativo, las administraciones y las empresas de seguridad.

El tiempo no deja margen. La eclosión del internet de las cosas gracias a las redes 5G es inminente. El 6G asoma y su brutal capacidad de procesamiento permitirá otra generación de servicios. Ambos saltos implicarían vulnerabilidad si, como hasta ahora, muchos de los objetos conectados, desde electrodomésticos a ropa, no se diseñan con la ciberseguridad entre sus obsesiones. Y un riesgo añadido sería, según Europol e informes privados como el de CrowdStrike, que los atacantes reciban recursos por parte de Estados enfrentados en una ciberguerra cada vez más abierta.

 

¿Por qué la IA es tan deseada en el lado oscuro?