Red Seguridad 105

46 red seguridad segundo trimestre 2024 monográfico inteligencia artificial El desarrollo de la inteligencia artificial (IA) y del aprendizaje automático (ML) ha impactado en la transformación digi- tal como ninguna otra tecnología en la última década. En este tiempo se han alcanzado hitos significativos desde los inicios del aprendizaje supervisado y se ha avanzado con paso firme en el desa- rrollo del aprendizaje no supervisado, del semisupervisado y del aprendizaje profundo o deep learning . En esta línea, la última frontera al- canzada por la inteligencia artificial ha sido la IA generativa, y concretamente los modelos de IA generativa basados en LLM ( Large Language Models ), para el aprendizaje automático a partir de un conjunto masivo de datos de texto y código. Algunos ejemplos incluyen la traducción de idiomas, la escritura de contenido creativo o técnico y la gene- ración de conversaciones. Pero, sin duda, el factor que ha cam- biado las reglas del juego ha sido la de- mocratización del acceso a modelos LLM con soluciones como ChatGPT, Bard o Llama, combinadas con técnicas de pro- cesamiento del lenguaje natural (NLP). Ante estos hechos, resulta innegable que los modelos LLM aceleran la digitali- zación y la evolución de los procesos de negocio empresariales, reemplazando las tareas tradicionales basadas en el desarrollo mediante reglas. No obstante, su adopción también plantea aspectos negativos por su utilización por colec- tivos con intereses opuestos, así como efectos colaterales en la ética, la priva- cidad y, por supuesto, la ciberseguridad. Lado negativo En el lado negativo, los LLM pueden so- fisticar e industrializar los ciberataques y así dificultar su detección por el usuario final. Algunos ejemplos son: Ataques de ingeniería social. Com- prenden el contexto e imitan la forma humana de elaborar textos, generan- do comunicaciones interactivas de forma industrializada que las personas fácilmente pueden confundir con inte- racciones humanas. Ataques de phishing . Aprenden patro- nes habituales en las comunicaciones desde entidades legítimas para crear emails personalizados altamente con- vincentes, imitando tales comunica- ciones ( spear phishing ) y explotando en ellas principios psicológicos clave como la urgencia o el miedo. Hacking industrializado. Despliegan aplicaciones automatizadas para identificar vulnerabilidades de los sis- temas e idear estrategias para explo- tarlas (por ejemplo, usando Pentest- GPT en conjunción con LLM). Generación de payloads para ata- ques. Generan payloads en inyeccio- nes SQL o ataques de bypass en sis- temas WAF de forma que puedan ser utilizados en ataques automatizados. Generación de malware y ran- somware . Crean código malicioso de forma automatizada y en un tiempo reducido. Generación de malware polimórfico. Generan un código base y un motor polimórfico que modula el código del malware en cada ejecución, evadien- do así los sistemas de detección y sus capacidades de erradicación. Lado positivo En otro lado de la balanza, los LLM pue- den ser aprovechados para mejorar la productividad y la eficiencia de los equi- pos de ciberdefensa y de los sistemas de protección. Algunos ejemplos son: Automatización de la ciberdefensa. Reducen la carga de los analistas Inteligencia artificial generativa: ¿amenaza u oportunidad? A nder O rtiz O rtega CRO de Mnemo J osé M iguel D íaz R ellán CTO de Mnemo

RkJQdWJsaXNoZXIy MTI4MzQz