Red Seguridad 105
30 red seguridad segundo trimestre 2024 monográfico inteligencia artificial El éxito reciente de la inteligencia arti- ficial (IA) en aplicaciones tales como pronósticos financieros, recomendación de productos en compras en línea, reco- nocimiento de imagen y voz, generación de lenguaje, etcétera, ha llevado a una mayor adopción de ésta en muchos es- cenarios y, en consecuencia, a que sea cada vez más ubicua. Por un lado, las soluciones impulsa- das por IA se utilizan cada vez más en la toma de decisiones críticas; por ejem- plo, en la gestión de centrales eléctricas o en el diagnóstico médico. Pero por otro, la IA se integra como un compo- nente en sistemas más grandes que se vuelven dependientes de las decisiones de sus algoritmos. Estos nuevos desarro- llos requieren de manera urgente que las soluciones de IA sean seguras y sus decisiones fiables. Y esto no ha hecho más que empezar con la irrupción de la IA generativa. No en vano, en los últimos años se ha hecho eco de casos de comporta- mientos no esperados y ataques contra estos sistemas, causando daños econó- micos, fuga de información y, de forma no cuantificable, pérdida de la confianza que tienen los usuarios en los algoritmos de IA. Sirvan de ejemplo el Microsoft Azure Service Disruption, ataque que formó parte de un ejercicio en el que el Red Team de Azure logró comprometer el funcionamiento de un servicio interno de Azure; o el VirusTotal Poisoning, ata- que en el que se envenenó el dataset usado por los modelos de machine lear- ning de VirusTotal para clasificar familias de ransomware . Ataques a la IA Existe una interminable lista de poten- ciales ataques donde la IA es vulnerable. Si se compromete la entrada o la salida del modelo (es decir, que los datos que entran/salen del modelo pierden la in- tegridad, autenticidad y no-repudio) ha- blamos de componente del dato. Si se intenta poner en riesgo la integridad y au- tenticidad de la algoritmia, hablamos de componente de modelo. Finalmente, si se compromete la confidencialidad, dis- ponibilidad y la integridad de éste, habla- mos de componente de infraestructura. Componente del dato: Sesgos en los datos . Uno de los pro- blemas recurrentes en las aplicacio- nes basadas en los sistemas de IA es la confianza que tiene el usuario en el dato, tanto en la entrada al modelo como en las predicciones automáti- cas que produce. Recolección de datos . Un ataque co- nocido contra los sistemas basados en IA son los de suplantación. Aquí, un atacante se hace pasar por un ac- Seguridad de la IA: clave para su confiabilidad y adopción generalizada J avier Z ubieta * Presidente de la Comisión de Ciberseguridad de AMETIC Los ataques contra sistemas de IA han causado daños económicos, fuga de información y pérdida de confianza *Este artículo es un extracto del documento “Informe sobre Seguridad en Inteligencia Artificial 2024”, publicado por la Línea de Traba- jo de Anticipación de Tecnologías Futuras de la Comisión de Ciberseguridad de AMETIC. Un informe que ha sido redactado por varios integrantes de esta Línea de Trabajo, de la que Javier Zubieta actúa como portavoz.
Made with FlippingBook
RkJQdWJsaXNoZXIy MTI4MzQz