Javier Zubieta, presidente de la Comisión de Ciberseguridad de AMETIC.
Javier Zubieta Presidente de la Comisión de Ciberseguridad AMETIC

Seguridad de la IA: clave para su confiabilidad y adopción generalizada

Este artículo es un extracto del documento ‘Informe sobre Seguridad en Inteligencia Artificial 2024’, publicado por la Línea de Trabajo de Anticipación de Tecnologías Futuras de la Comisión de Ciberseguridad de AMETIC. Un informe que ha sido redactado por varios integrantes de esta Línea de Trabajo, de la que Javier Zubieta actúa como portavoz.

Confiabilidad y adopción de la inteligencia artificial (IA).

El éxito reciente de la inteligencia arti­ficial (IA) en aplicaciones tales como pronósticos financieros, recomendación de productos en compras en línea, reco­nocimiento de imagen y voz, generación de lenguaje, etcétera, ha llevado a una mayor adopción de ésta en muchos es­cenarios y, en consecuencia, a que sea cada vez más ubicua.

Por un lado, las soluciones impulsa­das por IA se utilizan cada vez más en la toma de decisiones críticas; por ejem­plo, en la gestión de centrales eléctricas o en el diagnóstico médico. Pero por otro, la IA se integra como un compo­nente en sistemas más grandes que se vuelven dependientes de las decisiones de sus algoritmos. Estos nuevos desarro­llos requieren de manera urgente que las soluciones de IA sean seguras y sus decisiones fiables. Y esto no ha hecho más que empezar con la irrupción de la IA generativa.

No en vano, en los últimos años se ha hecho eco de casos de comporta­mientos no esperados y ataques contra estos sistemas, causando daños econó­micos, fuga de información y, de forma no cuantificable, pérdida de la confianza que tienen los usuarios en los algoritmos de IA. Sirvan de ejemplo el Microsoft Azure Service Disruption, ataque que formó parte de un ejercicio en el que el Red Team de Azure logró comprometer el funcionamiento de un servicio interno de Azure; o el VirusTotal Poisoning, ata­que en el que se envenenó el dataset usado por los modelos de machine lear­ning de VirusTotal para clasificar familias de ransomware.

Los ataques contra sistemas de IA han causado daños económicos, fuga de información y pérdida de confianza

Ataques a la IA

Existe una interminable lista de poten­ciales ataques donde la IA es vulnerable. Si se compromete la entrada o la salida del modelo (es decir, que los datos que entran/salen del modelo pierden la in­tegridad, autenticidad y no-repudio) ha­blamos de componente del dato. Si se intenta poner en riesgo la integridad y au­tenticidad de la algoritmia, hablamos de componente de modelo. Finalmente, si se compromete la confidencialidad, dis­ponibilidad y la integridad de éste, habla­mos de componente de infraestructura.

1. Componente del dato:

  • Sesgos en los datos. Uno de los pro­blemas recurrentes en las aplicacio­nes basadas en los sistemas de IA es la confianza que tiene el usuario en el dato, tanto en la entrada al modelo como en las predicciones automáti­cas que produce.
  • Recolección de datos. Un ataque co­nocido contra los sistemas basados en IA son los de suplantación. Aquí, un atacante se hace pasar por un ac­tor legítimo con la finalidad de intro­ducir nuevos datos, corrompiendo así la autenticidad de éstos.

2. Componente de modelo:

  • Ataques de envenenamiento. Buscan corromper el conjunto de entrena­miento del modelo para reducir la pre­cisión del modelo IA. Están enfocados a inyectar datos orientados a degradar partes específicas del modelo.
  • Ataques del adversario. Buscan aprender los patrones internos del algoritmo con el fin de poder inferir información alterada.

3. Componente de entorno:

  • Legitimidad. Estos ataques explotan puertas traseras introducidas en el código fuente de librerías y reposito­rios no autorizados.
  • Acceso al modelo. En necesario ase­gurar que solo las personas autoriza­das tienen acceso al modelo y que la API que se utiliza es segura, evitando así accesos no deseados y exfiltra­ción de información.

Actualmente, MITRE, organización sin ánimo de lucro enfocada al estudio de amenazas y fraudes digitales, está ela­borando un marco de ataques enfocado hacia los sistemas de inteligencia artifi­cial llamado ATLAS (Adversarial Threat Landscape for Artificial-Intelligence Systems), de forma similar a los otros marcos que ya son una referencia en sus respectivos campos, tales como ATT&CK, PRE-ATT&CK, CAPEC y DEFEND. Otras iniciativas, también en desarrollo, son NISTIR 8269 – A Taxonomy and Termi­nology of Adversarial Machine Learning y ENISA Big Data Threat Landscape and Good Practice Guide.

Expectativas

En un futuro, disponer de aplicaciones seguras será un requisito indispensable para que éstas puedan ser puestas en funcionamiento. Hoy en día, dos dimen­siones (trustworthiness y marco legal) han de permitir aumentar la calidad de los sistemas de IA.

Trustworthiness. La ventaja directa de desarrollar aplicaciones teniendo en cuenta la seguridad de la IA es que la confianza que tiene el usuario final en el modelo se ve reforzada, ya que éste puede tanto entender el propio mode­lo (transparencia algorítmica) como asegurar que no tiene sesgos y que se evitan problemas de discriminación. De igual modo, avanzar hacia una IA segura ayuda a democratizarla, de manera que pueda llegar a más usua­rios y no sea vista como una amenaza.

Marco legal. Las instituciones euro­peas están trabajando en diferentes marcos normativos para que la segu­ridad sea un prerrequisito para todo sistema basado en proveer decisio­nes automatizadas. Cabe destacar en este sentido la Artificial Intelligence Act, donde se propone categorizar las aplicaciones de IA de acuerdo a sus riesgos, adaptando los requisitos al nivel de riesgo para que no se dañe al usuario final. Otra iniciativa regula­dora de la Unión Europea en curso es la Civil Liability, que tiene el propósito de adaptar las normas de responsabi­lidad civil a la era digital y de la IA.

La IA comporta, en algunos casos, el tratamiento masivo de datos, que pueden contener información personal­mente identificable de personas físicas. Normativas como el Reglamento Gene­ral de Protección de Datos protegen los derechos y libertades de las personas físicas en relación con el tratamiento de sus datos personales y la privacidad, y afectan también a la IA.

Obstáculos

Una de las principales carencias es la escasa investigación y la falta de vali­dación de ataques contra modelos IA en entornos de producción. Esta carencia también se traslada al mundo de De­vOps, donde no existe ningún framework de amplia adopción que permita agilizar y estandarizar la seguridad para siste­mas basados en IA.

Otro inconveniente detectado es la falta de herramientas de benchmarking, baselines o checklist enfocadas a testear, establecer o auditar la seguridad de la IA. No en vano, benchmarks de seguridad para los módulos y sistemas de IA, rea­lizados por asociaciones como el Center for Internet Security, ayudarían a una im­plementación más segura de la IA.