Mar Sánchez, Cyber Guru
Mar Sánchez Country Manager en España Cyber Guru

Inteligencia artificial: ¿riesgo u oportunidad?

Inteligencia artificial, IA, ChatGPT

Hace mucho tiempo, en una galaxia muy, muy lejana, había periodistas, escritores y redactores de textos y de contenidos de diversa índole. Eran seres humanos que, a veces, expresaban un talento particular en el uso de la palabra escrita y que, las más de las veces, habían estudiado durante años para formarse y aprender un oficio: contar conceptos y conocimientos complejos de una forma accesible a todos. Hoy, en nuestra Tierra, con la llegada de la inteligencia artificial (IA) y de herramientas como ChatGPT, parece que estos seres humanos están destinados a desaparecer en la rapidísima vorágine tecnológica que desde hace unos años engulle muchos conocimientos y oficios. O eso piensan muchos…

Pero ¿es la IA lo mejor que le ha pasado a la humanidad o el peor error de todos? «La inteligencia artificial tiene el potencial de revolucionar nuestro mundo. Podría ser el mayor logro de la historia de nuestra civilización… pero también el último, a no ser que aprendamos cómo gestionar sus riesgos«. Stephen Hawking, el profesor de Cambridge, pronunció esta sibilina frase durante la inauguración de su nuevo laboratorio de investigación, el Centro Leverhulme para el Futuro de la Inteligencia, en 2016.

Una advertencia que reavivó los innumerables pensamientos apocalípticos sobre el futuro de la IA, pero que en realidad parece volver a poner todo en manos de la humanidad: nosotros mismos determinaremos si esta herramienta nos llevará al éxito o a la ruina.

De hecho, la IA representa un reto complejo, con riesgos y oportunidades que hay que considerar cuidadosamente. Por un lado, existen preocupaciones relacionadas con la seguridad y su uso indebido. Algunos temen que pueda ser explotada por ciberdelincuentes o que se vuelva incontrolable. Por otro, su uso puede mejorar la productividad empresarial, así como ayudar para detectar actividades sospechosas y mitigar los riesgos asociados a la IA generativa. La transparencia y las pruebas continuas de los algoritmos son fundamentales para abordar estos retos. En resumen, la IA es una oportunidad, pero requiere cuidado y responsabilidad en su aplicación.

Riesgos de la IA

Como dijo Qui-Gon Jinn, «La capacidad de hablar no te hace inteligente». La respuesta, como suele ocurrir, es compleja y depende de muchos factores. De hecho, no se pueden negar las ventajas que ofrece esta herramienta, capaz de superar las limitaciones humanas: recopila y procesa grandes cantidades de datos con rapidez, no se cansa, no se distrae y, sobre todo, no comete errores. No es casualidad que el aumento del uso de programas basados en IA haya traído consigo oportunidades sin precedentes en la productividad de las empresas.

Sin embargo, no se puede pasar por alto su temible «lado oscuro». Según el Estudio 3443 sobre Inseguridad en la Red, elaborado por el Centro de Investigaciones Sociológicas en febrero de este año, el 89,1 por ciento de la población considera que existen riesgos en el uso de la IA; y de éstos, casi el 90 afirma que dichos riesgos son «muy graves» o «bastante graves», siendo la manipulación de imágenes para crear contenidos falsos, la imposibilidad de distinguir lo real de lo creado mediante IA y la desaparición de ciertas profesiones las cuestiones que más preocupan a los españoles. Además, el 92,5 por ciento considera necesario que se establezcan limitaciones a la propagación de información falsa en la Red.

Frente a estas preocupaciones, la IA también puede suponer una ayuda real en la lucha contra la ciberdelincuencia. Es más, puede utilizarse para detectar actividades sospechosas y anomalías en la red, identificar riesgos técnicos en los sistemas de hardware y software y diversas amenazas gracias a su capacidad para priorizar los diferentes niveles de riesgo con mayor precisión y sin errores.

No es de extrañar, por tanto, que cada vez más responsables de TI intenten responder a los atacantes utilizando su propia arma. Una reciente encuesta de Gartner Peer Community, realizada entre 150 responsables de TI y de seguridad de la información de entidades que utilizan, tienen previsto utilizar o están explorando la GenAI o modelos fundamentales, señala que el 34 por ciento de las organizaciones ya está empleando o implementando herramientas de seguridad de aplicaciones de IA para mitigar los riesgos asociados a la IA generativa. Y más de la mitad de los encuestados, el 56 por ciento, afirma seguir interesado en este tipo de soluciones.

Falta de conocimiento

«No se puede detener el cambio, como tampoco se puede evitar que los soles se pongan» (Shmi Skywalker). La transparencia y una estructura algorítmica clara son cruciales, ya que la falta de conocimiento sobre el funcionamiento de los modelos de IA puede dificultar su comprensión y su posible mejora. Por consiguiente, está bien elegir programas de IA para crear barreras de protección, siempre y cuando estén respaldados por pruebas y actualizaciones continuas que puedan seguir el ritmo de la velocidad a la que evoluciona la delincuencia.

En este sentido, recientemente, el Gobierno ha aprobado la Estrategia de Inteligencia Artificial 2024. Y uno de sus ejes principales aborda, precisamente, la necesidad de una IA transparente y humanística.

El factor humano como barrera contra las amenazas de la IA

El factor humano, a menudo considerado la causa de la infiltración de la delincuencia en los dispositivos personales y corporativos, sigue siendo un elemento indispensable de la cadena de seguridad.

Para convertir el «eslabón débil» de la cadena en la primera línea de defensa de la empresa, Cyber Guru divide su oferta en tres programas de formación: Cyber Guru Awareness, un módulo de formación continua sobre temas de seguridad informática que consiste en una serie de microlecciones de cinco minutos y un test sobre temas como, por ejemplo, malware, phishing, contraseñas y memorias USB; Cyber Guru Phishing, una formación real que consiste en un sistema de envío de mensajes de phishing por correo electrónico o SMS a modo de sorpresa con el objetivo de crear una especie de «trampa» para poner a prueba el nivel de concienciación de los destinatarios; y el canal Cyber Guru, una miniserie de televisión en la que el protagonista se expone a diferentes escenarios de ataque con el fin de ayudar al espectador a adoptar un comportamiento correcto, aprendiendo de sus errores.

Por último, Cyber Guru evoluciona su oferta proponiendo un modelo único de aprendizaje automático adaptativo que permite al programa de phishing simular ataques cada vez más personalizados destinados a probar el nivel de resistencia de cada individuo, entrenándolo para reconocer y contrarrestar intentos de phishing cada vez más inteligentes.

¡Que la fuerza nos acompañe!