Red Seguridad 107

134 red seguridad cuarto trimestre 2024 opinión gración de su IA, conocida como Apple Intelligence, no se producirá en Europa, por lo menos, a corto plazo. A lo largo del año 2025, Apple Intelligence esta- rá disponible en varios idiomas, entre los que se incluye el español, pero no estará operativa en la Unión Europea, debido a la política de Bruselas con res- pecto a la IA. Para aplicar correctamente el RAI, resulta imprescindible saber distinguir entre qué es la IA y qué no lo es. El pro- blema es que el concepto “inteligencia artificial” se está utilizando, en algunos casos, solo como una estrategia de mar- keting. Hacer referencia a la IA como componente de un producto o servicio despierta cierta fascinación y hace más atractiva su comercialización, aunque verdaderamente no la incorporen. Este uso indiscriminado puede dar lugar a una aplicación incorrecta del RAI, gene- rando así confusión a la hora de determi- nar qué requisitos y obligaciones legales resultan verdaderamente exigibles en cada caso. Riesgos del uso de la IA A pesar de la regulación europea de la IA, hay que tener en cuenta que su uti- lización expone a usuarios y empresas a una serie de peligros. En primer lugar, existen riesgos relacionados con el em- pleo que el proveedor de la IA generati- va va a hacer de la información que se proporciona en los prompts (entradas de información que realizan los usuarios), debido a que se trata de un entorno no controlado. Por ejemplo, OpenAI, empresa creado- ra del modelo GPT, declaró abiertamente que utilizaba los datos introducidos por los usuarios en ChatGPT tanto para reen- trenar a sus modelos, como para ceder estos datos a posibles terceros. También existen riesgos relacionados con incidentes de seguridad que pueden sufrir los proveedores de IA generativas, y que podrían comprometer la informa- ción sensible que se les proporciona en los prompts . De hecho, ChatGPT sufrió un incidente de seguridad en marzo de 2023 que, además de afectar a infor- mación confidencial general, afectó a datos de carácter personal y quedaron expuestas conversaciones de usuarios con la herramienta, así como datos de pago de sus suscriptores. Por otro lado, hay que tener en cuenta que estas herramientas pueden gene- rar resultados incorrectos, inventados o “alucinaciones”, ya que no están siendo supervisadas de forma activa y continua por seres humanos a la hora de gene- rar respuestas. Por tanto, será necesario que estas respuestas sean siempre su- pervisadas. Finalmente, existen riesgos relaciona- dos con la propiedad intelectual, debido a que no todas las creaciones realizadas a través de sistemas de IA tendrán pro- tección. Esto es consecuencia de que la normativa en materia de propiedad intelectual requiere que, para que una obra se encuentre protegida, exista una creación humana relevante. Por lo tanto, a priori , podrían quedar sin protección obras generadas por IA con base en unos prompts básicos. Para aplicar correctamente el RAI, resulta imprescindible saber distinguir entre qué es la IA y qué no lo es

RkJQdWJsaXNoZXIy MTI4MzQz