A comienzos de diciembre del año 2023 se anunció triunfalmente en la prensa occidental que la primera ley IA de la historia se acababa de aprobar en Europa.
El Viejo Continente se apuntaba el tanto como precursor al establecer con la Ley IA de la UE un marco de obligaciones y normas para la tecnología disruptiva de la Inteligencia Artificial, garantizando la seguridad de los dispositivos IA comercializados y usados en territorio europeo.
Apenas un año y medio antes, varios científicos habían advertido que la ley de la UE no aborda el futuro desde una perspectiva realista, porque no cubre todas las derivas de la Inteligencia Artificial.
¿Qué es la Inteligencia Artificial generativa?
La inteligencia artificial generativa, desarrollada por multinacionales como Google, se considera el futuro de este sector puntero de tecnología. Es capaz de aprender usando archivos colosales de datos en formato textual, visual y sonoro. Pero la legislación europea no cubre esta tecnología directamente, sino solo los usos específicos a los que se destina.
Uno de los científicos que alertaba en junio de 2022 sobre la insuficiencia de la Ley IA de la UE es Max Tegmark, físico y cosmólogo del Massachussets Institute of Technology (MIT). En noviembre de 2023 aseguraba que el nivel de avance de la inteligencia artificial generativa es tan veloz que ya ha alcanzado cotas como para igualar a la inteligencia humana en el campo cognitivo, llegando a superarla en análisis complicados para la toma de decisiones.
“Abundan las personas incapaces de entender que estamos ante el comienzo de una superinteligencia, y que parecen entender la IA como un simple avance tecnológico comparable a la electricidad,” dice Tegmark. “Debemos ser conscientes de que la inteligencia tecnológica que está naciendo es una clase de IA sin precedentes, que requiere evaluaciones de riesgos con sistemas eficaces que usen algoritmos para supervisar los algoritmos IA, es decir, que hagan auditorías algorítmicas”.
Puntos ciegos en la Ley IA de Europa
La Ley IA se refiere a los modelos generativos tipo GPT3 y GPT4 como «modelos fundacionales». Es decir, dispositivos tecnológicos que se construyen mediante el aprendizaje autosupervisado de grandes cantidades de datos no etiquetados. Diseñados para obtener resultados generales, son capaces de adaptarse a una amplia gama de tareas específicas.
Entre los abundantes riesgos que plantean los modelos generativos destacan la creación y difusión de información falsa o trucada —como un deepfake con texto sintético o con audio y vídeo manipulados— que perjudique a personas, empresas o instituciones, socavando la estabilidad sociopolítica y la seguridad nacional. Las consecuencias negativas afectarían a la conducta social, la capacidad cognitiva y el derecho a la información, ya que estos modelos podrían usarse para alterar o manipular las ideas, opiniones y conductas de la población mundial, llegando a interferir en su percepción de la realidad y su noción de la identidad.
Además, los modelos generativos podrían poner en peligro las leyes de propiedad intelectual, generando o plagiando contenidos que vulneren los derechos o intereses de los creadores originales o que engañen a los consumidores.
Como ejemplo de los ángulos muertos legales que plantea la Inteligencia Artificial, recordemos el caso español de los menores de Almendralejo que usaron una app IA para crear desnudos falsos de una veintena de compañeras de colegio. El acceso universal a una tecnología con vertientes delictivas casi infinitas es proporcional al desafío que afrontan la Justicia y las Fuerzas de Seguridad al intentar reglamentar la Inteligencia Artificial. La ley europea proclama su propósito de adaptarse a la evolución global de la digitalización, pero ese futuro es sencillamente impredecible.
Archivado en: