Red Seguridad 104
20 red seguridad primer trimestre 2024 organismos ‘Deepfakes’: la IA que desafía la verdad en la Justicia David Francisco Blanco ABOGADO DEL ESTADO Y SECRETARIO GENERAL DE RED.ES La era digital ha traído consigo un cam- bio radical en muchos ámbitos. Uno de ellos es la forma de presentar y valorar las pruebas en los procesos judiciales. Ya no se trata solo de documentos, tes- tigos o peritos, sino también de correos electrónicos, publicaciones en redes so- ciales, grabaciones, imágenes y vídeos. Todos ellos forman parte de la vida diaria y pueden ser decisivos para el desenlace de un caso en sede judicial. Sin embargo, la seguridad jurídica se ha visto amenazada por la potente irrup- ción de la inteligencia artificial genera- tiva, ya que ha abierto la puerta a una nueva amenaza que desafía la esencia misma de la verdad legal: los deepfakes . Además, al realismo de los contenidos se han sumado la facilidad y generali- zación del acceso a las herramientas de generación y su rápida evolución. Y esto plantea un desafío apasionante, pero crítico, para el sistema de Justicia. Aunque ya existen regulaciones sobre la falsificación y manipulación de prue- bas dirigidas a provocar un error en el juez o tribunal, entre ellas las de los deli- tos como falsedad documental o contra la Administración de Justicia, la cuestión ahora se centra en la determinación de la falsedad en un terreno donde la reali- dad y la ficción se mezclan. Las dificultades residen no tanto en las consecuencias legales, sino en descifrar la verdad en un escenario donde la línea entre lo auténtico y lo fabricado artificial- mente se desvanece como una ilusión fugaz. De este modo, lo fundamental es la implementación de mecanismos fia- bles, consistentes y ágiles que permitan revisar y verificar estos contenidos. Medidas de detección Además del aumento significativo de la carga de trabajo, la detección de dee- pfakes se convierte en una compleja y larga travesía por sí misma. Entidades de referencia, como el Instituto Nacional de Ciberseguridad, ya han propuesto medidas para su detección. Los proce- dimientos manuales resultan laboriosos y falibles, con lo que los sistemas de detección automatizados y permanen- temente actualizados que proporcionen un alto grado de certeza sobre la autenti- cidad del material probatorio se vuelven esenciales como los mejores detectores. En esta línea, algunas empresas de desarrollo de inteligencia artificial ya han anunciado estar trabajando en so- luciones técnicas innovadoras dirigidas a incorporar marcas de agua impercep- tibles al ojo humano en las imágenes generadas artificialmente, pero identifi- cables por herramientas digitales crea- das al efecto, así como en herramien- tas de detección mediante modelos de análisis en tiempo real de materiales audiovisuales para identificar anoma- lías en rasgos faciales o mediciones de aspectos como los umbrales de parpa- deo o el ritmo cardiaco. Sin embargo, pese a estos avances, la carrera entre los desarrolladores tecno- lógicos y los que pretenden eludir los sis- temas de detección constituye una ame- naza permanente. Por ello, la respuesta que demanda esta nueva amenaza ha de ser global, partiendo del desarrollo y de la inversión en capacidades técnicas para hacer frente a los desafíos futuros e involucrando no solo a los responsables de la aplicación de la ley, sino también a legisladores y a los ciudadanos en gene- ral, potenciando la concienciación. La batalla por la verdad en el mundo judicial se libra ahora en el terreno res- baladizo de los deepfakes . Pero ¿está preparada la Justicia para hacer frente a este desafío?
Made with FlippingBook
RkJQdWJsaXNoZXIy MTI4MzQz