La protección de los datos personales no solo afecta a la custodia de quienes los obtienen por medios lícitos, sino también a cómo estos los emplean para tomar decisiones.
No en vano, más allá de los procedimientos y medios técnicos necesarios para gestionar su custodia, el tratamiento de los datos, en particular a través de técnicas de Inteligencia Artificial (IA), despierta un extraordinario interés entre muchas compañías.
Tratamiento de la información personal y herramientas de IA
No somos ajenos al perfilado de características individuales que las compañías hacen con nuestros datos. Un perfilado que utilizan para hacernos llegar ofertas, productos de interés o, lo que es más relevante e inquietante, para decidir nuestra idoneidad para un empleo o para la concesión de un crédito bancario. Tanto es así que en algunos países (obviamente fuera de la Unión Europea) los datos se utilizan incluso para valorar el “nivel de ciudadanía” de una persona.
Es evidente que el tratamiento de los datos personales tiene un protagonismo fundamental en la gestión diaria que hacen aquellos a los que concedemos ciertos derechos de uso y almacenamiento. Por eso mismo, resulta indispensable pensar en si debemos permitir su utilización para determinados fines. Se trata de un derecho que el RGPD nos otorga.
Podríamos ir incluso un poco más lejos porque el RGPD también nos reconoce otros derechos: el derecho a conocer la información personal que un tercero tiene de nosotros, el derecho de acceso a esos datos, el derecho a que los datos sean corregidos si es necesario, el derecho a retirar el consentimiento a su uso, el derecho al olvido o el derecho a transferir los datos a terceras partes.
Derecho de oposición y derecho de oposición al tratamiento automático
Hemos dejado para el final dos derechos indispensables que son menos conocidos: el derecho de oposición y el derecho de oposición al tratamiento automático. Estos son los dos puntos donde las fricciones con el uso de la Inteligencia Artificial son mayores.
La Unión Europea lleva tiempo planteándose una nueva legislación relativa al uso de la IA en el tratamiento de información personal. Incluso la Agencia Española de Protección de Datos publicó en 2020 una guía en la que recogía cómo las herramientas de IA debían adecuarse al RGPD para evitar la discriminación, las decisiones injustas, o la denegación de un servicio o producto cuando una decisión era tomada por parte de una máquina.
Sin embargo, hoy en día, la controversia en cuanto a la verdadera adecuación continúa latente.
El debate gira en torno al artículo 22 del RGPD que en su apartado primero dice: “Todo interesado tendrá derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado, incluida la elaboración de perfiles, que produzca efectos jurídicos en él o le afecte significativamente de modo similar.”.
Artículo 22 del RGPD y el derecho a una explicación
Aunque el articulo completo tiene matices posteriores que podrían legitimar a los depositarios para este tratamiento, algunos expertos han manifestado que la correcta interpretación de este artículo debe tener en cuenta un último derecho que no hemos mencionado hasta el momento: el derecho a una explicación.
Este derecho podría poner en tela de juicio muchas de las herramientas de IA cuyos algoritmos son difícilmente explicables por aquellos que los emplean.
Para solventar esta dificultad, algunos expertos creen que la incorporación de un decisor humano en el proceso puede solventar el problema. De esta forma, las herramientas de IA se presentarían como ayudas durante el procedimiento cuya decisión final se atribuiría a una persona, o colectivo de personas concretas.
El papel del decisor humano
No se puede obviar que la participación humana en este proceso no puede ser testimonial. De hecho, debería llevarse a cabo por personas que tuvieran la autoridad y la competencia para cambiar la decisión. Aunque o no solo eso; además los decisores deberían ser capaces de explicarla. Algo que no resulta tan evidente cuando, por poner un ejemplo, un sistema de videovigilancia basado en técnicas de IA decide que una persona es sospechosa y sugiere al agente de la autoridad su registro o detención, o cuando un sistema crediticio propone conceder o denegar una línea de crédito o despedir a una persona.
La casuística de situaciones es muy amplia. De ahí la pregunta que siempre deberíamos hacernos: ¿por qué los decisores han llegado a una conclusión particular sobre nosotros?
En la explicación precisamente puede estar una parte de su ilegalidad.
Sea cual sea el caso, no está de más recordar que el RGPD recoge derechos que como ciudadanos no deberíamos olvidar. Derechos que deberíamos ejercer no solo porque está en juego nuestra privacidad sino también porque el tratamiento por terceras partes de esa, a veces infravalorada, información personal puede llegar a ser ilegal, y más aún cuando las decisiones que se tomen con ella resulten difícilmente explicables.