La necesidad del ‘compliance’ en la inteligencia artificial
El uso de sistemas inteligentes en el sector privado y, en especial, en el público, está sujeto a importantes limitaciones legales
Aunque no exista una legislación específica sobre inteligencia artificial (IA), hay importantes limitaciones jurídicas a su empleo. No respetarlas puede suponer conflictos que conlleven su anulación y la imposición de sanciones, con pérdida de inversiones y riesgo reputacional para las compañías.
La aplicación de la inteligencia artificial en la empresa y en el sector público suele plantear unos requerimientos éticos, como el de no inducir a sesgos que supongan discriminación. Es una aproximación muy necesaria, pero no suficiente. Existen, además, importantes limitaciones legales al empleo de esta tecnología, que derivan de la aplicación del derecho general. Afectan al sector privado, y más intensamente aún al sector público, cuyo marco legal es más riguroso.
Con carácter general tenemos dos importantes limitaciones constitucionales: el artículo 14 de la Constitución, que prohíbe toda discriminación, y el artículo 18 del mismo texto legal, en lo relativo a la protección de datos personales.
Por lo que se refiere a la prohibición de discriminación, en Europa ya se han dictado importantes sentencias que han anulado decisiones sustentadas en algoritmos que inducían a sesgos de alcance discriminatorio, como la del Tribunal de Distrito de La Haya de 5 de febrero de 2020, que, en el ámbito público, anuló una elaboración de perfiles para la lucha contra el fraude; o la del Tribunal Ordinario de Bolonia de 31 de diciembre de 2020, que anuló el algoritmo utilizado por Deliveroo para asignar encargos a los riders. Estos mismos pronunciamientos judiciales pueden producirse en España, con el consiguiente riesgo reputacional y de pérdida de las inversiones económicas (considerables) aplicadas a su desarrollo e implementación.
Por su parte, en materia de protección de datos, la Agencia Española de Protección de Datos (AEPD) ya ha emitido dos relevantes documentos en los que determina cómo debe preservarse este derecho tanto en la “Adecuación al RGPD de tratamientos que incorporen inteligencia artificial” (febrero de 2020), como en cuanto a los “Requisitos para auditorías de tratamientos que incluyan inteligencia artificial” (febrero de 2021). El incumplimiento de estos parámetros podría conducir a la presentación de denuncias por los afectados y a la imposición de sanciones.
En el sector público se producen otros condicionamientos adicionales, como la motivación de los actos administrativos. Es necesario que el algoritmo utilizado para la toma de decisiones por la Administración sea transparente y explicable, pues de otro modo no podría verificarse la objetividad de la decisión y controlarse su ajuste a los derechos de los ciudadanos. En este sentido, ya se han pronunciado dos sentencias del Tribunal Supremo (Consiglio di Stato) italiano, de 8 de abril y 19 de diciembre de 2019, anulando decisiones sustentadas en algoritmos que no resultaban explicables. En España todavía no se han pronunciado al respecto, pero no me cabe duda de que nuestros tribunales llegarían a la misma conclusión (anulatoria de actos administrativos e imposibilitadora del empleo de la herramienta en lo sucesivo) si se impugnan decisiones basadas en algoritmos que no sean transparentes e inteligibles (por ejemplo, los utilizados en deep learning y, en especial, los denominados algoritmos de caja negra).
En definitiva, antes de proceder al desarrollo e implementación de soluciones de inteligencia artificial, tanto el sector público como el privado deben prever un compliance de cumplimiento de las exigencias jurídicas al empleo de esta tecnología que ya derivan del derecho vigente en la actualidad y que comienzan a ser imprescindibles para las empresas.
Eduardo Gamero Casado. Consejero de Montero Aramburu. Miembro del consejo asesor de la Fundación Inteligencia Artificial Legal (FIAL)