Auditoría Pública nº 77. Revista de los órganos autonómicos de control externo

REVISTA AUDITORÍA PÚBLICA / 77 38 d) Protección y gestión adecuada de los datos: esta gestión “debe responder a los principios del tratamiento que establecen el RGPD y la LOPDGDD, como la exactitud, la limitación del plazo de conservación, la limitación de la finalidad o la integridad y confidencialidad de los datos” 8 . Respecto a la auditoría en sí de los sistemas, propone un trabajo en cinco etapas (estudio preliminar, mapeo, plan de análisis, análisis e informe de auditoría), que comienza con una captación de información preliminar sobre el algoritmo para determinar “quién lo encarga, lo diseña, lo desarrolla, lo financia y lo implementa, y cuál es el problema que se pretende resolver usando ese algoritmo” (Éticas, 2021, p. 28) y termina con un informe de auditoría que “deje constancia del proceso realizado, así como del cumplimiento legal y ético, la precisión, la aceptabilidad y la deseabilidad del modelo en base a la interpretación de los resultados” (Ibidem, p. 61). Esta Guía permite entender, sin profundizar en conocimientos técnicos, de qué se habla cuando se habla de auditoría algorítmica. Además de este interesante documento, en abril el Ayun- tamiento de Barcelona ha hecho público su Medida de Gobierno de la estrategia municipal de algoritmos y datos para el impulso de la ética artificial. Las ciudades están tomando la delantera en la Fuente: Ayuntamiento de Barcelona (2021). toma de decisiones relacionadas con el uso de algoritmos, como lo ponen de manifiesto los casos de los registros públicos de algoritmosdeHelsinki oRotterdam(SAIDOT, 2021), oesta iniciativa de Barcelona. En esta Medida de Gobierno llama la atención, dentro de las recomendaciones técnicas, la parte dedicada al análisis de riesgos: “una aplicación de la IA debe considerarse de riesgo elevado tanto desde la perspectiva de la protección de la seguridad como desde la perspectiva de los derechos fundamentales de las personas. (…). Deben considerarse de riesgo elevado —y por lo tanto exigen un control especial— todas las aplicaciones de la IA con efectos jurídicos sobre los derechos de una persona, las que puedan causar lesiones, la muerte o daños materiales (o inmateriales significativos), así como las que puedan producir efectos imposibles de evitar por las personas” (Ayuntamiento de Barcelona, 2021, p. 37). El documento del Ayuntamiento de Barcelona apuesta por la construcción de una Inteligencia Artificial fiable (lo que en el Libro Blanco de la IA de la Comisión Europea se define como ‘trustworthy AI’, esto es, una IA digna de confianza, a partir del siguiente proceso, que también toma en consideración la reciente Carta dederechos digitales , impulsada por laSecretaría de Estado de Digitalización e Inteligencia Artificial (SEDIA) del Ministerio de Asuntos Económicos y Transformación Digital: 8. En este punto no me resisto a recomendar un artículo académico del máximo interés: Kaminski, M. E. (2019): Binary Governance: Lessons from the GDPR’s Approach to Algorithmic Accountability . Southern California Law Review, vol. 92, pp. 1529-1616.

RkJQdWJsaXNoZXIy MTEw