Auditoría Pública nº 77. Revista de los órganos autonómicos de control externo

REVISTA AUDITORÍA PÚBLICA / 77 40 Como se puede ver, la novedad del tema, la confluencia con la metodología de las auditorías de sistemas de información y la indefinición de los propios marcos regulatorios son algunos de los principales problemas a la hora de afrontar una auditoría de sistemas de inteligencia artificial. En este sentido, es importante recordar la variedad de modelos y marcos existentes, tal y como pone de manifiesto un reciente documento de Open Government Partnership ( BASU y PÉREZ , 2020). Según estos autores, hay tres modelos de gobernanza algorítmica en estos momentos: 1. Obligado por la ley: Francia tiene un marco legal que obliga a abrir los algoritmos ( Law for a Digital Republic ), por lo que el ámbito de aplicación de la política se establece en la ley. Las administraciones deben publicar en línea una lista de algoritmos cuando se utilizan para tomar decisiones que afectan a la vida de los ciudadanos. 2. Obligado por la política ( Committed by policies ): Canadá tiene una directiva emitida por el comité de supervisión de finanzas y operaciones del gobierno federal, que establece los requisitos sobre cómo se pueden utilizar los algoritmos para apoyar la prestación de servicios a los ciudadanos. El cumplimiento de esta directiva es obligatorio para los departamentos del gobierno federal canadiense, y de hecho se acaba de actualizar en abril de 2021 ( GOVERNMENT OF CANADA , 2021). 3. Voluntario: En Nueva Zelanda, el enfoque de los algoritmos se basa en un compromiso público de los organismos gubernamentales, no en una norma legal. El país creó una carta de algoritmos (incluso como parte de un compromiso de la Open Government Partnership ) que fue sometida a consulta pública y actualmente está trabajando en su aplicación ( GOVERNMENT OF NEW ZEALAND, 2020). Como en cualquier enfoque voluntario, uno de los retos es que no todos los organismos se han comprometido a aplicar la carta. Es importante tener en cuenta que muchos de estos cambios se están produciendo antes de que se establezcan los marcos legales. Esto es una limitación, pero también una oportunidad que ha permitido un movimiento más rápido y ágil. Para el control externo, la construcción de diferentes arquitecturas institucionales y la intersección de competencias con otras agencias reguladoras -por ejemplo, las de protección de datos, o las de protección de los derechos de los consumidores- dificultan la posibilidad de ejercer la misión de fiscalizar el uso de estas herramientas y el resultado de las decisiones implementadas a través de ellas. No obstante, el ejemplo holandés puede servir de marco de referencia en caso de que se plantee la voluntad de dar un paso adelante en este controvertido y apasionante terreno. 4. El caso del control externo en los Países Bajos De las cinco Instituciones de Control Externo que promovieron el documento sobre la auditoría de algoritmos basados en machine learning , es el Tribunal de Cuentas de Holanda ( Netherlands Court of Auditors ) -y también la Cámara de Cuentas regional de Rotterdam ( Rekenkamer Rotterdam )- el que más ha avanzado en la aplicación práctica de los principios desarrollados. Este comportamiento tiene que ver, de entrada, con su propia planificación estratégica, ya que en sus dos últimos planes se llama la atención sobre la evolución constante del sector público y el desafío que supone la utilización de nuevas tecnologías por parte de los gobiernos auditados. Holanda, en esta manifestación de interés, va por delante. Así, en su documento estratégico del período 2016-2020, titulado “Confianza basada en la comprensión” ( Trust based on Understanding ), ya se señalan los riesgos derivados del uso de las tecnologías en el sector público, en un escenario de necesaria modernización pero en el que no siempre se tienen en cuenta las verdaderas necesidades y capacidades de la ciudadanía. En esta planificación estratégica, el Tribunal de Cuentas holandés señala que “estas constantes reorganizaciones han convertido al ‘gobierno’ en una compleja estructura de organizaciones y técnicas de financiación, sin una división clara de funciones y responsabilidades y con límites a menudo borrosos entre los flujos de dinero público y privado. La experiencia práctica nos ha enseñado que esta situación puede suponer un riesgo para la prestación eficiente de los servicios públicos y para la regularidad del gasto público. También dificulta el ejercicio del derecho del Parlamento a aprobar y modificar la política presupuestaria. El seguimiento del flujo de dinero delTesoro a los ciudadanos no suele ser una tarea fácil. También hace más difícil saber exactamente quién es responsable de qué, y medir los resultados y el impacto de las políticas gubernamentales. Para el público en general, la situación es incluso aún más opaca. En otras palabras, hay deficiencias en la forma en que el gobierno informa sobre el gasto del dinero público. Esto repercute en nuestro trabajo” (Netherlands Court of Audit, 2016, p.8). A este documento estratégico le ha sucedido uno nuevo referido al horizonte temporal 2021-2026, titulado “Confianza en la Rendición deCuentas” ( Trust inAccountability ). De nuevo aparece la palabra confianza, lo que parece significativo, ya que en el ámbito de la aplicación de la inteligencia artificial a las decisiones públicas se utiliza el término “trustworthy AI ”, es decir, inteligencia artificial confiable o digna de confianza. Se insiste en la idea de desentrañar cómo se toman las decisiones, para evitar su opacidad, la posible comisión de injusticias al basar la gestión en algoritmos, o incluso el rechazo social derivado de la incomprensión o la ausencia de motivación clara en las decisiones tomadas.

RkJQdWJsaXNoZXIy MTEw