Auditoría Pública nº 76. Revista de los órganos autonómicos de control externo

mar sus decisiones y establecer los porcentajes de riesgo de incumplimiento de cada empresa o de los distintos sectores” (Todolí Signes, 2020, p. 334). En términos similares se expresa Lorenzo Cotino, cuando sostiene que la posibilidad de usar big data para buscar la ilegalidad es perfectamente plausible pero que debe ir acompañada de un “estándar elevado de garantías” (Cotino Hueso, 2020), y que “especialmente hay que conocer el uso de la IA en las fases previas o de asistencia a las decisiones humanas, para evitar la huida del Derecho” (Cotino Hueso, 2020, p.3). Otro especia- lista en la materia, Óscar Cortés, llega a hablar incluso de “privatización por la puerta de atrás del derecho ad- ministrativo” (Cortés, 2020), lo que obliga a extremar la cautela en el uso de estas herramientas por parte de determinadas administraciones públicas, como las ins- pecciones de Hacienda o de Trabajo. En todo caso, los expertos coinciden en afirmar que estas tareas de fil- trado pueden estar bajo el paraguas de la recopilación de información y actuaciones previas que contempla la normativa vigente (artículo 55 de la Ley 39/2015 del Procedimiento Administrativo Común). En todo caso, hay consenso en el sentido de que deben servir para de- limitar, pero no para decidir, y esta conclusión es rele- vante para el diseño de futuras actuaciones por parte de las instituciones de control externo. 4.- LAS IMPLICACIONES ÉTICAS DEL USO DE HE- RRAMIENTAS TECNOLÓGICAS EN LA AUDITORÍA PÚBLICA Y EL CONTROL EXTERNO En un artículo reciente hice referencia a la figura de Miklos Vasarhelyi, profesor de la Rutgers Business School y una de las figuras académicas y prácticas que más ha escrito y publicado sobre la transformación digital de la auditoría (Benítez Palma, 2020). Una de sus más re- cientes y notables publicaciones hace referencia a las implicaciones éticas del uso de la inteligencia artificial en la auditoría, y sus reflexiones merecen ser leídas por su profundidad y acierto (Munoko, Brown-Liburd y Va- sarhelyi, 2019). Hay dos cuestiones que me gustaría destacar de este importante artículo. En primer lugar, los autores propo- nen un gran marco que relaciona las aplicaciones de la inteligencia artificial en la auditoría con el aumento de las capacidades o competencias ( capabilities ), los retos ( challenges ) y los valores en riesgo en la profesión de au- ditor. Así, de la misma manera que se puede aumentar la eficiencia, trabajar con grandes cantidades de datos, me- jorar la eficiencia, automatizar tareas repetitivas, aproxi- marse al viejo sueño de la auditoría continua o identi- ficar en tiempo real problemas de cumplimiento de los clientes, entre los retos señalan la necesidad de evitar los sesgos algorítmicos, la necesidad de aplicación del factor humano para detectar anomalías, la obtención de datos de calidad –algo que ya mencioné en un apartado anterior-, los riesgos relacionados con la ciberseguridad o los requerimientos de protección de los datos. La parte más interesante de este primer marco tiene que ver con los valores en riesgo. Los autores señalan una larga lista, correlacionada con los distintos usos de la inteligencia artificial. Podemos destacar entre ellos la protección de datos, la justicia ( fairness ), la brecha entre las expectativas en torno a la IA y la realidad, la seguridad, la transparencia, la confidencialidad, el aisla- miento de los trabajadores humanos o la autonomía (al sustituir el criterio del auditor por un juicio “aséptico” basado en los datos y una decisión algorítmica). Todos estos riesgos forman parte del debate actual en torno al uso de la Inteligencia Artificial en otros muchos campos profesionales. A partir de este análisis preliminar, los autores dise- ñan un marco ético para la aplicación de estas tecnolo- gías emergentes en la auditoría. Señalan los principios éticos en riesgo por la aplicación de la Inteligencia Ar- tificial, a partir de una tabla que relaciona la tecnología con los artefactos (quizás podríamos hablar de “dispo- sitivos”) y su aplicación en la auditoría. De esta manera, alertan sobre tres grandes cuestiones: a) Los estándares de calidad en la profesión, que pue- den verse afectados por la aplicación desigual de herramientas de Inteligencia Artificial en las em- presas. b) El escepticismo profesional, ya que la aplicación de este tipo de herramientas sin el adecuado contra- peso humano puede llevar a poner el foco en los aspectos señalados por los algoritmos, lo que de- jaría sin considerar otros hechos que pueden pasar desapercibidos. c) Las competencias profesionales: se preguntan con énfasis los autores si el currículum actual y los pro- gramas de formación están proveyendo al mercado de auditores con conocimientos suficientes y ade- cuados sobre el uso de herramientas basadas en la IA, y sobre sus posibles riesgos e implicaciones. ¿Es adecuada la gobernanza de la IA y de los los al- goritmos por parte de los auditores? Una pregunta muy relevante. El enfoque de Munoko, Brown-Liburd y Vasarhelyi es crucial para el futuro de la profesión, tanto para los auditores del sector privado como para los auditores pú- blicos. Porque, como ya se ha destacado en la introduc- ción, la auditoría pública y el control externo del gasto público no se puede seguir realizando con las viejas he- La transformación digital del control externo del gasto público 27 Auditoría Pública nº 76 (2020), pp.19 - 30

RkJQdWJsaXNoZXIy MTEw