Page 52 - Auditoría Pública Nº 85
P. 52
REVISTA AUDITORÍA PÚBLICA / 85
Para bien o para mal la IA va venciendo los obstáculos
uno a uno y llegará un momento en el que será difícil para
el ser humano argumentar dónde es superior.
El lenguaje natural.
Es precisamente en las dos últimas décadas donde se
ha evolucionado más en un subcampo vital de la IA: en
concreto en el Procesamiento de Lenguaje Natural (PLN)
que, en términos simples, se podría definir como la posi-
“La realidad es aquello que, cuando uno deja bilidad de comunicación del ser humano con la máquina
de creer en ello, no desaparece”. con el lenguaje natural.
“El hombre en el castillo” de Philip K. Dick.
Los avances han sido y están siendo tan considerables
que se ha reavivado la idea de que la evolución de la IA
implicaba la llegada de la cuarta generación industrial ,
1
En 1950 Alan Turing en su artículo “Computing Machi- idea que se había aparcado tras la llegada del denomina-
nery and intelligence” propuso un experimento mediante do invierno de la IA, tras el fracaso de algunos modelos.
el cual se podría determinar la capacidad de una máquina
para emular una inteligencia similar a la del ser humano. Si bien el punto de inflexión en el PLN es relativamente
El proceso consistía en que un evaluador (humano) man- reciente, los conceptos ya comenzaron a definirse a me-
tenía una conversación, mediante una interfaz de texto, diados del siglo pasado con los primeros modelos senci-
con una máquina y con otro humano. Si el evaluador no llos de traducción automatizada, como por ejemplo con
podía distinguir cuál de los dos era la máquina, se consi- el experimento Georgetown que, con fines militares y
deraba que la máquina superaba la prueba. mediante un algoritmo simple, permitió la traducción de
frases del ruso al inglés. Otro ejemplo se produjo con el
Es difícil definir lo que se considera inteligencia y más programa Eliza que era capaz de simular una conversa-
2
aún, lo que se considera inteligencia artificial (IA), pero sí, ción con un psicoterapeuta.
a efectos prácticos, podemos clasificarla haciendo una
comparación con la inteligencia media del ser humano: A finales de siglo pasado aparecieron la web, los datos
textuales y los primeros algoritmos de clasificación y
¡ A débil. Es una forma de “inteligencia” inferior a agrupamiento de texto etiquetado y, posteriormente, ya
la del ser humano que está diseñada para tareas en el presente siglo, aparecen los modelos complejos de
concretas, no implica capacidad cognitiva. aprendizaje profundo y redes neuronales avanzadas que
¡ IA fuerte o general es, como mínimo igual a la pueden modelar sintáctica y semánticamente el texto.
del ser humano y tendría la capacidad de realizar
cualquier tarea cognitiva que el ser humano pue- En la década de 2010 se presentan los avances en los
de hacer. Transformers como en GPT (Generative Pre-trained
3
Transformer) que permitieron un análisis más profundo y
Esta clasificación se podía intercambiar para comparar preciso del lenguaje natural. El futuro ya está aquí.
una persona con otra y sería totalmente válida. Una per-
sona puede ser excelente en un tema y no tan buena en Los modelos de redes neuronales llamados Transformer
otro. Puede que, para salvar la comparación, las definicio- no analizan palabra por palabra de una frase como los
nes de inteligencia se han ido adaptando a medida que la modelos anteriores, sino que primero transforman cada
IA ha superado en algunos aspectos a la del ser humano. palabra en una o varias expresiones entendibles por la
Así al principio se consideraba que la IA no podría realizar computadora (token) y luego analizan la frase de forma
cálculos complejos como un ser humano, después que global, analizando cada token con el contexto del resto
no podía ganar a jugar a un maestro de ajedrez, posterior- de la frase y con las diferentes dimensiones que éste
mente que no podría ganar a un maestro del juego go, puede tomar (vectorización).
por último, que la IA nunca llegaría a crear…
1 Kai-Fu Lee. AI Superpowers: China, Silicon Valley, and the New World Order. Houghton Mifflin Harcourt.
2 Según la Wikipedia, ELIZA fue uno de los primeros programas de procesamiento del lenguaje natural, desarrollado por Joseph Weizenbaum en el MIT entre 1964 y 1966.
Este programa simulaba una conversación con un ser humano utilizando una metodología de concordancia y sustitución de patrones.
3 Según la Wikipedia los Transformers son una arquitectura de red neuronal que utilizan mecanismos de atención para considerar el contexto completo de una secuencia
de datos, lo que permite entender la relación entre las palabras en una oración de manera más efectiva.
52