Page 54 - Reflexiones sobre Ingeniería 2023D-2024
P. 54
Revista de la Facultad de Ingeniería, Año 8, Número 1
Algunos casos
No estamos frente a una disciplina nueva, hace muchos años que se habla de
Inteligencia Artificial o que se generan soluciones de este tipo, pero en el último año
se empezó a visualizar que están surgiendo nuevas herramientas que empiezan a
automatizar una gran cantidad de tareas diversas que hasta ese momento no se habían
cuestionado (o se visualizaba que iban a pasar muchos años antes que esto ocurriera).
IBM Deep Blue fue un supercomputador desarrollado por IBM con el objetivo de que
pudiera competir y ganar contra campeones mundiales de ajedrez. En 1996 y luego
1997 se desarrollaron una serie de partidos de ajedrez contra el gran maestro Gary
Kasparov. Luego de una serie de juegos, y una revancha, Deep Blue venció a Kasparov,
primera vez que una computadora derrotaba a un campeón mundial en un formato de
torneo estándar.
Deep Blue ejecutaba de forma paralela 30 procesadores IBM RS/6000 realizando
búsqueda alfa-beta, una técnica de optimización del algoritmo minimax. Se basa en
armar un árbol de posibles jugadas, donde cada nodo representa un estado del juego
cada rama un posible movimiento. Deep Blue buscaba hasta 30 mil millones de
posiciones por movimiento, a partir de una base de datos de 700,000 partidas de
grandes maestros, incluyendo Kasparov.
Otro ejemplo que podemos encontrar es AlphaGo de Google DeepMind, que fue uno
de las primeras aplicaciones capaces de jugar al juego de mesa Go a un nivel de
competencia de clase mundial. Go es un juego de origen chino que se juega en un
tablero de 19x19 casilleros, con fichas blancas y negras. Las reglas no son sencillas y
en torneos tienen una duración de varias horas.
El proceso de entrenamiento de AlphaGo se inició con una extensa base de datos de
partidas de Go. Utilizando técnicas de Aprendizaje Profundo, una rama avanzada del
Aprendizaje Automático basada en redes neuronales, el programa fue capaz de
aprender las características y patrones de movimientos eficaces en el juego.
Posteriormente, AlphaGo empleó algoritmos de búsqueda Monte Carlo para evaluar y
determinar las mejores jugadas.
Una vez que se alcanzó cierto nivel de habilidad, se mejoró su juego a través de la
experiencia adquirida al jugar partidas, tanto contra sí mismo como contra oponentes
humanos. Se utilizó Aprendizaje por Refuerzo para mejorar su juego, una técnica de
Inteligencia Artificial que se basa en prueba y error, reforzando las acciones que
permiten cumplir el objetivo y descartando aquellas que se alejan de los objetivos.
Este enfoque integrado de Aprendizaje Profundo y Aprendizaje por Refuerzo fue
fundamental para que en 2016 le ganara al 18 veces ganador de títulos mundiales de
Go, Lee Sedol.
Ambos ejemplos muestran cómo a partir de diferentes técnicas de Inteligencia Artificial
es posible aprender las reglas y la forma de jugar a ciertos juegos, incluso mucho mejor
que los humanos.
Pero ambos son juegos, podemos pensar que tienen un conjunto de reglas de
funcionamiento, que a pesar que pueden ser muy complejas o requerir grandes
capacidades de procesamiento, parece posible que eventualmente se pudiera
reproducir dicho funcionamiento en una solución computacional. En 2018 en la
conferencia Google I/O se presentó una funcionalidad del asistente de Google que
rompió con ciertos paradigmas. En dicha conferencia se mostró una demo donde el
asistente realiza una llamada telefónica para reservar un turno en una peluquería.
El anuncio podría ser solo una mejora de una herramienta de Inteligencia Artificial,
permitiendo simular ser un humano, pero mostró cómo no solamente realizaba la
solicitud, sino que la herramienta podía reaccionar a las respuestas de la otra persona
52