Page 2 - Modelos IAG
P. 2
Laboratorio Inteligencia Artificial e
Internet de las Cosas
segunda parte del proceso consiste en revertir muchos casos están reemplazando a las redes
los datos compuestos por ruido en datos neuronales convolucionales (CNN, por su
similares a los originales, a lo que se le llama nombre en inglés) y a las redes neuronales
Difusión Inversa. En esta etapa, el modelo recurrentes (RNN), principalmente porque
aprende a revertir el ruido paso a paso, hasta pueden gestionar más eficazmente las
llegar a datos similares a los originales. Este dependencias de largo alcance,
modelo se utiliza para la generación de particularmente en tareas de procesamiento
imágenes (Stable Diffusion es uno de los más de lenguaje natural (NLP, por su nombre en
conocidos), audio, texto, entre otros tipos de inglés). Un ejemplo de dependencias de largo
datos. alcance en un texto se refiere a la relación
entre palabras que se encuentran distantes en
Autocodificadores Variacionales una frase, es aquí en donde los
Los autocodificadores variacionales (VAE transformadores son muy eficientes.
por su nombre en inglés) tienen una
arquitectura compuesta por dos redes Modelos Autorregresivos
neuronales: el codificador y el Los modelos autorregresivos son modelos
decodificador. Estos modelos se entrenan que predicen el siguiente elemento de una
para crear una representación compacta de secuencia, basándose en los valores previos
los datos (tarea del codificador), lo que se de la secuencia. Estos modelos utilizan
denomina como espacio latente; esto es, una técnicas matemáticas similares a la técnica
representación matemática de los datos, estadística de autorregresión para series
representados en función de todos sus temporales, las cuales se basan en que el
atributos esenciales. Luego el decodificador siguiente valor de una serie temporal
toma el espacio latente y lo reconstruye en corresponde a una función de sus valores
datos que se parecen a los de la entrada anteriores. Lo que buscan es definir la
original. Estos modelos son utilizados para correlación probabilística entre los elementos
reducir dimensiones, crear nuevas imágenes o de la secuencia. Con esa información
eliminar ruido de ellas, o clasificar objetos. predicen el siguiente elemento de una
secuencia no conocida. Son útiles para la
Modelos basados en Transformers generación de texto; por ejemplo, en la
Los modelos transformers son redes funcionalidad de teclado predictivo de los
neuronales que tienen la capacidad de teléfonos inteligentes.
aprender el contexto y procesar las relaciones
entre los datos de la secuencia; en el caso de Referencias
texto, las relaciones entre las palabras de una Nvidia (2022), Recuperado de:
oración. Para ello utilizan representaciones https://la.blogs.nvidia.com/blog/que-es-un-
matemáticas que le permiten identificar la mode lo-transformer/
relación y la relevancia entre los datos (por YellowAI (2024), Recuperado de:
ejemplo: palabras). Un transformador https://yellow.ai/blog/types-of-generative-
generalmente se compone de un codificador ai/
y un decodificador; el primero se encarga de AWS (2024), Recuperado de:
leer la entrada y el segundo de imprimir la https://aws.amazon.com/es/what-
cadena de salida. Los transformadores en is/generative-ai/