Page 2 - Modelos IAG
P. 2

Laboratorio Inteligencia Artificial e
                                             Internet de las Cosas



               segunda parte del proceso consiste en revertir   muchos casos están reemplazando a las redes
               los  datos  compuestos  por  ruido  en  datos    neuronales  convolucionales  (CNN,  por  su
               similares a los originales, a lo que se le llama   nombre  en  inglés)  y  a  las  redes  neuronales
               Difusión Inversa. En esta etapa, el modelo       recurrentes  (RNN),  principalmente  porque
               aprende a revertir el ruido paso a paso, hasta   pueden  gestionar  más  eficazmente  las
               llegar a datos similares a los originales. Este   dependencias     de     largo     alcance,
               modelo  se  utiliza  para  la  generación  de    particularmente en  tareas  de  procesamiento
               imágenes (Stable Diffusion es uno de los más     de lenguaje natural (NLP, por su nombre en
               conocidos), audio, texto, entre otros tipos de   inglés). Un ejemplo de dependencias de largo
               datos.                                           alcance  en  un  texto  se  refiere  a  la  relación
                                                                entre palabras que se encuentran distantes en
               Autocodificadores Variacionales                  una  frase,  es  aquí  en  donde  los
               Los  autocodificadores  variacionales  (VAE      transformadores son muy eficientes.
               por  su  nombre  en  inglés)  tienen  una
               arquitectura  compuesta  por  dos  redes         Modelos Autorregresivos
               neuronales:    el   codificador    y    el       Los  modelos  autorregresivos  son  modelos
               decodificador.  Estos  modelos  se  entrenan     que  predicen  el  siguiente  elemento  de  una
               para  crear  una  representación  compacta  de   secuencia, basándose en los valores previos
               los  datos  (tarea  del  codificador),  lo  que  se   de  la  secuencia.  Estos  modelos  utilizan
               denomina como espacio latente; esto es, una      técnicas  matemáticas  similares  a  la  técnica
               representación  matemática  de  los  datos,      estadística  de  autorregresión  para  series
               representados  en  función  de  todos  sus       temporales,  las  cuales  se  basan  en  que  el
               atributos  esenciales.  Luego  el  decodificador   siguiente  valor  de  una  serie  temporal
               toma el espacio  latente  y lo reconstruye en    corresponde  a  una  función  de  sus  valores
               datos  que  se  parecen  a  los  de  la  entrada   anteriores.  Lo  que  buscan  es  definir  la
               original.  Estos  modelos  son  utilizados  para   correlación probabilística entre los elementos
               reducir dimensiones, crear nuevas imágenes o     de  la  secuencia.  Con  esa  información
               eliminar ruido de ellas, o clasificar objetos.   predicen  el  siguiente  elemento  de  una
                                                                secuencia  no  conocida.  Son  útiles  para  la
               Modelos basados en Transformers                  generación  de  texto;  por  ejemplo,  en  la

               Los  modelos  transformers  son  redes           funcionalidad  de  teclado  predictivo  de  los
               neuronales  que  tienen  la  capacidad  de       teléfonos inteligentes.
               aprender el contexto y procesar las relaciones
               entre los datos de la secuencia; en el caso de   Referencias
               texto, las relaciones entre las palabras de una   Nvidia (2022), Recuperado   de:
               oración.  Para  ello  utilizan  representaciones   https://la.blogs.nvidia.com/blog/que-es-un-
               matemáticas  que  le  permiten  identificar  la   mode lo-transformer/
               relación y la relevancia entre los datos (por    YellowAI      (2024), Recuperado   de:
               ejemplo:  palabras).  Un  transformador          https://yellow.ai/blog/types-of-generative-
               generalmente se compone de un codificador        ai/
               y un decodificador; el primero se encarga de     AWS  (2024), Recuperado     de:
               leer  la entrada  y  el  segundo  de  imprimir  la   https://aws.amazon.com/es/what-
               cadena  de  salida.  Los  transformadores  en    is/generative-ai/
   1   2