Page 2 - Redes Holográficas
P. 2

Laboratorio Inteligencia Artificial e
                                             Internet de las Cosas



                  complejos. Un vector de entrada S se llama un   pueden  aprender.  La  simetría  en  los
                  estímulo y tiene la forma                     argumentos  asegura  la  precisión  en  la
                  S = [λ1e   , λ2e   , . . . , λne   ].         reproducción de las asociaciones de estímulo-
                         iθ1
                                          iθn
                                iθ2
                  Un vector de salida R se llama una respuesta y   respuesta  aprendidas.  Los  estímulos  largos
                  su forma es                                   suelen  obtenerse  por  discretización  de
                  R = [γ1e   , γ2e   , . . . , γme  ].          funciones  continuas  o  digitalización  de
                                iφ2
                          iφ1
                                           iφm
                  Todos los números complejos anteriores están   imágenes.  La  simetría  de  vectores  largos  se
                  escritos en notación polar, de modo que los   puede mejorar mediante un preprocesamiento
                  módulos  (magnitudes)  se  interpretan  como   adecuado, llamado simetrización de estímulos
                  niveles  de  confianza  de  los  datos  y  los   basado en la función sigmoidea (Sutherland,
                  argumentos  (ángulos  de  fase)  sirven  como   JG. 1992).
                  valores  reales  de  los  datos.  La  neurona
                  contiene  internamente  una  matriz  compleja
                  nxm  X= [Xjk], que sirve como memoria para    Bibliografia
                  grabar asociaciones.                          Sutherland, JG.(1990) Modelo holográfico de
                                                                memoria, aprendizaje y expresión., Revista
                                                                Internacional de Sistemas Neurales.

                  Figura 1. Una neurona holográfica             Hecht-Nielsen, R. (1990).
                  Aprender una asociación entre un estímulo S   Neurocomputación, Addison-Wesley.
                  y  una  respuesta  deseada  R  requiere  que  la
                  correlación  entre  el  j-ésimo  elemento  de   Sutherland, JG. (1992). Fuzzy, Holographic
                  estímulo y el k-ésimo elemento de respuesta se   and Parallel Intelligence, John Wiley and
                  acumula en la (j, k)-ésima entrada de la matriz   Sons.
                  de memoria. Más precisamente:
                  xjk+= λjγke  i(φk−θj )  .
                  La  misma  fórmula  se  puede  escribir  en  la
                  forma matriz-vector:
                  X+= S R.
                        τ
                  Aquí S   denota  la  transpuesta conjugada  del
                        τ
                  vector S.
                  Las redes neuronales holográficas se pueden
                  aplicar a los mismos problemas que los otros
                  tipos  de  redes.  Sin  embargo,  el  proceso  de
                  diseño  de  una  aplicación  holográfica  es
                  bastante específico. Es decir, la topología de la
                  red para la mayoría de los problemas resulta
                  trivial o muy simple. En lugar de la topología,
                  el diseñador está mucho más preocupado por
                  el preprocesamiento de datos. Se pueden usar
                  procedimientos   de     preprocesamiento
                  adecuados,  por  ejemplo,  para  mejorar  la
                  precisión  en  la  reproducción  de  las
                  asociaciones  aprendidas,  o  para  expandir  la
                  capacidad  de  aprendizaje,  o  incluso  para
                  controlar  las  propiedades  de  generalización.
                  En términos generales, las redes holográficas
                  son muy adecuadas para aquellos problemas
                  en los que los estímulos son vectores largos
                  con  argumentos  distribuidos  simétricamente
                  (uniformemente). Un vector de estímulo más
                  largo  asegura  una  mayor  capacidad  de
                  aprendizaje,  es  decir,  un  mayor  número  de
                  asociaciones  de  estímulo-respuesta  que  se
   1   2