Page 30 - Revista 2021 - 2022
P. 30

Revista de la Facultad de Ingeniería, Año 7, Número 1
                  Capa de clasificación o Capa densa

                  La última capa del modelo consiste en una red profunda o capa densa, cuya finalidad
                  consiste  en  entrenar  la  red  en  base  a  las  características  obtenidas  en  las  capas
                  anteriores y de esa forma poder realizar la clasificación de la  imagen en base a las
                  clases  determinadas.  En  este  artículo  no  entraremos  en  mayores  detalles  sobre  el
                  funcionamiento  de  esta  capa  ya  que  existe  una  explicación  sobre  este  tema  con
                  mucha profundidad en el número anterior de esta revista (Rojas, 2020).


                  Parámetros e Hiperparámetros
                  Es  importante  dejar  en  claro  la  diferencia  entre  estos  dos  conceptos  ya  que,  en
                  muchas  ocasiones  se  utilizan  indistintamente,  pero  sin  embargo  representan
                  conceptos muy distintos.

                  Los parámetros son aquellas variables que los algoritmos de redes convolucionales
                  CNN  (aunque  aplica  para  todas  las  redes  profundas)  aprenden  a  lo  largo  del
                  entrenamiento, por ejemplo, los pesos.
                  La cantidad de parámetros que un modelo debe entrenar depende de la arquitectura
                  de la red, en una red con una capa convolucional (16 filtros de 3x3, una imagen color
                  de  150x150),  una  capa  MaxPool  (2x2  y  stride=2),  una  capa  densa  (64),  una  capa
                  densa  de  (32)  y  una  capa  de  salida  densa  de  5  valores)  genera  una  cantidad  de
                  5.762.757  millones  de  parámetros,  un  número  nada  despreciable,  que  deben  ser
                  entrenados por el modelo.
                  Por otro lado, los hiperparámetros son los valores que el programador o analista de
                  datos  puede  especificar  para  optimizar  el  modelo,  algunos  ejemplos  de  esto  son:
                  ratio  de  aprendizaje,  función  de  activación,  función  de  perdida,  métricas,
                  optimizador, entre otros. Estos hiperparámetros se encuentran estrechamente ligados
                  con el optimizador utilizado.


                  Uniendo el puzle
                  Ahora  que  conocemos  los  componentes  de  una  red  neuronales  convolucional  es
                  momento de mostrar un ejemplo completo donde todos los elementos del puzle se
                  acomoden en su posición con el fin de presentar una solución completa y funcional.
                  Para  realizar  el  ejemplo  que  se  presentará  a  continuación  se  utilizó  la  herramienta
                  Google  colab  (Google,  2022)como  entorno  de  programación  y  ejecución.  Esta
                  herramienta es de uso gratuito y permite realizar pruebas rápidas, así como también
                  utilizar recursos CPU o GPU según sea necesario.
                  En nuestro ejemplo la primera tarea realizada fue la importación de las librerías que
                  se utilizarán a lo largo de todo el ejemplo (ver Figura 1), para lo esto se importaron
                  las siguientes librerías:

                      1.  Tensorflow:  Biblioteca  de  código  abierto  desarrollada  por  Google  para
                         aprendizaje automático.
                      2.  NumPy: Librería para el manejo de vectores y matrices de gran tamaño.
                      3.  Matplotlab: Librería para crear gráficos y/o mostrar imágenes















                                                                                                            29
   25   26   27   28   29   30   31   32   33   34   35