Redes neuronales: supervisadas y no supervisadas

2
Como ya se ha venido viendo en Rankia, las redes neuronales están sirviendo de ayuda y son de aplicación en múltiples facetas de la vida real, también en finanzas y en los mercados financieros y de valores:
 
Gran parte de los modelos empleados intentan buscar modelos que tratan de predecir variables que no satisfacen las restricciones de los modelos más clásicos, como por ejemplo,  una regresión lineal. Así, una red neuronal busca relaciones más complejas entre unos predictores y la variable objetivo, por ejemplo el precio de una acción en función del precio de otra acción o de variables macroeconómicas. Este tipo de redes neuronales son de las consideradas supervisadas, pues se le indica a la red neuronal hacia qué salida u output debe tender o ajustarse. 
 

Redes neuronales no supervisadas

El objetivo de este artículo es dar una pincelada sobre otro tipo de redes consideradas como no supervisadas, y más concretamente sobre los mapas auto organizativos de Kohonen o self-organizing maps  (SOM).
 
Este tipo de redes fue desarrollado por el profesor Teuvo Kohonen (1982) e intenta imitar el comportamiento del cerebro en el tratamiento de la información en ciertos casos concretos. Y es que el cerebro se organiza, corrige errores y procesa nueva información sin tener referencias previas donde apoyarse. Es capaz de crear mapas mentales clasificando la información en determinadas zonas en base a los estímulos  que le llegan. Información con los mismos patrones de entrada o estímulos similares son clasificados en zonas próximas del cerebro.  
 
También entran dentro de las redes competitivas, porque también imitan la competición de las neuronas cerebrales cuando nueva información es procesada. Solamente las neuronas que más se parecen o están especializadas en un patrón de entrada son activadas y por lo tanto pueden ser consideras como ganadoras recopilando la nueva información. Un esquema habitual de SOM es el siguiente:
redes neuronales
 
Como se observa hay un vector de entradas (input vector), que es la información nueva que entra en el sistema y que será clasificada en un mapa de neuronas de tamaño X (SizeX) por Y (SizeY). La red  empieza a entrenarse con pesos aleatorios (wij) y se le van presentando vectores de entrada de datos. La red va identificando que neurona o grupo de neuronas son las más parecidas a los datos de entrada. Estas neuronas son las “ganadoras” y la red actualizará sus pesos para que ante otro patrón similar esas mismas neuronas estén más especializadas. Cuando el número de casos presentados a la red y el número de iteraciones que se llevan a cabo es lo suficientemente grande, los pesos acaban convergiendo y la red identificará la nueva información clasificándola en zonas dentro del mapa.
 
¿Y qué aplicaciones tienen este tipo de redes? Han sido ampliamente empleadas, dada la gran capacidad de sintetizar la información de manera muy visual. Además, se preservan las distancias entre los datos de entrada, de tal forma que distancias entre neuronas en el mapa también son distancias equivalentes en los datos de entrada. Han sido ampliamente utilizados para clasificar países en base a su pobreza, clasificar textos y páginas web, música, detección de linfomas en imágenes, procesamiento del lenguaje…
 
En el ámbito de finanzas han sido empleadas para clasificar acciones y bonos en función de rentabilidad y volatilidad, lo que es útil para gestión de carteras de valores, también para la selección de fondos de inversión, detección de grupos de empresas en problemas financieros y quiebras o  predicción de ratings de las agencias de calificación crediticia entre otros.
 
La reducción de dimensiones de gran cantidad de información a solamente un mapa bi-dimensional permite procesar y comprender patrones en los datos que de otra forma sería más complicado. Con este artículo se ha pretendido introducir al lector en esta metodología así como el posible interés en alguna de sus versiones (supervised self-organising maps, fuzzy self-organizing maps…).
 
Ivan Pastor
Licenciado en Administración y Dirección de empresas y Máster en Banca y Finanzas en el Centro de Estudios Garrigues en Madrid.
Actualmente, terminando la tesis en la que precisamente empleo redes neuronales para la detección
y prevención de quiebras bancarias y la detección de desequilibrios macroeconómicos.
 
  1. #2
    13/01/15 08:04

    Yo tengo alguna experiencia (de hace años) en redes neuronales usadas como 'interpolador universal' multidimensional. El 'problema del crédito' es aplicable, porque se trata de conocer la fiabilidad del cliente en función de una serie de variables. Escoger esas variables no parece tan difícil, pero donde veo -y he experimentado- el problema es en presentar a la red un número de casos suficiente como para que esta converja convenientemente, y funcione como 'predictor'. En el caso del 'problema del crédito' se trata de evaluar la fiabilidad, que es -en términos matemáticos- un punto de una hipersuperficie en el espacio (n+1)-dimensional, donde n son las variables independientes. Si se utiliza un número excesivo de variables independientes, el número de casos a presentar para el aprendizaje se dispara, si se pretende cierta fiabilidad de predicción... Y como las condiciones del 'sistema exterior' cambian constantemente, es preciso poner al día la red también constantemente.

  2. #1
    12/01/15 14:48

    Tal vez te interese el trabajo de Mandelbrot con fractales.
    Muestra que las crisis en realidad no son cisnes negros, sino más comunes de lo que se piensa.
    Esto va contra lo que los neoclásicos pretenden creer. Y por supuesto los neoclásicos cometían la aberración de considerar variables interdependientes como independientes.

    Mandelbrot, fractales y crisis financieras
    http://www.jornada.unam.mx/2010/10/20/opinion/030a1eco