|
En la actualidad, las Redes de Neuronas Artificiales Recurrentes (RNAR) son las herramientas más adecuadas para enfrentarse a problemas de reconocimiento o predicción en dominios complejos o con componente temporal. El empleo de RNA alimentadas hacia delante en estos casos supone forzar un tipo de red para una labor para la que no ha sido concebida. La utilizaciçon de RNAR plantea, sin embargo, problemas en cuanto a que su entrenemiento e lento y a que la convergencia suele ser difícil de alcanzar. Estos problemas han provocado que el empleo de RNAR no sea muy común. Como solución se ha propuesto sustituir los algoritmos de entrenamiento basados en descenso de gradiente por otros como los Algoritmos Genéticos (AG).
Para este trabajo se ha desarrollado un sistema que realiza el ajuste de los pesos de las conexiones y la selección de las funciones de activación para cada una de las neuronas de la red. El sistema ha sido validado con éxito en la predicción a corto plazo de series temporales reales.
En este artículo se exponen los resultados del estudio realizado para buscar los valores idóneos de los parámetros de funcionamiento del AG de forma que el entrenamiento de las RNAR se realice de una forma más rápida y más precisa. También se expone la experiencia de trabajar con individuos formados por más de una cadena de datos al codificar independientemente los peso y las funciones de activación de la red.
|