A pesar de que se han ideado una gran cantidad de algoritmos para entrenar los pesos de una red neuronal a traves de la presentacion de ejemplos para una topologia fija, estos algoritmos tienen el problema de que suelen caer en optimos locales. La obtencion de buenos resultados depende en gran medida de los parametros de aprendizaje y de los pesos iniciales, asi como de la topologia de la red.
Los algoritmos evolutivos han demostrado ser una clase de metodos de busqueda muy efectivos y robustos para localizar zonas del espacio de busqueda donde hay alta probabilidad de encontrar buenas soluciones, aunque dicho espacio sea grande y contenga multiples optimos locales. La aplicacion de los algoritmos evolutivos en la optimizacion de redes neuronales artificiales se justifica por el menor coste computacional, en comparacion con los metodos de prueba y error, y la mayor robustez frente a los metodos constructivos/destructivos.
Las tecnicas de busqueda global, tales como los algoritmos evolutivos, analizan amplias zonas del espacio para determinar donde se encuentran buenas soluciones. En general son menos eficientes que las tecnicas de busqueda local encontrando optimos locales, por lo que lo mas adecuado es dejar que el algoritmo evolutivo seleccione soluciones iniciales en buenas areas del espacio de busqueda, para posteriormente localizar los optimos locales en dichas areas.
Este trabajo lleva a cabo una revision de las diferentes formas en que se han combinado algoritmos evolutivos y redes neuronales artificiales para optimizar los diferentes parametros de diseno de estas ultimas, al tiempo que justifica los operadores geneticos especificos utilizados en dichos metodos.