El entrenamiento de las redes neuronales puede realizarse de dos formas, fuera de línea o en tiempo real. La elección de cualquiera de ellos o ambos implica velocidades de proceso diferentes que afectan a los algoritmos y hardware utilizados. De acuerdo al tipo de entrenamiento, pueden clasificarse en:
Algunos de los algoritmos utilizados son:
Bloques: puede utilizar datos ruidosos y tiene la posibilidad de utilizar funciones de coste no cuadráticas; se puede utilizar en redes progresivas, redes dinámicas o redes realimentadas.
Simulated Annealing: La modificación de los pesos y vías con un algoritmo de entrenamiento de un perceptrón multicapa es un problema clásico de programación no lineal irrestricto; El desempeño del “Simulated Annealing” como algoritmo de entrenamiento de una red neuronal resuelve dos problemas clásicos en las redes neuronales, el problema de la “Codificación” y el problema de la “Doble Espiral”, adicionalmente entrega resultados de buena calidad que son obtenidos cuando se compara esta propuesta frente a algoritmos clásicos de entrenamiento.
Back-propagation: El método de back-propagation (o entrenamiento hacia atrás) es un sistema automático de entrenamiento de redes neuronales con capas ocultas, perfeccionado en la década de los 80. En este tipo de redes, el problema a la hora de entrenarlas radica en que sólo conocemos la salida de la red y la entrada, de forma que no se pueden ajustar los pesos sinápticos asociados a las neuronas de las capas ocultas, ya que no podemos inferir a partir del estado de la capa de salida como tiene que ser el estado de las capas ocultas.