Una introducción
Imaginemos que estamos sentados en un escritorio lleno de papeles para desechar. Tenemos a 5 metros un cesto de basura y nos da pereza juntar los papeles e ir a tirarlos. Entonces decidimos hacer una bola con cada papel y lanzarlo uno por uno al cesto. Agarramos el primer papel y lo lanzamos, pero nuestro primer tiro lo deja a 1 metro de distancia del cesto. Agarramos el segundo papel y en base al resultado del primer tiro ajustamos la fuerza con la que lo arrojamos y esta vez queda a 50 cm del cesto. Luego vamos por el tercero y con el resultado del segundo tiro nuevamente ajustamos la fuerza y esta vez damos en el blanco.
Lo que hicimos en el ejercicio anterior no fue más que entrenar una red de neuronas en nuestro cerebro dándole entradas (fuerza, ángulo y dirección con el que arrojamos el papel) y el resultado obtenido con cada tiro fue una salida de dicha red que nos ayudó a entrenarla. Empecemos a desmembrar esto.
La materia prima para el entrenamiento de dicha red de neuronas es el error. Es lo que nos da la información necesaria para entrenar la red y así obtener el resultado esperado. Cuando el primer papel quedó a 1 metro de distancia del cesto, el error fue de 1 metro, entonces entrenamos una red basándonos en los resultados obtenidos, para luego cambiar el valor de cada neurona que forma parte de la red, y obtener la salida deseada (dar en el cesto). Podemos decir que una vez que entrenamos a la red de neuronas ya aprendimos a arrojar los papeles y embocarlos en el cesto. Aprendizaje que queda guardado y luego podemos volver aprovechar.
En las redes neuronales artificiales ocurre lo mismo: por ejemplo, podemos entrenar una red para enseñarle a sumar 2 números enteros y obtener en la salida el resultado de dicha suma.
Una neurona artificial (también llamado perceptrón) es la unidad atómica de una red neuronal y no representa más que una función matemática, la cual recibe valores de entrada y devuelve un valor de salida basado en la ecuación definida en dicha función.
Un perceptrón además puede tener definidos pesos de entradas y una tendencia. Los pesos de entradas pueden definir si una entrada es más sensible que otra y la tendencia como su palabra lo indica es el valor que tiende a dar salida la neurona. Esto será profundizado más adelante.
Hay que destacar como el error es clave para el aprendizaje ya que es el error, y la medición del mismo, lo que nos permite ajustar pesos y tendencias para que este disminuya lo suficiente para considerar una salida como válida. Si no cometieramos errores no aprenderiamos.