¿Qué es el descenso de gradiente?
Al resolver los parámetros del modelo de algoritmos de aprendizaje automático, es decir, problemas de optimización sin restricciones, el descenso de gradiente es uno de los métodos más utilizados. Otro método comúnmente utilizado es el método de mínimos cuadrados. Al resolver el valor mínimo de la función de pérdida, el método de descenso de gradiente se puede utilizar para resolver paso a paso y obtener la función de pérdida mínima y los valores de los parámetros del modelo.
Por otro lado, si necesita resolver el valor máximo de la función de pérdida, entonces debe utilizar la iteración del método de ascenso de gradiente. En el aprendizaje automático, se han desarrollado dos métodos de descenso de gradiente basados en el método básico de descenso de gradiente, a saber, el método de descenso de gradiente estocástico y el método de descenso de gradiente por lotes.
Desventajas
A medida que se acerca al mínimo, la tasa de convergencia se vuelve más lenta.
Pueden ocurrir algunos problemas al buscar en línea recta.
Puede caer en forma de zigzag.