¿Cuáles son los algoritmos de aprendizaje automático más populares actualmente?
Si quieres aprender algoritmos de máquinas, ¿por dónde deberías empezar?
Aprendizaje supervisado
1. Árbol de decisiones: Un árbol de decisiones es una herramienta de apoyo a las decisiones utilizadas y sus posibles consecuencias, incluidos los resultados de eventos aleatorios, diagramas de árbol. o modelos de consumo y utilidad de recursos.
Desde la perspectiva de la toma de decisiones empresariales, un árbol de decisiones es una pregunta en la que las personas tienen que elegir sí o no la mayor parte del tiempo para evaluar la probabilidad de tomar la decisión correcta. Le permite resolver problemas de forma estructurada y sistemática conduciendo a conclusiones lógicas.
2. Clasificación Naive Bayes: el clasificador Naive Bayes es un clasificador probabilístico simple basado en el teorema de Bayes y sus características tienen fuertes supuestos de independencia (ingenuos).
La imagen característica es la ecuación: P(A | B) es la probabilidad posterior, P(B | A) es la probabilidad, P(A) es la probabilidad cuasi-previa y P(B ) es la probabilidad de prueba previa prevista.
Algunos ejemplos del mundo real son:
Determinar si un correo electrónico es spam.
Tecnología de clasificación, los artículos periodísticos tendrán un ambiente político o deportivo.
Examina un artículo que exprese un sentimiento positivo o negativo.
Software de reconocimiento facial
3. Regresión de mínimos cuadrados ordinaria: si entiendes de estadística, es posible que hayas oído hablar de la regresión lineal. Los mínimos cuadrados son un método para realizar regresión lineal.
Puedes pensar en la regresión lineal como la tarea de ajustar una línea recta a través de una distribución de puntos. Hay muchas estrategias posibles para hacer esto. La estrategia de "mínimos cuadrados ordinarios" es la siguiente: dibuja una línea y luego suma cada punto de datos, midiendo la distancia perpendicular entre los puntos y la línea, para la suma de las distancias, la línea ajustada será lo más pequeña posible.
Lineal significa que el modelo que utiliza se ajusta a los datos y los mínimos cuadrados minimizan el error del modelo lineal.
4. Regresión logística: La regresión logística es un poderoso método estadístico que utiliza una o más variables explicativas para modelar un resultado binomial. Mide la relación entre una variable dependiente categórica y una o más variables independientes mediante el uso de una función logística para estimar una probabilidad, que es una distribución logística acumulativa.
La regresión logística se utiliza en la vida;
Calificación crediticia
Mide la tasa de éxito de las actividades de marketing
Predice los ingresos del producto.
¿Habrá algún día un terremoto?
5. Máquina de vectores de soporte: SVM es un algoritmo de clasificación binaria. Dados dos tipos de puntos en un espacio N-dimensional, SVM genera un hiperplano (N-1)-dimensional para dividir estos puntos en dos grupos.
Supongamos que tienes dos tipos de puntos en una hoja de papel que se pueden separar linealmente. SVM encontrará una línea recta para dividir estos puntos en dos categorías, lo más lejos posible de todos estos puntos.
A escala, algunos de los grandes problemas resueltos por SVM (incluida la implementación de modificaciones apropiadas) son: publicidad, identificación de sitios de empalme de genes humanos, detección de género basada en imágenes y clasificación de imágenes a gran escala. ...
6. Método de conjunto: el método de conjunto es un algoritmo de aprendizaje que construye un conjunto de clasificadores y luego clasifica nuevos puntos de datos mediante votación ponderada sobre sus predicciones. El método de conjunto original era el promedio bayesiano, pero los algoritmos más nuevos incluyen codificación de salida, embolsado y refuerzo con corrección de errores.
Entonces, ¿cómo funcionan los métodos de conjunto y por qué son mejores que los modelos individuales?
Sesgo de equilibrio: si se equilibra una gran cantidad de votos de tendencia demócrata con una gran cantidad de votos de tendencia republicana, siempre obtendrá un resultado menos sesgado.
Reducción de la varianza: cuando se agregan resultados de referencia de una gran cantidad de modelos, el ruido será menor que un único resultado de un solo modelo. En el mundo financiero, esto se llama diversificación (principio): una cartera que combina una variedad de acciones cambia menos que las acciones individuales.
Sobreajuste improbable: si tiene un solo modelo que no se ajusta perfectamente y combina cada modelo de una manera simple (promedio, promedio ponderado, regresión logística), entonces el sobreajuste generalmente no ocurre.
Aprendizaje no supervisado
7. Algoritmo de clustering: El clustering es la tarea de agrupar un conjunto de objetos de manera que los objetos de un mismo grupo (cluster) sean mejores que los objetos de otros grupos más similares. .
Cada algoritmo de agrupamiento es diferente, por ejemplo:
Algoritmo basado en centroides
Algoritmo basado en conexiones
Algoritmo basado en densidad Algoritmo
Probabilidad; posibilidad
Reducción de dimensionalidad
Red neuronal/aprendizaje profundo
8. La transformación es un conjunto de procesos estadísticos que convierte valores observados de variables potencialmente correlacionadas en valores de variables linealmente no correlacionadas como componentes principales.
Algunas aplicaciones de PCA incluyen compresión, reducción de datos, facilidad de aprendizaje y visualización. Tenga en cuenta que el conocimiento del dominio es muy importante a la hora de elegir si continuar utilizando PCA. El caso de datos ruidosos (todos los componentes de PCA son muy diferentes) no es aplicable.
9. Descomposición en valores singulares: En álgebra lineal, la descomposición en valores singulares es la factorización de matrices complejas reales. Para una matriz m*n dada, existe una descomposición tal que m = u σ v, donde u y v son matrices unitarias y σ es una matriz diagonal.
PCA es en realidad una aplicación sencilla de SVD. En la tecnología de visión por computadora, el primer algoritmo de reconocimiento facial utilizó PCA y SVD para representar el rostro como una combinación lineal de "caras propias", reducir la dimensión y luego hacer coincidir el rostro con la identidad mediante un método simple, aunque este método es más complejo. pero todavía se basa en técnicas similares.
10. Análisis de componentes independientes: ICA es una técnica estadística que se utiliza para revelar factores ocultos en un conjunto de variables, mediciones o señales aleatorias. ICA define un modelo generativo para datos observacionales multivariados y a menudo se utiliza como una base de datos de muestras grandes.
El modelo supone que las variables de datos son mezclas lineales de algunas variables potenciales desconocidas, y el sistema mixto también es desconocido. Se supone que la variable latente es una variable independiente no gaussiana, que se denomina componente independiente de los datos observados.
ICA está relacionada con PCA, pero es una técnica más poderosa que puede encontrar factores fuente subyacentes cuando estos métodos clásicos fallan por completo. Sus aplicaciones incluyen imágenes digitales, bases de datos de documentos, indicadores económicos y mediciones psicométricas.