Análisis predictivo
|
Este artículo Necesita referencias adicionales para verificación. (Junio de 2011) |
Análisis predictivo abarca una variedad de técnicas estadísticas de modelado, aprendizaje automático, y minería de datos analizar hechos actuales e históricos para hacer predicciones acerca de futuros o de otro modo desconocidos, eventos.[1][2]
En los negocios, explotan modelos predictivos patrones de encontrado en datos históricos y transaccionales para identificar riesgos y oportunidades. Modelos captura relaciones entre muchos factores para permitir la evaluación de riesgo o potencial asociado a un conjunto particular de condiciones, rector toma de decisiones para las transacciones de candidato.
Análisis predictivo se utilizan en Ciencia actuarial,[3] de marketing,[4] servicios financieros,[5] seguros, telecomunicaciones,[6] venta por menor,[7] viajes,[8] cuidado de la salud,[9] productos farmacéuticos[10] y otros campos.
Una de las aplicaciones más conocidas es Puntuación de crédito,[1] que se utiliza a lo largo de servicios financieros. Modelos de calificación del proceso del cliente historial de crédito, solicitud de préstamo, datos del cliente, etc., en orden a los individuos de rango-orden por su probabilidad de hacer los pagos de crédito futuro a tiempo.
Contenido
- 1 Definición
- 2 Tipos
- 2.1 Modelos predictivos
- 2.2 Modelos descriptivos
- 2.3 Modelos de decisión
- 3 Aplicaciones
- 3.1 Gestión de las relaciones analíticas del cliente (CRM)
- 3.2 Sistemas de soporte de decisión clínica
- 3.3 Análisis de la colección
- 3.4 Venta cruzada
- 3.5 Retención de clientes
- 3.6 Marketing directo
- 3.7 Detección de fraude
- 3.8 Portafolio, producto o nivel de economía predicción
- 3.9 Gestión del riesgo
- 3.10 Suscripción
- 4 Tecnología y datos grandes influencias
- 5 Técnicas analíticas
- 5.1 Técnicas de regresión
- 5.1.1 Modelo de regresión lineal
- 5.1.2 Modelos de elección discreta
- 5.1.3 Regresión logística
- 5.1.4 Regresión logística multinomial
- 5.1.5 Regresión probit
- 5.1.6 Logit y probit
- 5.1.7 Modelos de la serie de tiempo
- 5.1.8 Análisis de supervivencia o duración
- 5.1.9 Árboles de clasificación y regresión
- 5.1.10 Splines de regresión multivariante adaptativa
- 5.2 Técnicas de aprendizaje máquina
- 5.2.1 Redes neuronales
- 5.2.2 Perceptrón multicapa (MLP)
- 5.2.3 Funciones de base radial
- 5.2.4 Máquinas de vectores soporte
- 5.2.5 Bayes Ingenuo
- 5.2.6 k-más cercano a los vecinos
- 5.2.7 Modelado predictivo geoespacial
- 5.1 Técnicas de regresión
- 6 Herramientas
- 6.1 PMML
- 7 Crítica
- 8 Véase también
- 9 Referencias
- 10 Lectura adicional
Definición
Análisis predictivo es un área de minería de datos que se ocupa de extracción de información de datos y utilizarla para predecir tendencias patrones de comportamiento. A menudo es el suceso desconocido de interés en el futuro, pero análisis predictivo pueden aplicarse a cualquier tipo de desconocido, ya sea en el pasado, presente o futuro. Por ejemplo, la identificación de sospechosos después de que se ha cometido un delito o fraude de tarjeta de crédito como se produce. El núcleo de análisis predictivo se basa en las relaciones entre la captura variables explicativas y las variables previstas de sucesos pasados y explotarlos para predecir el resultado desconocido. Es importante señalar, sin embargo, que la precisión y utilidad de los resultados dependerá grandemente el nivel de análisis de datos y la calidad de los supuestos.
Tipos
En general, el análisis predictivo del término se utilizan para referirse Modelación predictiva, "puntuación" datos con modelos predictivos, y pronóstico. Sin embargo, gente cada vez más utilizan el término para referirse a disciplinas analíticas, tales como modelado descriptivo y modelos de decisión o la optimización. Estas disciplinas también implican análisis rigurosos y son ampliamente utilizadas en el negocio de segmentación y toma de decisiones, pero tienen diferentes propósitos y las técnicas estadísticas los subyacentes varían.
Modelos predictivos
Modelos predictivos son modelos de la relación entre la specific performance de una unidad en una muestra y uno o más atributos conocidos o características de la unidad. El objetivo del modelo es evaluar la probabilidad de que una unidad similar en una muestra diferente exhibirá el rendimiento específico. Esta categoría abarca los modelos que se encuentran en muchas áreas, tales como marketing, donde buscan patrones sutiles datos para contestar preguntas sobre el funcionamiento del cliente, como los modelos de detección de fraude. Modelos predictivos a menudo cálculos durante las transacciones en, por ejemplo, para evaluar el riesgo o la oportunidad de un determinado cliente o transacción, con el fin de orientar una decisión. Con los avances en la velocidad de computación, sistemas de modelado agente individual han vuelto capaces de simular el comportamiento humano o reacciones a dado estímulos o escenarios.
Las unidades muestrales disponibles con atributos conocidos y actuaciones conocidas se denomina la "muestra de entrenamiento". Las unidades en otra muestra, con atributos conocidos pero actuaciones poco conocidos, se conocen como "fuera de la muestra [formación]" unidades. La salida de la muestra no desnuda relación cronológica de las unidades de muestra de formación. Por ejemplo, la muestra de entrenamiento puede consiste en atributos literarios escritos por autores victorianos, con atribución conocido, y la unidad de muestra puede encontrarse nuevamente escribiendo con autoría desconocida; un modelo predictivo puede ayudar a la atribución de autor desconocido. Otro ejemplo es dado por el análisis de salpicaduras de sangre en las escenas del crimen simulado en el que la unidad fuera de la muestra es el patrón de salpicaduras de sangre real de una escena del crimen. La salida de la unidad de la muestra puede ser desde el mismo tiempo que las unidades de formación, de una época anterior o desde un tiempo futuro.
Modelos descriptivos
Modelos descriptivos cuantifican las relaciones de datos de una manera que a menudo se utiliza para clasificar los clientes o posibles clientes en grupos. A diferencia de modelos predictivos que se centran en predecir un comportamiento único cliente (por ejemplo, riesgo de crédito), modelos descriptivos identifican muchas relaciones diferentes entre los clientes o productos. Modelos descriptivos do no orden de la fila clientes por su probabilidad de tomar una acción concreta como modelos predictivos. En cambio, modelos descriptivos pueden utilizarse, por ejemplo, para clasificar a los clientes por sus preferencias de producto y etapa de la vida. Herramientas de modelado descriptivo pueden ser utilizadas para desarrollar aún más los modelos que se pueden simular gran cantidad de agentes individualizados y hacer predicciones.
Modelos de decisión
Modelos de decisión describir la relación entre todos los elementos de una decisión — los resultados del pronóstico de la decisión, la decisión y los datos conocidos (incluidos los resultados de los modelos predictivos) — con el fin de predecir los resultados de las decisiones que implican muchas variables. Estos modelos se pueden utilizar en la optimización, maximizando ciertos resultados minimizando otros. Modelos de decisión se utilizan generalmente para desarrollar decisión lógica o un conjunto de negocios reglas que producirá la acción deseada para cada cliente o circunstancia.
Aplicaciones
Aunque el análisis predictivo pueden ponerse a prueba en muchas aplicaciones, esbozamos algunos ejemplos donde análisis predictivo ha demostrado el impacto positivo en los últimos años.
Gestión de las relaciones analíticas del cliente (CRM)
Analítica Customer Relationship Management es una aplicación comercial frecuente de análisis predictivo. Métodos de análisis predictivo se aplican a los datos del cliente para perseguir objetivos CRM, que implican la construcción de una visión holística del cliente sin importar dónde reside su información en la empresa o el departamento correspondiente. CRM utiliza análisis predictivo en aplicaciones para campañas de marketing, ventas y servicio al cliente para nombrar unos pocos. Estas herramientas son necesaria para una empresa a la postura y enfocar sus esfuerzos con eficacia a través de la amplitud de su base de clientes. Deben analizar y comprender los productos en la demanda o tienen el potencial de alta demanda, predecir los hábitos de compra de los clientes con el fin de promover los productos relevantes en múltiples puntos de contacto e identificar proactivamente y mitigar los problemas que tienen la posibilidad de perder a clientes o reducir su capacidad para ganar nuevos. Analítica Customer Relationship Management puede ser aplicado a lo largo de la ciclo de vida de los clientes (adquisición, crecimiento de la relación, retencióny Victoria-back). Varias de las áreas de aplicación que se describen a continuación (marketing directo, venta cruzada, retención de clientes) son parte de las gerencias de relación cliente.
Sistemas de soporte de decisión clínica
Expertos utilizan análisis predictivo en salud principalmente para determinar qué pacientes corren el riesgo de desarrollar ciertas condiciones, como diabetes, asma, enfermedades del corazón y otras enfermedades de por vida. Además, un sofisticado sistemas de soporte de decisión clínica incorporar el análisis predictivo para apoyar decisiones médicas en el punto de atención. Una definición de trabajo ha sido propuesta por Robert Hayward del centro para la salud evidencia: "Sistemas de soporte de decisión clínica enlace observaciones de salud con conocimiento de la salud para influir en decisiones de salud por los médicos para mejorar la salud".[citación necesitada]
Análisis de la colección
Muchas carteras tienen un conjunto de clientes morosos que no hacen sus pagos a tiempo. La institución financiera debe emprender actividades de recopilación de estos clientes a recuperar los importes adeudados. Colección recursos se desperdician en los clientes que son difíciles o imposibles de recuperar. Análisis predictivo pueden ayudar a optimizar la asignación de recursos de la colección mediante la identificación de las agencias de colección más eficaces, estrategias de contacto, acciones legales y otras estrategias para cada cliente, así aumentando significativamente la recuperación al mismo tiempo reducir costos de cobranza.
Venta cruzada
Organizaciones corporativas a menudo recogen y mantienen los datos abundantes (ej.: registros de clientestransacciones de venta) como explotar las relaciones ocultas en los datos puede proporcionar una ventaja competitiva. Para una organización que ofrece múltiples productos, análisis predictivo pueden ayudar a analizar el gasto de los clientes, el uso y otro comportamiento, llevando a eficiente ventas cruzadas, o vendiendo productos adicionales a los clientes actuales.[2] Esto conduce directamente a mayor rentabilidad por cliente y más fuertes relaciones con el cliente.
Retención de clientes
Con el número de competidores servicios disponibles, las empresas tienen que centrar los esfuerzos en el mantenimiento continuo satisfacción del consumidor, gratificante lealtad del consumidor y la minimización de desgaste del cliente. Las empresas tienden a responder al agotamiento del cliente de forma reactiva, actuar sólo después de que el cliente ha iniciado el proceso para terminar el servicio. En esta etapa, la posibilidad de cambiar la decisión del cliente es casi imposible. Correcta aplicación de análisis predictivo puede conducir a una estrategia más dinámica de retención. Mediante un examen frecuente de uso de servicio pasadas de un cliente, rendimiento de los servicios, gasto y otros patrones de comportamiento, modelos predictivos pueden determinar la probabilidad de que un cliente terminación servicio pronto.[6] Una intervención con ofertas lucrativas puede aumentar la probabilidad de retener al cliente. Agotamiento silencioso, el comportamiento de un cliente para reducir el uso, lento pero constante es otro problema que enfrentan muchas empresas. Análisis predictivo también pueden predecir este comportamiento, para que la empresa pueda tomar acciones adecuadas para aumentar la actividad de los clientes.
Marketing directo
Cuando de marketing los productos de consumo y servicios, es el reto de mantenerse al día con productos de la competencia y comportamiento del consumidor. Además de identificar las perspectivas, análisis predictivo también pueden ayudar a identificar la combinación más eficaz de las versiones del producto, material de marketing, canales de comunicación y sincronización que debe utilizarse para apuntar a un determinado consumidor. Suele ser el objetivo del análisis predictivo para bajar la costo por orden o costo por acción.
Detección de fraude
Fraude es un gran problema para muchas empresas y puede ser de varios tipos: solicitudes de crédito inexacta, fraudulentas transacciones (ambos offline y online), robos de identidad y el falso reclamaciones de seguros. Estos problemas afectan las firmas de todos los tamaños en muchas industrias. Algunos ejemplos de las probables víctimas son emisores de tarjetas de crédito, compañías de seguros,[11] comerciantes minoristas, fabricantes, proveedores para empresas y proveedores de servicios incluso. Un modelo predictivo puede ayudar a eliminar los "males" y reducir la exposición de un negocio de fraude.
Modelado predictivo también puede utilizarse para identificar a candidatos de alto riesgo de fraude en los negocios o el sector público. Mark Nigrini desarrolló un método de calificación de riesgo para identificar los objetivos de la auditoría. Describe el uso de este método para detectar el fraude en los informes de ventas franquiciado de una cadena internacional de comida rápida. Cada ubicación se anotó utilizando 10 predictores. Luego se ponderan las 10 puntuaciones para dar una puntuación de riesgo global final para cada ubicación. El mismo enfoque puntuación también se utilizó para identificar alto riesgo comprobar Kite cuentas, potencialmente fraudulentos como agencias de viajes y proveedores cuestionables. Se utilizó un modelo razonablemente complejo identificar fraudulentos informes mensuales presentados por los reguladores divisionales.[12]
El Internal Revenue Service (IRS) de los Estados Unidos también utiliza el análisis predictivo para mina de impuestos e identificar fraude fiscal.[11]
Recientes[¿Cuándo?] los avances en tecnología han introducido también análisis de comportamiento predictivo para fraude de Web detección. Utiliza este tipo de solución heurística con el fin de estudiar el comportamiento de los usuarios web normal y detectar anomalías que indican los intentos de fraude.
Portafolio, producto o nivel de economía predicción
El enfoque de análisis no es a menudo el consumidor pero el producto, cartera, empresa, industria o incluso la economía. Por ejemplo, un minorista puede ser interesado en la predicción del nivel de tienda demanda para fines de gestión de inventario. O la Junta de la Reserva Federal podría estar interesada en la predicción de la tasa de desempleo para el próximo año. Este tipo de problemas puede resolverse mediante análisis predictivo mediante técnicas de series de tiempo (véase abajo). También puede ser abordados mediante enfoques de aprendizaje máquina que transforman la serie original en un espacio del vector característica, donde el algoritmo de aprendizaje busca patrones que tienen el poder predictivo.[13][14]
Gestión del riesgo
Cuando el empleo de técnicas de gestión del riesgo, los resultados son siempre predecir y beneficiarse de un escenario futuro. El Modelo de precios de activos de capital (CAP-M) "predice" la mejor cartera para maximizar el retorno, Evaluación probabilística del riesgo (PRA)--cuando se combina con el mini-Técnicas de Delphi y enfoques estadísticos genera pronósticos precisos y RiskAoA es una herramienta predictiva independiente.[15] Estos son tres ejemplos de enfoques que se pueden extender desde proyecto al mercado y de cerca a largo plazo. Suscripción (véase abajo) y otros enfoques de negocio identifican riesgos como método predictivo.
Suscripción
Muchas empresas tienen que cuenta para la exposición al riesgo debido a sus diferentes servicios y determinar el costo necesario para cubrir el riesgo. Por ejemplo, los proveedores de seguros de auto necesitan determinar con precisión el monto de la prima a cobrar para cubrir cada automóvil y el conductor. Una empresa financiera necesita evaluar el potencial y capacidad de pago antes de conceder un préstamo de un prestatario. Para un proveedor de seguros de salud, análisis predictivo pueden analizar algunos años de los últimos datos de reclamos médicos, así como laboratorio, farmacia y otros registros donde esté disponible, para predecir qué tan caro el afiliado es probable que en el futuro. Análisis predictivo pueden ayudar suscribir Estas cantidades mediante la predicción de las posibilidades de enfermedad, por defecto, bancarrota, etc.. Análisis predictivo pueden agilizar el proceso de adquisición de clientes por predecir el comportamiento futuro riesgo de un cliente que usa datos de nivel de aplicación.[3] Análisis predictivo en la forma de las puntuaciones de crédito han reducido la cantidad de tiempo que toma para aprobaciones de préstamos, especialmente en el mercado hipotecario préstamos ahora decisiones en cuestión de horas en lugar de días o incluso semanas. Análisis predictivo adecuado pueden conducir a decisiones precios adecuadas, que pueden ayudar a mitigar el riesgo futuro de cesación de pagos.
Tecnología y datos grandes influencias
Datos de grandes es una colección de conjuntos de datos que son tan grandes y complejas que llegan a ser incómodos trabajar con el uso de herramientas de gestión de bases de datos tradicionales. El volumen, la variedad y la velocidad de datos grandes han introducido retos en todos los ámbitos para la captura, almacenamiento, búsqueda, intercambio, análisis y visualización. Fuentes de datos grandes ejemplos de registros web, RFID y sensor de datos, redes sociales, Internet indexación de búsqueda, detalle de llamadas, vigilancia militar y datos complejos en astronómico, biogeoquímico, genómica y ciencias atmosféricas. Gracias a los avances tecnológicos en hardware de computadora — CPUs más rápidas, más barata la memoria y las arquitecturas MPP-– y las nuevas tecnologías tales como Hadoop, MapReduce, y en bases de datos y Análisis de texto para el procesamiento de datos grandes, es ahora factible para recoger, analizar y cantidades masivas de la mina estructurado y datos no estructurados para nuevas ideas.[11] Hoy en día, explorando grandes datos y usando análisis predictivo está al alcance de más organizaciones que nunca antes y se proponen nuevos métodos que son capaces para el manejo de tales conjuntos de datos [16][1] [17][2]
Técnicas analíticas
Los enfoques y técnicas utilizadas para llevar a cabo análisis predictivo en términos generales pueden agruparse en técnicas de regresión y técnicas de aprendizaje de máquina.
Técnicas de regresión
Regresión los modelos son el pilar del análisis predictivo. El foco se encuentra en el establecimiento de una ecuación matemática como un modelo para representar las interacciones entre las distintas variables en consideración. Dependiendo de la situación, hay una gran variedad de modelos que pueden aplicarse al realizar análisis predictivo. Algunos de ellos se examinan brevemente a continuación.
Modelo de regresión lineal
El modelo de regresión lineal se analiza la relación entre la respuesta o variable dependiente y un conjunto de variables independientes o predictoras. Esta relación se expresa como una ecuación que predice la variable de respuesta lineal en función de los parámetros. Estos parámetros se ajustan para que una medida de ajuste está optimizada. Gran parte del esfuerzo de ajuste del modelo se centra en reducir al mínimo el tamaño de la residual, así como velar por que se distribuye al azar con respecto a las predicciones del modelo.
El objetivo de la regresión es seleccionar los parámetros del modelo con el fin de minimizar la suma de los cuadrados residuales. Esto se conoce como mínimos cuadrados ordinarios Estimación (OLS) y resultados en las mejores estimaciones lineales insesgadas (azul) de los parámetros si y sólo si el Gauss-Markov suposiciones se satisfacen.
¿Una vez que el modelo se ha estimado que estaríamos interesados en saber si las variables predictivas pertenecen en el modelo – es decir, es la estimación de la contribución de cada variable confiable? Para ello que podemos comprobar la significación estadística de los coeficientes del modelo que se puede medir mediante la estadística t. Esto equivale a prueba si el coeficiente es significativamente diferente de cero. Así el modelo predice la variable dependiente en función del valor de las variables independientes puede evaluarse mediante el uso de la estadística de R². Mide el poder predictivo del modelo por ejemplo, la proporción de la variación total en la variable dependiente que se "explica" (contabilizados) por la variación en las variables independientes.
Modelos de elección discreta
Regresión multivariante (arriba) se utiliza generalmente cuando la variable de respuesta es continua y tiene una gama ilimitada. A menudo la variable de respuesta puede no ser continuo pero bastante discreta. Aunque matemáticamente es posible aplicar la regresión multivariante a variables dependientes ordenadas discretas, algunos de los supuestos detrás de la teoría de regresión multivariante ya no sostienen, y existen otras técnicas como los modelos de elección discreta que son los más adecuados para este tipo de análisis. Si la variable dependiente es discreta, son algunos de esos métodos superiores regresión logística, multinomial logit y probit modelos. Regresión logística y modelos probit se utilizan cuando la variable dependiente es binario.
Regresión logística
En un entorno de clasificación, asignando probabilidades de resultado a observaciones puede lograrse mediante el uso de un modelo logístico, que básicamente es un método que transforma la información sobre la variable dependiente binaria en una variable continua ilimitada y estima un modelo multivariado regular (de ver Allison regresión logística para obtener más información sobre la teoría de la regresión logística).
El Wald y prueba de razón de verosimilitud se utilizan para probar la significancia estadística de cada coeficiente b en el modelo (análogo a las pruebas t utilizado en regresión OLS; véase más arriba). Una prueba de evaluación de la bondad de ajuste de un modelo de clasificación es el "porcentaje predicho correctamente".
Regresión logística multinomial
Una extensión de la modelo logit binario para casos donde la variable dependiente tiene más de dos categorías es el modelo logit multinomial. En tales casos se derrumban los datos en dos categorías no podría tener buen sentido o puede conducir a la pérdida de la riqueza de los datos. El modelo logit multinomial es la técnica apropiada en estos casos, especialmente cuando las categorías de la variable dependiente no se ordena (para colores de ejemplos como el rojo, azul, verde). Algunos autores han extendido la regresión multinomial para incluir métodos de selección e importancia característica como Al azar multinomial logit.
Regresión probit
Modelos Probit ofrecer una alternativa a la regresión logística para el modelado de las variables dependientes categóricas. Aunque los resultados tienden a ser similares, las distribuciones subyacentes son diferentes. Modelos Probit son populares en las ciencias sociales como economía.
Una buena manera de entender la diferencia clave entre probit y modelos logit es suponer que hay una z variable latente.
Que no se observan z pero observar en su lugar y que toma el valor 0 ó 1. En el modelo logit asumimos eso y sigue un distribución logística. En el modelo probit asumimos que eso y sigue una distribución normal estándar. Tenga en cuenta que en las ciencias sociales (e.g. economía), probit se utiliza a menudo para situaciones modelo donde la observada y variable es continua pero toma valores entre 0 y 1.
Logit y probit
El Modelo probit ha existido más de la modelo logit. Se comportan de manera similar, excepto que el distribución logística tiende a ser ligeramente adular a cola. Una de las razones que fue formulado el modelo logit que era el modelo probit computacionalmente difícil debido al requisito de calcular numéricamente integrales. La informática moderna sin embargo ha hecho este cálculo bastante simple. Los coeficientes obtenidos del modelo probit y logit son bastante cercanos. Sin embargo, la odds-ratio es más fácil de interpretar en el modelo logit.
Razones prácticas para elegir el modelo probit sobre el modelo logístico sería:
- Existe la creencia de que la distribución subyacente es normal
- El evento no es un resultado binario (por ejemploestado de quiebra) pero una proporción (por ejemploproporción de la población en los niveles de deuda diferentes).
Modelos de la serie de tiempo
Series de tiempo los modelos se utilizan para predecir o pronosticar el comportamiento futuro de variables. Estos modelos representan el hecho de que los puntos de datos tomados con el tiempo pueden tener una estructura interna (como autocorrelación, tendencia o variación estacional) que debe ser contabilizada. Como resultado no se puede aplicar técnicas de regresión estándar para datos de series temporales y metodología ha sido desarrollada para descomponer la tendencia, el componente estacional y cíclico de la serie. Modelado de la ruta de acceso dinámico de una variable puede mejorar las previsiones desde el componente previsible de la serie puede proyectarse hacia el futuro.
Modelos de la serie de tiempo estiman ecuaciones en diferencias que contiene componentes estocásticos. Dos formas usadas de estos modelos son: modelos autorregresivos (AR) y media móvil Modelos (MA). El Box-Jenkins (1976) la metodología desarrollada por George Box y Jenkins G.M. combina los modelos AR y MA para producir el ARMA modelo (autorregresivo de media móvil) que es la piedra angular del análisis de series temporales estacionarias. ARIMA(modelo autorregresivo integrado movimiento modelos promedio) por otro lado se utilizan para describir la serie de tiempo no estacionarias. Box y Jenkins sugiere comparar una serie de tiempo no estacionarias para obtener una serie estacionaria a la que se puede aplicar un modelo ARMA. Series de tiempo no estacionarias tienen una tendencia pronunciada y no tienen un promedio de largo plazo constante o varianza.
Box y Jenkins propuso una metodología de tres etapas que incluye: identificación, valoración y validación del modelo. La etapa de identificación consiste en determinar si la serie es estacionaria o no y la presencia de la estacionalidad mediante el examen de las parcelas de la serie, autocorrelación y autocorrelación parcial funciones. En la etapa de estimación, los modelos se calculan utilizando series de tiempo no lineales o procedimientos de estimación de máxima verosimilitud. Finalmente la etapa de validación consiste en comprobar diagnóstico como trazar los residuos para detectar outliers y pruebas del modelo de ajuste.
En los últimos años de series temporales modelos se han vuelto más sofisticados y trate de modelo Heteroskedasticidad condicional con modelos tales como arco)Heteroskedasticidad condicional autorregresiva) y los modelos GARCH (Heteroskedasticidad condicional autorregresiva generalizada) utilizados con frecuencia para series de tiempo financieras. Además también utilizan modelos de la serie de tiempo para entender las interrelaciones entre las variables económicas representadas por los sistemas de ecuaciones utilizando VAR (vectores autorregresivos) y modelos estructurales de VAR.
Análisis de supervivencia o duración
Análisis de supervivencia es otro nombre para el tiempo de análisis del evento. Estas técnicas se desarrollaron principalmente en las ciencias médicas y biológicas, pero son también ampliamente utilizados en las ciencias sociales como la economía, así como en ingeniería (análisis de fiabilidad y falta tiempo).
Censura y no-normalidad, que son características de los datos de supervivencia, generan dificultad cuando se trata de analizar los datos usando modelos estadísticos convencionales tales como múltiples regresión lineal. El distribución normal, siendo una distribución simétrica, toma positivo así como los valores negativos, pero la duración por su propia naturaleza no puede ser negativo y por lo tanto no se puede suponer normalidad cuando se trata con datos de duración/supervivencia. Por lo tanto, la suposición de normalidad de modelos de regresión es violada.
La hipótesis es que si los datos no fueron censurados sería representante de la población de interés. En análisis de supervivencia, censuradas observaciones ocurren cuando la variable dependiente de interés representa el tiempo a un evento terminal, y la duración del estudio es limitada en el tiempo.
Un concepto importante en el análisis de supervivencia es la tasa de riesgo, define como la probabilidad que el evento se producirá en el momento t condicionada a sobrevivir hasta el tiempo t. Otro concepto relacionado con la tasa de riesgo es la función de supervivencia que puede definirse como la probabilidad de sobrevivir al tiempo t.
Mayoría de los modelos trata de la tasa de riesgo del modelo eligiendo la distribución subyacente dependiendo de la forma de la función de riesgo. Una distribución cuya función de riesgo pendientes hacia arriba se dice que tiene dependencia de duración positiva, un peligro para la disminución muestra dependencia duración negativo mientras que peligro constante es un proceso sin memoria caracterizada generalmente por la distribución exponencial. Algunas de las opciones de distribución en los modelos de supervivencia son: F, gamma, Weibull, log normal, lo contrario normal, etc. exponencial. Todas estas distribuciones son para una variable aleatoria no negativo.
Modelos de duración pueden ser paramétrico, semi-paramétrica o no paramétrica. Algunos de los modelos utilizados son Kaplan-Meier y modelo de riesgos proporcionales de Cox (no paramétrica).
Árboles de clasificación y regresión
Jerárquico óptima discriminante análisis (HODA), (también llamado análisis de árbol de clasificación) es una generalización de Análisis discriminante óptima puede utilizarse para identificar el modelo estadístico que tiene la máxima precisión para predecir el valor de una variable categórica para un conjunto de datos que consta de variables categóricas y continuas. La salida de HODA es un árbol no ortogonales que combina las variables categóricas y puntos para las variables continuas que brinde la máxima exactitud predictiva de corte, una evaluación de la exacta tipo tasa de error y una evaluación del potencial Cruz-generalización del modelo estadístico. Análisis discriminante óptima jerárquico puede ser pensado como una generalización del análisis lineal discriminante de Fisher. Análisis discriminante óptimo es una alternativa al ANOVA (análisis de varianza) y el análisis de regresión, que intentan expresar una variable dependiente como una combinación lineal de otras características o medidas. Sin embargo, el análisis de varianza y regresión dan una variable dependiente es una variable numérica, mientras que el análisis discriminante óptima jerárquico da una variable dependiente es una variable de clase.
Árboles de clasificación y regresión (carro) es un no paramétrica aprendizaje de árbol de decisión técnica que produce árboles de clasificación o regresión, dependiendo de si la variable dependiente es categórica o numérica, respectivamente.
Árboles de decisión están formadas por un conjunto de reglas basadas en variables en el conjunto de datos de modelado:
- Reglas basadas en los valores de las variables son seleccionadas para buscar la mejor parte para diferenciar las observaciones basadas en la variable dependiente
- Una vez que una regla se selecciona y bifurca un nodo, el mismo proceso se aplica a cada nodo "hijo" (es decir, es un procedimiento recursivo)
- División se detiene cuando carro detecta ninguna otra ganancia puede realizarse, o se cumplan algunas reglas de parada preestablecida. (Alternativamente, los datos se dividen tanto como sea posibles y luego el árbol es más adelante poda.)
Cada rama del árbol termina en un nodo terminal. Cada observación cae en exactamente un nodo terminal, y cada nodo terminal únicamente está definido por un conjunto de reglas.
Un método muy popular para análisis predictivo es de Leo Breiman Bosques al azar o versiones derivadas de esta técnica como Al azar multinomial logit.
Splines de regresión multivariante adaptativa
Splines de regresión multivariante adaptativa (Marte) es una no paramétrica técnica que construye modelos flexibles de montaje por trozos regresiones lineales.
Un concepto importante asociado con las tiras de regresión es la de un nudo. El nudo es donde un modelo de regresión local da paso a otro y por lo tanto es el punto de intersección entre dos curvas spline.
En splines de regresión multivariante y adaptable, funciones de base son la herramienta usada para generalizar la búsqueda de nudos. Las funciones de base son un conjunto de funciones que se utilizan para representar la información contenida en una o más variables. Modelo multivariante y curvas spline de regresión adaptativa casi siempre crea las funciones de base en pares.
Tira de regresión multivariante y adaptativa enfoque deliberadamente overfits el modelo y luego pasas al modelo óptimo. El algoritmo es computacionalmente muy intensivo y en la práctica estamos obligados a especificar un límite en el número de funciones base.
Técnicas de aprendizaje máquina
Aprendizaje automático, una rama de la inteligencia artificial, fue originalmente empleado para desarrollar técnicas para permitir que los ordenadores aprender. Hoy en día, ya que incluye un número de métodos estadísticos avanzados para regresión y clasificación, que encuentra aplicación en una amplia variedad de campos incluyendo diagnóstico médico, detección de fraude de tarjeta de crédito, cara y reconocimiento de voz y el análisis de la mercado de valores. En ciertas aplicaciones es suficiente predecir la variable dependiente directamente sin concentrarse en las relaciones entre las variables subyacentes. En otros casos, las relaciones subyacentes pueden ser muy complejas y la forma matemática de las dependencias desconocidas. En tales casos, técnicas de aprendizaje máquina emulan humana cognición y aprender de los ejemplos de entrenamiento para predecir los acontecimientos futuros.
Una breve discusión de algunos de estos métodos usados comúnmente para análisis predictivo es proporcionada a continuación. Un estudio detallado del aprendizaje automático puede encontrarse en Mitchell (1997).
Redes neuronales
Redes neuronales son no lineal técnicas de modelado sofisticadas que son capaces de modelo funciones complejas. Pueden ser aplicados a problemas de predicción, clasificación o control en un amplio espectro de campos tales como Finanzas, psicología cognitiva/Neurociencia, medicina, Ingeniería, y física.
Las redes neuronales se usan cuando se desconoce la naturaleza exacta de la relación entre entradas y salida. Una característica clave de las redes neuronales es que aprenden la relación entre entradas y salida a través del entrenamiento. Existen tres tipos de capacitación en redes neuronales utilizado por distintas redes, supervisado y sin supervisión capacitación, refuerzo de aprendizaje, con actividades siendo la más común.
Algunos ejemplos de técnicas de entrenamiento de redes neuronales backpropagation, propagación rápida, descenso de gradiente conjugado, operador de proyecciónDelta-Bar-Delta, etc. Algunas arquitecturas de red sin supervisión son multicapas perceptrones, Redes de Kohonen, Redes de Hopfield, etc..
Perceptrón multicapa (MLP)
El perceptrón multicapa (MLP) consiste en una entrada y una capa de salida con una o más capas ocultas de activación no linealmente nodos o nodos del colon sigmoide. Esto es determinado por el vector de peso y es necesario ajustar los pesos de la red. El backpropogation emplea gradiente caída para minimizar el error al cuadrado entre los valores de salida de red y los valores deseados para las salidas. Los pesos ajustados por un proceso iterativo de regalo repetitivo de atributos. Pequeños cambios en el peso para obtener los valores deseados se realizan mediante el proceso denominado la red de formación y se realiza por el conjunto de entrenamiento (regla de aprendizaje).
Funciones de base radial
A función de base radial (RBF) es una función que se ha incorporado un criterio de distancia con respecto a un centro. Tales funciones pueden utilizarse muy eficiente para la interpolación y para alisar de datos. Las funciones de base radial se han aplicado en el área de redes neuronales donde se utilizan como un reemplazo para el sigmoidal función de transferencia. Estas redes tienen 3 capas, la capa de entrada, la capa oculta con el RBF linealidad y una capa de salida lineal. La opción más popular para la no linealidad es el Gauss. RBF redes tienen la ventaja de no estar encerrados en mínimos locales como el feed-forward redes como la multicapa Perceptrón.
Máquinas de vectores soporte
Máquinas de vectores soporte (SVM) se utilizan para detectar y explotar los patrones complejos en datos por agrupamiento, clasificación y ranking de los datos. Están aprendiendo las máquinas que se utilizan para realizar clasificaciones binarias y estimaciones de regresión. Comúnmente usan métodos kernel basado en aplicar técnicas de clasificación lineal a problemas no lineales de la clasificación. Hay un número de tipos de SVM como lineal, polinomial, etc. del colon sigmoide.
Bayes Ingenuo
Bayes Ingenuo basado en la regla de probabilidad condicional se utiliza para realizar tareas de clasificación de Bayes. Naïve Bayes asume que los predictores son estadísticamente independientes que resulta una herramienta eficaz clasificación que es fácil de interpretar. Mejor se emplea cuando se enfrentan con el problema de 'Maldición de dimensionalidad"es decir, cuando el número de predictores es muy alto.
k-más cercano a los vecinos
El más cercano vecino algoritmo (KNN) pertenece a la clase de métodos estadísticos de reconocimiento de patrón. El método no impone un priori ninguna suposición acerca de la distribución desde la que se extrae la muestra de modelado. Se trata de una formación con valores positivos y negativos. Una nueva muestra se clasifica mediante el cálculo de la distancia hasta el vecino más cercano caso de entrenamiento. El signo de ese punto determinará la clasificación de la muestra. En el k-nearest clasificador vecino, el k más cercana puntos son considerados y el signo de la mayoría se utiliza para clasificar la muestra. El rendimiento del algoritmo kNN está influenciado por tres factores principales: (1) la medida de distancia utilizada para localizar los vecinos más cercanos; (2) la regla de decisión utilizada para derivar una clasificación de los vecinos k-nearest; y (3) el número de vecinos para clasificar la nueva muestra. Se puede probar que, a diferencia de otros métodos, este método es universalmente asintóticamente convergente, es decir: como el tamaño de la formación establece aumentos, si las observaciones son independientes e idénticamente distribuidas (d.), independientemente de la distribución de la cual se extrae la muestra, la clase prevista se reunirán a la asignación de clase que minimiza el error de clasificación. Ver Devroy et al.
Modelado predictivo geoespacial
Conceptualmente, modelado predictivo geoespacial se basa en el principio que las ocurrencias de eventos siendo modelados están limitadas en su distribución. Las ocurrencias de eventos no son uniformes ni al azar en distribución – hay factores del entorno espacial (infraestructura, sociocultural, topográfico, etc.) que limitan e influyen en donde ocurren las ubicaciones de los eventos. Geospatial predictivo modelado intentos para describir esas limitaciones e influye al correlacionar espacialmente las ocurrencias de lugares históricos geoespaciales con los factores ambientales que representan esas limitaciones e influencias. Modelado predictivo geoespacial es un proceso para analizar los acontecimientos a través de un filtro geográfico para hacer declaraciones de probabilidad de ocurrencia del evento o emergencia.
Herramientas
Históricamente, utilizando herramientas de análisis predictivo, así como comprender los resultados entregaron — requiere habilidades avanzadas. Sin embargo, ya no están restringidas a especialistas herramientas modernas de análisis predictivo[citación necesitada]. Como más organizaciones adoptan análisis predictivo en los procesos de toma de decisiones e integran en sus operaciones, están creando un cambio en el mercado hacia los usuarios de empresas como los consumidores primarios de la información. Los usuarios empresas buscan herramientas pueden utilizar solos. Los vendedores responden mediante la creación de nuevo software que elimina la complejidad matemática, proporciona interfaces gráficas fáciles de usar o cortes que pueden, por ejemplo, reconocer el tipo de datos disponibles y proponer un modelo predictivo apropiado se basa en breve.[18] Análisis predictivo herramientas han convertido en lo suficientemente sofisticados para presentar y analizar los problemas de datos adecuadamente[citación necesitada], para que cualquier trabajador información datos experimentados puede utilizar para analizar datos y obtener resultados significativos, útiles.[2] Por ejemplo, las herramientas modernas presentan resultados usando simples tablas, gráficos y las puntuaciones que indican la probabilidad de los posibles resultados.[19]
Hay numerosas herramientas disponibles en el mercado que ayudan con la ejecución del análisis predictivo. Estos van desde aquellos que requieren muy poca sofisticación de usuario a los que están diseñados para el practicante experto. La diferencia entre estas herramientas es a menudo en el nivel de personalización y datos pesados de elevación permitido.
Herramientas analítica predictiva notable open source incluyen:
- scikit-aprender
- KNIME
- OpenNN
- Naranja
- R
- RapidMiner
- Weka
- GNU Octave
- Apache Mahout
Herramientas analíticas predictivas comerciales notables incluyen:
- Datos alpino Labs
- BIRT Analytics
- Angoss KnowledgeSTUDIO
- IBM SPSS Statistics y IBM SPSS Modeler
- KXEN Modeler
- Mathematica
- MATLAB
- Minitab
- Minería de datos de Oracle (ODM)
- Penetrante
- Revolución Analytics
- SAP
- SAS y SAS Enterprise Miner
- STATA
- STATISTICA
- TIBCO
- FICO
Los paquetes de software de análisis predictivo comerciales más populares según la encuesta de Analytics Rexer para 2013 son IBM SPSS Modeler, SAS Enterprise Miner y Statistica Dell <https://www.rexeranalytics.com/Data-Miner-Survey-2013-Intro.html>
PMML
En un intento de proporcionar un lenguaje estándar para expresar modelos predictivos, el Predictive Model Markup Language Se ha propuesto (PMML). Un lenguaje basado en XML proporciona una manera para las distintas herramientas para definir modelos predictivos y compartir estas entre las aplicaciones compatibles con PMML. PMML 4.0 fue liberado en junio de 2009.
Crítica
Hay un montón de escépticos cuando se trata de computadoras y algoritmos habilidades para predecir el futuro, incluyendo Gary King, un profesor de la Universidad de Harvard y director del Instituto para las ciencias sociales cuantitativas. [20] Personas están influenciados por su entorno de innumerables maneras. A continuación tratando de entender lo que hará la gente asume que todas las variables influyentes pueden ser conocidas y medidas con precisión. "Entornos de la gente cambian más rápidamente de lo que ellos mismos hacen. Todo, desde el tiempo a su relación con su madre puede cambiar la forma de pensar y actuar. Todas esas variables son impredecibles. ¿Cómo afectará a una persona es menos predecible. Si poner en la misma situación mañana, puede tomar una decisión completamente diferente. Esto significa que una predicción estadística sólo es válida en condiciones de laboratorio estéril, que de repente no es tan útil como parecía antes". [21]
Véase también
- Reducción penal utilizando la historia estadística
- Minería de datos
- Análisis de aprendizaje
- Algoritmo de probabilidades
- Reconocimiento de patrones
- Análisis prescriptivo
- Modelación predictiva
- RiskAoA una herramienta predictiva para discriminar las decisiones futuras.
Referencias
|
Este artículo incluye un lista de referencias, pero sus orígenes no están claros porque tiene suficientes citas en línea. (Octubre de 2011) |
- ^ a b Nyce, Charles (2007), Análisis predictivo White PaperAmerican Institute for fletado propiedad Casualty Underwriters/Insurance Institute de Estados Unidos, p. 1
- ^ a b c Eckerson, Wayne (10 de mayo de 2007), Extiende el valor de tu Data Warehousing inversiónEl Instituto de almacén de datos
- ^ a b Conz, Nathan (02 de septiembre de 2008), "Las aseguradoras desplazar a las tecnologías de análisis predictivo centrada en el cliente", Seguros & tecnología
- ^ Fletcher, Heather (02 de marzo de 2011), "Los 7 mejores usos para el análisis predictivo en Marketing multicanal", Target Marketing
- ^ Korn, Sue (21 de abril de 2011), "La oportunidad para el análisis predictivo en finanzas", HPC Wire
- ^ a b Barkin, Eric (mayo de 2011), "CRM + análisis predictivo: por qué es todo suma", Destino CRM
- ^ Das, Krantik; Vidyashankar, G.S. (01 de julio de 2006), "La ventaja competitiva en el comercio minorista a través de Analytics: desarrollo de ideas, la creación de valor", Gestión de la información
- ^ McDonald ' s, Michèle (02 de septiembre de 2010), "Nueva tecnología grifos 'Análisis predictivo' para recomendaciones sobre viajes de destino", Informe del mercado de viajes
- ^ Stevenson, Erin (16 de diciembre de 2011), "Tech Beat: usted puede pronunciar salud análisis predictivo?", Tiempos estándar
- ^ McKay, Lauren (agosto de 2009), "La nueva receta para Pharma", Destino CRM
- ^ a b c Schiff, Mike (06 de marzo de 2012), Expertos en BI: Por qué análisis predictivo va a seguir creciendoEl Instituto de almacén de datos
- ^ Nigrini, Mark (junio de 2011). "Análisis forense: métodos y técnicas de investigación de contabilidad forense". Hoboken, NJ: John Wiley & Sons Inc. ISBN978-0-470-89046-2.
- ^ Dhar, Vasant (abril de 2011). "Predicción de los mercados financieros: el caso de pequeñas Disjuncts". ACM Transactions on sistemas inteligentes y tecnologías 2 (3).
- ^ Dhar, Vasant; Chou, Dashin y Provost Foster (octubre de 2000). "Descubrir patrones interesantes en las decisiones de inversión con GLOWER – un algoritmo de aprendizaje genético superpuestas con reducción de entropía". Minería de datos y descubrimiento de conocimiento 4 (4).
- ^ https://ACC.Dau.mil/CommunityBrowser.aspx?ID=126070
- ^ I. Ben-Gal Dana A., N. Shkolnik y cantante (2014). Construcción eficiente de árboles de decisión por el método de distancia información Dual. Calidad, tecnología y gestión cuantitativa (QTQM), 1, 133-147.
- ^ Ben-Gal I., Y. Shavitt, Weinsberg E., U. de Weinsberg (2014). Recuperación de información peer-to-peer mediante contenido compartido de clustering. Knowl Inf Syst DOI 10.1007/s10115-013-0619-9.
- ^ Halper, Fern (01 de noviembre de 2011), "Las tendencias Top 5 en análisis predictivo", Gestión de la información
- ^ MacLennan, Jamie (01 de mayo de 2012), 5 mitos sobre análisis predictivoEl Instituto de almacén de datos
- ^ Templo-Raston, Dina (08 de octubre de 2012), ¿Prediciendo el futuro: Fantasía o un buen algoritmo?NPR
- ^ Alverson, Cameron (Sep 2012), Modelos de encuestas y estadísticos no pueden predecir el futuroAlverson Cameron
Lectura adicional
- Agresti, Alan (2002). Análisis de datos categoriales. Hoboken: Juan Wiley e hijos. ISBN0-471-36093-7.
- Coggeshall, Stephen Davies, John, Jones, Roger.y Schutzer, Daniel, "Sistemas de seguridad inteligente", en Freedman, Roy S., Flein, Robert A. y Lederman, Jess, editores (1995). Inteligencia artificial en los mercados de capitales. Chicago: Irwin. ISBN1-55738-811-3.
- L. Devroye, L. Györfi, G. Lugosi (1996). Una teoría probabilística de reconocimiento de patrones. Nueva York: Springer-Verlag.
- Enders, Walter (2004). Econometría de Series de tiempo aplicado. Hoboken: Juan Wiley e hijos. ISBN0-521-83919-X.
- Greene, William (2012). Análisis econométrico, 7ª Ed.. Londres: Prentice Hall. ISBN978-0-13-139538-1.
- Guidère, Mathieu; Howard N, ksh Argamon (2009). Análisis de la lengua de ricos para Counterterrrorism. Berlín, Londres, Nueva York: Springer-Verlag. ISBN978-3-642-01140-5.
- Mitchell, Tom (1997). Aprendizaje automático. Nueva York: McGraw-Hill. ISBN0-07-042807-7.
- Siegel, Eric (2013). Análisis predictivo: El poder de predecir quién se haga clic en comprar, mentira o morir. John Wiley. ISBN978-1-1183-5685-2.
- Tukey, John (1977). Análisis exploratorio de datos. Nueva York: Addison-Wesley. ISBN0-201-07616-0.
- Finlay, Steven (2014). Análisis predictivo, Data Mining y Big Data. Mitos y conceptos erróneos métodos. Basingstoke: Palgrave Macmillan. ISBN978-1-137-37927-6.