Documento de modelo estadístico
Documento del modelo estadístico 1 Revisión teórica y análisis de aplicación del modelo de arbitraje estadístico
El modelo de arbitraje estadístico se basa en economía y estadística cuantitativa. Al analizar datos históricos, estimamos la distribución de probabilidad de variables relevantes, predecimos retornos futuros basados en datos fundamentales y buscamos oportunidades de arbitraje para operar. El arbitraje estadístico tiene una gran importancia teórica y práctica debido a sus propiedades estadísticas en el análisis de series temporales. En la práctica, se utiliza ampliamente en 10 fondos de cobertura para obtener rendimientos. En teoría, se refleja principalmente en las pruebas de eficacia del capital y las calificaciones de fondos abiertos. Este artículo presenta los principios básicos, las estrategias comerciales y las direcciones de aplicación del arbitraje estadístico.
Análisis de la aplicación de negociación de pares de arbitraje estadístico de palabras clave
1. Introducción al principio del modelo de arbitraje estadístico
El modelo de arbitraje estadístico se basa en dos o más altamente correlacionados. acciones u otros valores. Verificadas mediante ciertos métodos, las fluctuaciones de los precios de las acciones mantienen esta buena correlación durante un período de tiempo, por lo que una vez que hay una divergencia entre ambas y se espera que esta divergencia de precios se corrija en el futuro, pueden surgir oportunidades de arbitraje. En la práctica del arbitraje estadístico, cuando hay una divergencia entre los dos, se pueden comprar acciones cuyos precios de rendimiento están subestimados y los precios de venta están sobreestimados. Cuando la divergencia de precios entre los dos se corrige en el futuro, se puede realizar el cierre opuesto. operación. La premisa para realizar el principio del arbitraje estadístico es la reversión a la media, es decir, hay un rango medio (en la práctica, la serie temporal de precios de los activos es generalmente estable y su diagrama de secuencia fluctúa dentro de un cierto rango), y la desviación del precio es a corto plazo. Con la práctica, con el tiempo, los precios de los activos volverán a su rango medio. Si la serie temporal es estable, podemos construir un mecanismo de descubrimiento de señales para el comercio de arbitraje estadístico, que mostrará si los precios de los activos se han desviado del promedio a largo plazo y si existen oportunidades de arbitraje. En cierto sentido, hay dos valores con el mismo punto (como acciones de la misma industria) y existe una buena correlación entre sus precios de mercado. Los precios tienden a moverse en la misma dirección, por lo que la diferencia de precios o relación de precios. a menudo gira en torno a Un valor fijo fluctúa.
2. Estrategias comerciales y procesamiento de datos de modelos de arbitraje estadístico
Existen muchas estrategias para el arbitraje estadístico, como el comercio de pares/canastas, modelos multifactoriales, etc. La estrategia más utilizada en la actualidad es principalmente la estrategia de negociación de pares. La estrategia emparejada, también conocida comúnmente como carry trade, consiste en emparejar una posición larga con una posición corta en la misma industria o acciones cuyos precios sean estables y equilibrados a largo plazo, lo que permite a los operadores mantener una posición neutral en el mercado. Esta estrategia es más adecuada para fondos gestionados activamente.
Hay dos pasos principales para implementar una estrategia de negociación de pares: primero, la selección de pares de acciones. El analista de Haitong Securities, Zhou Jian, señaló en el artículo "Investigación sobre estrategias de rendimiento absoluto: arbitraje estadístico" que la selección de acciones debe combinar fundamentos e industrias, a fin de garantizar rendimientos estratégicos y reducir eficazmente los riesgos. Como las industrias bancaria, inmobiliaria, del carbón y de la electricidad. Teóricamente, los métodos de análisis de conglomerados en estadística se pueden utilizar para la clasificación y luego se pueden realizar pruebas de cointegración, de modo que la probabilidad de éxito sea mayor. El segundo es probar la correlación entre la secuencia de precios de las acciones y entre sí. Actualmente, se utilizan comúnmente la teoría de la cointegración y el modelo de paseo aleatorio.
Para utilizar la teoría de la cointegración para juzgar la correlación de las series de precios de las acciones, primero debemos probar la estacionariedad de las series de precios de las acciones. Los métodos de prueba más utilizados incluyen el método gráfico y la prueba de raíz unitaria. El método gráfico consiste en que las variables de la serie de tiempo seleccionadas y las primeras diferencias son ambas series de tiempo. Como se puede ver en la figura, es posible que haya aparecido una tendencia en la serie temporal de la variable, pero la serie temporal posterior a la primera diferencia muestra aleatoriedad, por lo que la serie puede ser estacionaria. Pero juzgar gráficamente si una secuencia existe es subjetivo. Teóricamente, la prueba de la estacionariedad y el rango de una secuencia se determina mediante la prueba de raíz unitaria. Existen muchos métodos para la prueba de raíz unitaria, como la prueba DF, la prueba ADF y la prueba no paramétrica de Phillips (prueba PP). La prueba ADF se utiliza comúnmente.
Después de la prueba, si la secuencia en sí o la primera diferencia es estacionaria, se pueden realizar pruebas de cointegración en diferentes secuencias de acciones. El método de prueba de cointegración incluye principalmente el método de dos pasos de EG, es decir, primero realizar una regresión lineal ordinaria en la variable a probar para obtener los residuos de primer orden y luego realizar una prueba de raíz unitaria en la secuencia residual.
Si hay raíz unitaria, entonces las variables no están cointegradas. Si no hay raíz unitaria, entonces la serie es estacionaria. La prueba EG es más adecuada para pruebas de cointegración entre dos series. Además de la prueba EG, también existen la prueba de Johansen, la prueba de Gregory Hansan, el método del modelo de retraso autorregresivo, etc. La prueba de Johansen es más adecuada para probar la relación de cointegración entre más de tres series. A través de la prueba de cointegración, podemos determinar la correlación entre las series de precios de las acciones y la realización de operaciones de pares.
Christian L. Dunis y Gianluigi Giorgioni (2010) utilizaron datos de alta frecuencia en lugar de datos comerciales diarios para el arbitraje, y compararon los rendimientos inmediatos del arbitraje entre pares de acciones con relaciones de cointegración y pares de acciones sin relaciones de cointegración. Tasa. Los resultados muestran que cuanto mayor sea la relación de cointegración de precios entre acciones, mayores serán las oportunidades de arbitraje estadístico y mayor será el rendimiento potencial.
Según el modelo de paseo aleatorio, ¿podemos comprobar si las fluctuaciones del precio de las acciones se deben a las fluctuaciones? ¿memoria? , es decir, si existen componentes predecibles. Generalmente, se puede dividir en dos situaciones: análisis de previsibilidad a corto plazo y análisis de previsibilidad a largo plazo. En el análisis de previsibilidad a corto plazo, los criterios de prueba se centran principalmente en el tercer caso del proceso de paseo aleatorio, es decir, el estudio de incrementos no correlacionados. Las herramientas de prueba que se pueden utilizar son la prueba de autocorrelación y la prueba de relación de varianza. En las pruebas de autocorrelación en serie, las estadísticas comúnmente utilizadas incluyen el coeficiente de autocorrelación y la estadística Q de Baucus-Pierce. Cuando estas dos estadísticas son significativamente mayores que sus niveles críticos en un cierto nivel de confianza, indica que la autocorrelación serial es predecible. La prueba del índice de varianza sigue el hecho de que la varianza del rendimiento logarítmico de los precios de las acciones de un paseo aleatorio aumenta linealmente con los períodos, y el incremento durante estos períodos es mensurable. De esta manera, la varianza del rendimiento calculada en el período K debe ser aproximadamente igual a la varianza de K multiplicada por el rendimiento de un solo período. Si la fluctuación del precio de las acciones es aleatoria, el índice de varianza es cercano a 1; cuando hay autocorrelación positiva, el índice de varianza es mayor que 1; cuando hay autocorrelación negativa, el índice de varianza es menor que 1; Para el análisis de previsibilidad a largo plazo, dado que el efecto de la prueba del índice de varianza no es obvio cuando el período de tiempo es grande, se puede utilizar el análisis R/S para medir su previsibilidad a largo plazo con el índice de Hurst. el coeficiente de regresión de la siguiente ecuación:
Ln[(R/S)N]=C+H*LnN
R/S es el rango de reescalamiento, n es el número de observaciones, h es el índice de Hurst y c es constante. Cuando H >0.5, indica que estas acciones pueden tener memoria a largo plazo, pero aún no está claro si esta secuencia es un paseo aleatorio o una serie de tiempo fractal continua, y se requiere una prueba de significancia.
Ya sea que se juzgue mediante una prueba de cointegración o un paseo aleatorio, el propósito es encontrar una relación de equilibrio a corto o largo plazo para que nuestra estrategia de arbitraje estadístico pueda implementarse de manera efectiva.
Generalmente, los datos utilizados para el arbitraje estadístico son los datos del precio de cierre del día de negociación, pero investigaciones recientes han descubierto que las estadísticas de datos de alta frecuencia en el mercado (como 5 minutos, 10- datos de transacciones de precios de cierre de minutos, 15 minutos y 20 minutos) Hay más oportunidades de arbitraje. Para los datos de negociación diaria, elegimos el precio de cierre antes de la restauración. Si la diferencia de precio entre las dos acciones es relativamente grande, se requiere un procesamiento logarítmico avanzado. Christian L. Dunis y Gianluigi Giorgioni (2010) utilizaron precios de cierre de 15 minutos, precios de cierre de 20 minutos, precios de cierre de 30 minutos y precios de cierre de 1 hora como muestras para realizar análisis de arbitraje estadístico. Los resultados mostraron que el uso de alta frecuencia. Los datos para el arbitraje estadístico tienen mayores ingresos. Además, en una serie de estudios sobre estrategias de rendimiento absoluto, los analistas financieros de Haitong Securities realizaron transacciones de arbitraje estadístico sobre muestras de acciones basadas en el índice CSI 300. Los rendimientos acumulados calculados utilizando datos de alta frecuencia fueron superiores a los calculados utilizando operaciones diarias. casi 5 puntos porcentuales.
En tercer lugar, ampliar la aplicación de modelos de arbitraje estadístico: probar la eficacia del mercado de capitales
La hipótesis del mercado eficiente propuesta por Fama (1969) significa que el mercado puede procesar rápida y razonablemente Reaccionar para que los precios de mercado reflejen plenamente toda la información disponible, haciendo que el precio de los activos sea imposible de predecir con información actual y haciendo imposible que alguien obtenga ganancias excesivas de manera constante. Al probar la existencia de oportunidades de arbitraje estadístico, es posible verificar si los mercados de capitales son eficientes, débilmente eficientes o ineficaces. Xu (2005) utilizó el arbitraje estadístico para realizar un estudio empírico sobre la eficiencia del mercado de capitales de China y por primera vez concluyó que la existencia de oportunidades de arbitraje estadístico es incompatible con la eficiencia del mercado de capitales.
Con base en esta teoría, este artículo examina si existen oportunidades de arbitraje estadístico en las estrategias de inversión de inercia de precios, reversión de precios y reversión de valor del mercado de valores chino, y encuentra que el mercado de valores chino aún no ha alcanzado una eficiencia de forma débil. Wu (2007) utilizó una vez este método para probar la débil eficiencia del mercado de acciones A de China y descubrió que la inercia y las estrategias de inversión de inversión adoptadas por el mercado de acciones A de China son ineficaces. Además, los académicos chinos Wu y Wei modificaron el modelo de arbitraje estadístico de Hogan y propusieron un método de calificación de fondos abierto basado en el modelo de arbitraje estadístico.
Cuatro. Conclusión
La aplicación actual de los modelos de arbitraje estadístico se refleja principalmente en dos aspectos: 1. El arbitraje es una estrategia comercial eficaz. 2. Verificar la eficacia de los mercados o mercados de capitales detectando la existencia de oportunidades de arbitraje estadístico. Dado que la implementación de estrategias de arbitraje estadístico se basa en el establecimiento de un mecanismo de venta en corto, con el lanzamiento y la mejora de los futuros sobre índices bursátiles y el comercio de margen, se cree que será ampliamente utilizado y desarrollado en China.
Referencias
[1] A.N. Burgess: Metodología computacional para simular la dinámica del arbitraje estadístico, London Business School, tesis doctoral, 1999.
[2]Fang Hao. Modelo teórico y análisis de la aplicación del arbitraje estadístico, basado en la prueba del mercado de fondos cerrados de China. Estadísticas y toma de decisiones, junio de 2005 (Parte 2).
[3]Ma Li, Lu,. Estudio de viabilidad sobre el arbitraje al contado de futuros sobre el índice bursátil CSI 300: un estudio empírico basado en un modelo de arbitraje estadístico. Investigación sobre finanzas y comercio, 2011, 1.
[4]Wu·. Investigación sobre estrategias de arbitraje basadas en futuros sobre el índice bursátil CSI 300[D]. Excelente Tesis de Maestría en China. 2009.
[5]Wu,,. Prueba de arbitraje estadístico de la débil eficiencia en el mercado de valores de China [J]. Teoría y práctica de la ingeniería de sistemas. 2007, 2.
Investigación sobre la estimación de modelos estadísticos semiparamétricos en modelos estadísticos 2
Con el rápido desarrollo de la tecnología de modelos de datos, los modelos de datos existentes ya no pueden resolver algunos problemas de medición encontrados en la práctica. , lo que restringe severamente la aplicación y el desarrollo de la ciencia y la tecnología modernas en modelos de datos. Por lo tanto, en este contexto, los académicos han propuesto nuevas teorías y métodos para experimentos de medición de modelos de datos y han desarrollado aplicaciones de datos de modelos semiparamétricos. Los datos del modelo semiparamétrico son un nuevo modelo de datos de medición basado en modelos paramétricos y modelos no paramétricos, por lo que tiene muchas similitudes con los modelos paramétricos y no paramétricos. Este artículo explorará y discutirá en detalle el modelo estadístico semiparamétrico basado en tecnología de modelo de datos.
Palabras clave El modelo semiparamétrico mejora la medición del error de datos longitudinales
Tomando el modelo semiparamétrico como ejemplo, los valores estimados y observados de los componentes paramétricos y no paramétricos son Se analiza y se utiliza la función spline cúbica. El método de interpolación produce expresiones estimadas para los componentes no paramétricos. Además, para resolver el problema de estimar las partes paramétricas y no paramétricas del modelo semiparamétrico bajo datos longitudinales, se estudiaron y analizaron el modelo de datos semiparamétrico, la normalidad asintótica y la fuerte consistencia bajo la condición de que el error es una secuencia de diferencias martingala. Además, este artículo analiza la selección de parámetros de equilibrio, explica completamente el método de estimación de mínimos cuadrados universales y las conclusiones relacionadas, y analiza y estudia el método iterativo de modelos semiparamétricos.
1. Introducción
En la vida diaria, los modelos de datos paramétricos utilizados por las personas son relativamente simples y, por lo tanto, más fáciles de operar; sin embargo, existen grandes errores en los datos medidos en el uso real; , como medir objetos relativamente pequeños o medir objetos dinámicos. El establecimiento de un modelo de datos semiparamétrico puede resolver y aliviar este problema: puede eliminar o reducir los errores de medición sin generar errores sistemáticos que no puedan parametrizarse. Los errores sistemáticos afectan en gran medida la información diversa de los valores observados. Si se puede mejorar, se podrá lograr un proceso de identificación y extracción de errores más rápido, oportuno y preciso. Esto no sólo puede mejorar la precisión de la estimación de parámetros, sino también complementar eficazmente la investigación científica relacionada.
Por ejemplo, este modelo se ha utilizado con éxito en ejemplos de simulación y aplicaciones prácticas como conversión de coordenadas, posicionamiento GPS y medición de la gravedad. Esto se debe principalmente a que el modelo de datos semiparamétrico es coherente con el modelo de datos utilizado actualmente y puede satisfacer las necesidades reales actuales. El modelo semiparamétrico recientemente establecido y la estimación de sus partes paramétricas y no paramétricas también pueden resolver algunos problemas de estimación de datos de contaminación. Este modelo semiparamétrico no solo estudia su propia estimación en forma de T bajo datos longitudinales, sino que también elabora algunos modelos de datos semiparamétricos con términos suaves.
Además, basándose en la simetría y la asimetría, las estimaciones de parámetros y las hipótesis se pueden probar bajo restricciones lineales, principalmente porque los factores que afectan los valores observados no solo están incluidos en esta relación lineal, sino que también están interferidos por algunos factores específicos, por lo que no se pueden reducir a es el error. Además, la medición basada en variables independientes presenta ciertos errores, lo que muchas veces conlleva la pérdida de una gran cantidad de información importante durante el proceso de cálculo.
2. Modelo de regresión semiparamétrica y su método de estimación
Este modelo fue propuesto por el famoso erudito occidental Stone en la década de 1970 y se desarrolló y maduró gradualmente en la década de 1980. Actualmente, este modelo paramétrico ha sido ampliamente utilizado en muchos campos como la medicina, la biología y la economía.
El modelo de regresión semiparamétrica se encuentra entre el modelo de regresión no paramétrica y el modelo de regresión paramétrica. Su contenido incluye no solo la parte lineal, sino también algunas partes no paramétricas. Cabe decir que este modelo combina con éxito las ventajas de ambos. Los parámetros involucrados en este modelo son principalmente relaciones funcionales, que a menudo decimos que pueden captar y explicar efectivamente la tendencia general de las variables. La parte no paramétrica es principalmente la parte difusa de la relación de la función de valor, en otras palabras, es la local; ajuste de variables. Por lo tanto, el modelo puede hacer un buen uso de la información presentada en los datos, que es incomparable con los modelos de regresión paramétricos y los modelos de regresión no paramétricos, por lo que los modelos semiparamétricos tienden a tener capacidades explicativas más sólidas y precisas.
A juzgar por su uso, este modelo de regresión es un modelo estadístico de uso común. Su forma es:
En tercer lugar, el papel de los datos longitudinales, las funciones lineales y las funciones suaves
La ventaja de los datos longitudinales es que pueden proporcionar muchas condiciones, lo que atrae gran atención. También hay muchos ejemplos de datos verticales actualmente. Pero, en esencia, los datos longitudinales en realidad se refieren a una serie de datos obtenidos a partir de observaciones repetidas del mismo individuo en diferentes momentos y lugares. Sin embargo, debido a ciertas diferencias entre individuos, habrá un cierto sesgo al calcular la varianza de los datos longitudinales. Al observar datos longitudinales, las observaciones son relativamente independientes, por lo que su característica es que puede combinar efectivamente dos datos y series de tiempo completamente diferentes. Es decir, podemos analizar tendencias individuales a lo largo del tiempo y ver cambios generales. En la actualidad, muchos estudios sobre datos longitudinales no solo conservan sus ventajas, sino que también desarrollan e implementan un ajuste lineal local en datos longitudinales sobre esta base. Esto se debe principalmente a que se desea establecer relaciones entre variables de producción, covariables y efectos temporales. Sin embargo, debido a la relativa complejidad de los efectos del tiempo, es difícil llevar a cabo modelos paramétricos.
Además, aunque se han conseguido muchos resultados en la estimación de modelos lineales, la estimación de modelos semiparamétricos aún está en blanco. La estimación de modelos lineales no solo resuelve el problema de la deficiencia de rango o la mala salud, sino que también proporciona métodos para manejar modelos lineales, no lineales y semiparamétricos cuando la matriz está mal condicionada. En primer lugar, los efectos no paramétricos pueden debilitarse comparando dos observaciones con condiciones de observación similares. Por lo tanto, el modelo semiparamétrico se convierte en un modelo lineal y luego los parámetros se estiman con base en el modelo lineal. En la mayoría de los casos, su coeficiente lineal cambiará a medida que cambie otra variable, pero este coeficiente lineal cambia con el tiempo, por lo que es imposible encontrar muestras en el mismo modelo en todos los períodos de tiempo, y también es difícil describirlo con uno o varios reales. funciones. Cuando se trata de datos de medición, si los trata como una variable aleatoria, sólo puede lograr un efecto estimado. Si desea introducir una función no lineal de otra variable en un modelo lineal clásico, es decir, el modelo contiene una parte intrínsecamente no lineal, debe utilizar un modelo lineal semiparamétrico.
Además, también hace referencia al cuerpo compuesto por varias partes. El objeto de investigación son las formas geométricas no suaves y no diferenciables producidas en sistemas no lineales, y el parámetro cuantitativo correspondiente es la dimensión. El estudio de modelos estadísticos fractales es uno de los principales temas de frontera en la investigación no lineal internacional. Por lo tanto, el primer método es el método de estimación de componentes paramétricos no paramétricos, también llamado método de estimación de parámetros. Es un trabajo inicial en el modelo semiparamétrico, es decir, impone ciertas restricciones al espacio funcional, principalmente en referencia a la suavidad. . Algunos investigadores creen que los componentes no paramétricos de los modelos semiparamétricos también son no lineales y, en la mayoría de los casos, tienden a ser no uniformes ni diferenciables. Por lo tanto, los splines cúbicos suaves también se pueden utilizar para estudiar modelos semiparamétricos con los mismos datos y el mismo método de prueba.
Cuarto, la solidez del método de mínimos cuadrados general y del método de mínimos cuadrados del modelo lineal
(1) El método de mínimos cuadrados apareció a finales del siglo XVIII.
En la investigación científica de esa época, a menudo se planteaba una pregunta de este tipo: cómo obtener la mejor estimación de parámetros a partir de múltiples conjuntos de observaciones de parámetros desconocidos. Aunque el método de mínimos cuadrados común en ese momento no era tan bueno como el método de mínimos cuadrados en la norma del error general, el método de mínimos cuadrados era el más utilizado en ese momento y su propósito era estimar parámetros. Después de un período de investigación y aplicación, el método de mínimos cuadrados se ha convertido gradualmente en un sistema teórico relativamente completo. En esta etapa, no sólo se puede conocer claramente el modelo al que obedecen los datos, sino que también se puede utilizar el método de ponderación iterativa para ayudar al modelado semiparamétrico de datos longitudinales. Esto es muy eficaz para estimar componentes no paramétricos utilizando el método de mínimos cuadrados compensados. Siempre que las observaciones sean precisas, la estimación de los componentes no paramétricos también es relativamente confiable. Por ejemplo, en geodesia física, el método de colocación de mínimos cuadrados se ha utilizado durante mucho tiempo para obtener las mejores estimaciones de las anomalías gravitacionales. Sin embargo, cuando se utiliza el método de mínimos cuadrados compensados para estudiar anomalías de gravedad, aunque se considera que el error general es pequeño, también se debe considerar la autenticidad de los estimadores de parámetros. A partir de una comparación con splines parciales ponderados iterativamente se investigan algunas desventajas de los métodos de mínimos cuadrados actualmente utilizados. Cabe decir que este método solo enfatiza la minimización del error general e ignora el error en la estimación de los componentes del parámetro. Por lo tanto, se requiere atención especial durante el funcionamiento real.
(2) Aplicación y diferencia del modelo semiparamétrico en el posicionamiento GPS.
En las observaciones de fase GPS, el error sistemático del modelo semiparamétrico es el principal factor que afecta al posicionamiento de alta precisión. Debido a que hay un cierto error en el modelo antes de la solución, los errores graves deben observarse a tiempo. En el uso de GPS, las coordenadas específicas del punto objetivo en el sistema de coordenadas geográficas real se calculan a través de satélites de transmisión. De esta forma se pueden encontrar y recuperar durante la operación las incógnitas de todo el ciclo. Dado que los valores observados se encuentran entre el satélite y la estación de observación, es difícil expresarlos con parámetros encontrando diferencias dobles para debilitar o reducir el impacto en los errores del sistema de satélite y receptor. Sin embargo, en los cálculos de ajuste, el método de diferencias puede reducir significativamente el número de ecuaciones de observación, pero por diversas razones aún no se obtienen resultados satisfactorios. Sin embargo, se pueden obtener mejores resultados si se opta por utilizar parámetros de un modelo semiparamétrico para representar los errores sistemáticos. Esto se debe principalmente a que el modelo semiparamétrico es un modelo de regresión lineal generalizado. Para modelos semiparamétricos con términos suaves, bajo condiciones adicionales dadas, se puede proporcionar un método de estimación de una función lineal para eliminar errores graves en los valores de medición.
Además, este método se puede utilizar no solo para mediciones GPS, sino también para algunos modelos de parámetros como telémetros de ondas de luz y monitoreo de deformaciones. En muchos casos, especialmente en la investigación teórica en matemáticas, siempre asumimos que S es una variable aleatoria. De hecho, esta suposición es razonable. En los últimos años, hemos logrado buenos resultados en la investigación de este modelo lineal y, debido a su forma relativamente simple y alta aplicabilidad, este modelo ha jugado un papel importante en muchos campos.
A través de ejemplos de simulación y aplicaciones prácticas como transformación de coordenadas, posicionamiento GPS y medición de la gravedad, se ilustra el éxito y la viabilidad de este método, y se ilustra teóricamente que el método de estimación de spline natural actualmente popular es esencialmente el método de compensación mínima. Un caso especial del método de los cuadrados, habrá un amplio margen de desarrollo en el futuro. Además, el objeto de investigación de la teoría fractal mencionada en este artículo deberían ser las geometrías no suaves y no diferenciables generadas en sistemas no lineales, y los fractales han sido ampliamente utilizados en mecánica de fracturas, sismología y otros campos, por lo que deberían extenderse a el estudio de los modelos semiparamétricos no solo puede identificar y extraer errores de manera más oportuna y precisa, sino que también puede mejorar la precisión de la estimación de parámetros, lo cual es un poderoso complemento a la investigación actual de modelos semiparamétricos.
Resumen del verbo (abreviatura de verbo)
El modelo semiparamétrico mencionado en este artículo incluye valores estimados y valores observados de componentes paramétricos y no paramétricos. La expresión del componente no paramétrico se expresa en forma cúbica. Se obtiene mediante interpolación de función spline. Además, para resolver el problema de estimar los parámetros y las partes no paramétricas del modelo semiparamétrico bajo la premisa de datos longitudinales, se estudió y analizó el modelo de datos semiparamétrico, la normalidad asintótica y la fuerte consistencia bajo la condición. que el error es una secuencia de diferencias martingala. También se introduce el método de estimación de mínimos cuadrados. Además, inicialmente se analiza la selección de parámetros de equilibrio y se explica en detalle el método de estimación de mínimos cuadrados universales y las conclusiones relacionadas. A través de la discusión y la investigación sobre el método iterativo del modelo semiparamétrico, se proporciona una explicación teórica detallada del método iterativo, que proporciona una base teórica para la aplicación práctica.
Referencia
[1] Hu Hongchang.
La existencia de una estimación de verosimilitud cuasi máxima del modelo de regresión semiparamétrica con error AR(1)[J] Journal of Hubei Normal University (Natural Science Edition), 2009(03).
Qian Weimin, Li Jingru. Estimación de fuerte coincidencia del modelo de regresión semiparamétrica para datos de contaminación longitudinal [J] Journal of Tongji University (Natural Science Edition), 2009(08).
Fan, Wang Fenling,. Estimación lineal local de mínimos cuadrados del modelo de regresión semiparamétrica para datos longitudinales [J]. Estadística y gestión matemática, 2009 (02).
Cui Hengjian, Wang Qiang. Estimación de parámetros del modelo EV de coeficiente variable [J]. Revista de la Universidad Normal de Beijing (Edición de Ciencias Naturales 2005 (06).
[5]Qian Weimin, Chai Genxiang. Análisis estadístico de modelos de efectos mixtos para datos longitudinales [J]. Anuario de Matemáticas Serie A (Edición china 2009 (04)
Sun Xiaoqian, Eugene Hong. Estimación iterativa de mínimos cuadrados spline parcial ponderada en modelado semiparamétrico de datos longitudinales [J]. Ciencia china (Serie A: Matemáticas), 2009 (05).
Zhang Sanguo, Chen Xiru. Estimación del modelo polinómico EV [J]. Ciencia china (Serie A), 2009 (10).
Ren Zhe, Chen Minghua. Estimación de parámetros por mínimos cuadrados en el análisis de regresión de datos de contaminación [J]. Probabilidad y estadística aplicadas, 2009 (03).
Zhang Sanguo, Chen Xiru. Consistencia de la estimación de máxima verosimilitud modificada del modelo EV bajo observaciones repetidas [J] Science in China (Serie A 2009 (06).
[10]Cui Hengjian, Li Yong, Qin Huaizhen. Teoría de estimación del modelo cuádruple EV semiparamétrico no lineal [J Scientific Bulletin, 2009(23).
Ro. Inferencia estadística de modelos de coeficientes variables con variables de respuesta faltantes aleatoriamente [D] Universidad Central Sur, 2011.
[12]Liu Chaonan. Estimación de parámetros Bayes y análisis de confiabilidad de la distribución de Weibull exponencial de dos parámetros [D].
[13]Guo Yan. Modelo de previsión fiscal de la provincia de Hunan y sus pruebas empíricas y análisis económico [D]. Universidad Centro Sur, 2009.
Sang·hongfang. Inferencia bayesiana de funciones de pérdida y funciones de riesgo para varias estimaciones de parámetros de distribución [D] Universidad Central Sur, 2009.
Zhu Lin. Análisis Bayes de datos libres de fallas sujetos a varias distribuciones de confiabilidad [D] Universidad Central Sur, 2009.
Huang Furong. Análisis estadístico de modelos no lineales de familia exponencial y modelos lineales con error AR(1) [D] Universidad de Ciencia y Tecnología de Nanjing, 2009.
También te puede interesar:
1. Artículo de análisis estadístico.
2. Una excelente muestra de referencia para artículos estadísticos.
3. Excelentes ejemplos de artículos de estadística
4. Ejemplos de referencia de artículos de estadística
& gt& gt& gt ¿Más contenido interesante en la página siguiente? Sobre la planificación unificada y la teoría jerárquica