Red de conocimiento de divisas - Cotizaciones de divisas - Papel índice Shanghai y Shenzhen 300. . . Incluyendo definición, contenido, características, métodos de transacción y tiempo de transacción.

Papel índice Shanghai y Shenzhen 300. . . Incluyendo definición, contenido, características, métodos de transacción y tiempo de transacción.

Se estudió la serie temporal de rentabilidad diaria del índice 300 de Shanghai y Shenzhen y se demostró que era markoviana, y se estableció un modelo de cadena de Markov. Obtenga los datos de tiempo compartido del día de negociación, determine la distribución de probabilidad inicial del estado en función de los datos de tiempo compartido y prediga la tasa de rendimiento diaria del siguiente día de negociación a través de la matriz de probabilidad de transición de un paso. Mediante el análisis y cálculo de este modelo, se concluye que es una cadena de Markov no periódica, irreducible y de estado finito, y se resuelve su distribución estacionaria para obtener la distribución de probabilidad de la tasa de retorno diaria del Índice CSI 300. También predice la probabilidad de subida o bajada del índice CSI 300, que puede proporcionar una referencia para la gestión de inversiones.

Modelo de cadena de Markov, la distribución estacionaria de la distribución de probabilidad de la tasa de retorno diaria del índice CSI 300

1 Introducción

El índice CSI 300 en abril 2005 Lanzado oficialmente. Las acciones que lo componen son acciones de inversión convencionales con buena representación en el mercado, alta liquidez y negociación activa, que pueden reflejar los rendimientos de las inversiones principales en el mercado. Muchos fondos de inversión en valores utilizan el índice CSI 300 como punto de referencia para comparar el rendimiento, por lo que es particularmente importante estudiar los rendimientos del índice CSI 300, que puede proporcionar una referencia para la gestión de inversiones.

La tasa de rentabilidad diaria se calcula en función del precio de cierre del índice CSI 300 el día de negociación. La tasa de rentabilidad diaria se puede dividir en diferentes estados según el intervalo. La tasa puede considerarse como la secuencia de cambio de estados. Puede intentar utilizar el modelo de cadena de Markov para manejarlo. La aplicación del modelo de cadena de Markov en el mercado de valores ha logrado muchos resultados. Las referencias [1], [2], [3], [4] son ​​similares. Todas se basan en el precio de cierre diario del índice compuesto de Shanghai y han logrado ciertos resultados según los estados ascendente, estable y descendente. Sin embargo, para el análisis sólo se utilizan entre 40 y 45 días hábiles. Hay muy pocos datos históricos y la clasificación del estado es aproximada. Las referencias [5] y [6] utilizan el precio semanal del índice de la Bolsa de Valores de Shanghai como objeto para examinar la probabilidad del intervalo de definición del índice (estado). Sin embargo, hay pocos estados (solo 6 y 5 estados respectivamente), el intervalo es grande y el valor de referencia real de los resultados es limitado. La referencia [7] también ha logrado ciertos resultados al clasificar el estado de las acciones individuales según sus precios de acciones.

Sin embargo, la tasa de rendimiento es objeto de más investigaciones en el mercado de valores. Este artículo realiza un estudio en profundidad sobre la tasa de retorno diaria del índice CSI 300, utiliza matlab7.1 como herramienta de cálculo, procesa más datos históricos y de estado, obtiene la distribución de probabilidad de la tasa de retorno diaria del índice CSI 300. y analiza la tasa de retorno diaria. Se predicen cambios en los rendimientos.

2 Método del modelo de cadena de Markov

2.1 Definición de cadena de Markov

Existe un proceso aleatorio {Xt, t∈T}, donde T es el tiempo discreto conjunto, es decir, t = {0, 1, 2, L}, el espacio de estados correspondiente a todos los valores posibles de Xt es el conjunto de estados discreto I = {i0, i1, i2, l}. Para cualquier número entero T ∈. La expresión matemática de la propiedad de Markov de la cadena de Markov es la siguiente:

P{Xn 1=in 1|X0=i0, X1=i1, L, Xn = in } = P { Xn 1 = en 1 | Generalmente existen dos métodos para estimar la matriz de transferencia de probabilidad del estado del sistema: método de probabilidad subjetiva y método de estimación estadística. Los métodos de probabilidad subjetiva se utilizan generalmente cuando no se dispone de estadísticas históricas o los datos están incompletos. Este artículo utiliza el método de estimación estadística. El proceso principal es el siguiente: suponga que el sistema tiene M estados S1, S2, L, s M. De acuerdo con los registros históricos de las transiciones de estado del sistema, se puede obtener la tabla estadística en la Tabla 1. .

Entre ellos, nij representa el número de veces que el sistema pasa del estado I al estado j dentro del rango de datos históricos de la investigación, ■ij representa el estimador de la probabilidad de transición del sistema que pasa del estado I al estado j, luego el estimado valor de ■ij y el estado La matriz de probabilidad de transición p se obtiene de las estadísticas históricas en la Tabla 1, de la siguiente manera:

■ij=nij■nik, P = P 11K P 1mm O MPM 1 L PMN (2)

2.3 Prueba de Mahalanobis

La clave para saber si el proceso aleatorio {Xt, t∈T} es una cadena de Markov es probar su propiedad de Markov, que se puede probar con el estadístico χ2. Los pasos son los siguientes: (nij) El valor obtenido al dividir la suma de la j-ésima columna de m×m por la suma de las filas y columnas se marca ■. j, es decir:

■.j=■nij■■nik, y ■ij=nij■nik(3)

Cuando m es grande, el estadístico obedece al grado de libertad como distribución χ2 de (m-1)2. Seleccione la confianza α, busque la tabla y obtenga χ2α((m-1)2), si χ2α((m-1)2), entonces {Xt, t∈T} puede considerarse como un Markov. cadena; de lo contrario, no se considera una cadena de Markov.

■2=2■■nijlog■ij■. j(4)

2.4 Propiedades de la cadena de Markov

Se definen el espacio de estados y la matriz de probabilidad de transición p del estado y se construye el modelo de cadena de Markov. Supongamos que Pt (0) es el vector de probabilidad inicial, PT (n) es el vector de probabilidad absoluta en el momento de la cadena de Markov y P (n) es la matriz de probabilidad de transición de n pasos de la cadena de Markov, entonces el siguiente teorema se obtiene:

P(n)=PnPT(n)=PT(0)P(n)(5)

Los estados de la cadena de Markov se pueden clasificar y descomponer en la Espacio de estados para estudiar el modelo de cadenas de Markov. Conjuntos irreducibles, periodicidad y ergodicidad de. La distribución estacionaria de la cadena de Markov es irreducible según el teorema. La condición necesaria y suficiente para la regresión normal de la cadena de Markov no periódica es la existencia de una distribución estacionaria de la cadena de Markov no periódica irreducible en un estado finito; proceso estacionario.

Aplicación del método del modelo de cadena de Markov

3.1 Descripción de la observación y división de estados

Tome el índice CSI 300 65438 del 4 de octubre de 2005 a 2007. El precio de cierre de El 20 de abril se utiliza para calcular los ingresos diarios (excluidos los dividendos). Multiplique la tasa de retorno diaria por 100 y regístrela como Ri, que todavía se llama tasa de retorno diaria. La fórmula de cálculo es:

ri = (Pi-Pi-1)×100/Pi-1(6)

Donde Pi es el precio de cierre diario.

El índice CSI 300 está funcionando sin problemas y la tasa de retorno diaria es 98,38 dentro del rango de datos históricos [-4,5, 4,5]. Este intervalo se divide en 18 intervalos a intervalos de 0,5. Los intervalos inferiores a -4,5 y superiores a 4,5 se registran como 1 respectivamente, para un total de 20 intervalos. Según la tasa diaria de intervalo de retorno, se divide en varios espacios de estados y se pueden obtener 20 estados (consulte la Tabla 2).

3.2 Prueba de Mahalanobis

El estadístico χ2 se utiliza para comprobar si el proceso aleatorio {Xt, t∈T} tiene propiedades de Markov. Matriz de frecuencia (NIJ) nij)20×20.

De las ecuaciones (3) y (4) podemos obtener: ■j=■nij■■nik, y ■ij=nij■nik, ■ 2 = 2 ■■■■ nijlog ■ ij ■. j = 446,96, sea el grado de libertad k = (m-1). Dado que k gt45, χ2α(k) no se puede obtener directamente consultando la tabla. Cuando k es lo suficientemente grande, existe:

χ2α(k)≈■(zα ■)2(7)

donde zα es el cuantil α superior de la distribución normal estándar. Busque la tabla z0.01=2.325, para que se pueda obtener de (1) y (7), es decir, estadísticamente, el proceso aleatorio {Xt, t∈T} se ajusta a la propiedad de Markov, y el modelo obtenido es un modelo de cadena de Markov.

3.3 Calcular la matriz de probabilidad de transición y la transición de estado de un paso.

Según la matriz de frecuencia (nij)20×20 y las fórmulas (1) y (2), la matriz de probabilidad de transición es P=(Pij)20×20. 20 de abril de 2007 (9:30-15:30 (total 241 datos) encuesta. Según el método de división de estados anterior, la tasa de rendimiento de los datos comerciales de tiempo compartido se atribuye a cada estado, Ci se registra como el número que pertenece al estado I y el vector de probabilidad inicial PT (0) = (p1, p2, L, PT.

pj=Cj/241, j=1, 2, K, 20(8)

La probabilidad de distribución del rendimiento diario en el siguiente día de negociación es PT( 0)={p1(1), p2(1), L, pi(1), L, p20(1)} y Pt (1)

3.4 Ergodicidad y distribución estacionaria de la cadena de Markov

Podemos analizar la irreductibilidad y periodicidad de la cadena de Markov para examinar más a fondo su distribución estacionaria. Sin embargo, su análisis y solución son muy complicados. Este artículo utiliza matlab7.1 para resolverlo mediante el siguiente algoritmo: one-. matriz de probabilidad de transición de paso P. La exponenciación se detiene cuando Pn 1 = Pn, y si n > 5 000, la operación también se detiene, y se devuelven Pn y n. Se encuentra que es estable cuando n = 48, es decir, P. (∞)=P(48)=P48 Del estudio de (48), es fácil saber que los datos en todas las filas son iguales, no hay filas ni columnas con un valor de 0 y la suma de las filas es de 0. cualquier fila es 1, por lo que solo hay una cadena de Markov {Xt, t∈T}. Conjunto irreducible, que es ergódico, tiene una distribución estacionaria {πj, j∈I}, y la distribución estacionaria es cualquier línea de P(48). ). Del análisis de cálculo anterior, también podemos saber que la cadena de Markov es irreducible, no periódica y con una distribución estable. La distribución estacionaria calculada se muestra en la Tabla 4.

3.5 Análisis de cálculo. resultados

Las tablas 3 y 4 muestran los rendimientos diarios: el vector de probabilidad inicial PT(0) de las estadísticas de tasa, el vector de probabilidad absoluta PT(1) obtenido por la predicción del estado de un paso y la distribución estable. de la tasa de retorno diaria se puede obtener combinando la Tabla 3 y la Tabla 4. Se puede ver que aunque el día (2007), la tasa de retorno el 20 de abril de 2007 fluctuó dentro del rango de (1,5, 4,5), y la probabilidad. dentro de (2,5, 4,5) alcanzó 0,7261, lo que indica que la tasa de rendimiento de ese día fue mayor que la del 20 de abril de 2007 (el precio de cierre real fue 4,46544). Esto es obvio porque el rendimiento diario fluctúa aleatoriamente. p>Para la predicción de rentabilidad del siguiente día de negociación (PT(1)), la probabilidad de encontrar que la rentabilidad del siguiente día de negociación sea inferior a 0 es 0,4729, y la probabilidad de que la rentabilidad del siguiente día de negociación sea mayor que 0 es 0,5271, es decir, la probabilidad de que el rendimiento del siguiente día de negociación sea mayor que 0 es relativamente alta, que está en el intervalo (-2, -1,5), (0,5, 1,5). Las probabilidades son 0,2675, 0,161 y 0,1091. respectivamente, lo que también muestra que la probabilidad de la tasa de retorno del siguiente día de negociación es (-2, -1,5) y existe un cierto riesgo.

A juzgar por la situación a largo plazo (distribución estable) del rendimiento diario, su distribución es similar a una distribución normal pero tiene asimetría positiva, lo que indica que tiene un gran potencial de inversión. La probabilidad de tasa de rendimiento diaria es 0,4107 y la probabilidad de tasa de rendimiento diaria es 0,5893. La probabilidad de retorno diario es mucho mayor que la probabilidad de retorno diario.

4 Conclusión

El método del modelo de cadena de Markov puede predecir el siguiente día de negociación en función de la tasa de retorno de un día de negociación, obtener la distribución de probabilidad de su tasa de retorno diaria a largo plazo y y describir cuantitativamente la tasa de retorno diaria. Mediante el análisis y cálculo de la tasa de retorno diaria del índice CSI 300, se obtiene la distribución de probabilidad de la tasa de retorno diaria del índice CSI 300. Se encuentra que la probabilidad de la tasa de retorno diaria del índice CSI 300 es relativamente. grande (alcanzando 0,5893 a largo plazo. Si se consideran los dividendos, esta probabilidad aumentará), somos optimistas sobre el índice CSI 300 a largo plazo. Si utiliza el índice 300 de Shanghai y Shenzhen para crear un fondo indexado y luego realiza ajustes, se espera que obtenga mejores rendimientos.

El autor también usó rango (-5, 5), el intervalo entre estados es 1 y rango (-6, 6), el intervalo entre estados es 2, y los resultados son similares. Cuando se opera dentro de un rango mayor (como -10, 10, etc.

) y diferentes tamaños de intervalo, se encuentra que si el estado se divide demasiado, el modelo resultante no pasará fácilmente la prueba de Mahalanobis. Cómo dividir los estados de manera más razonable para que los resultados sean más precisos es una de las direcciones de las próximas investigaciones. En el trabajo de seguimiento, también es un contenido de investigación importante el uso de redes neuronales artificiales para examinar la relación entre el valor de retorno diario previsto y la tasa de retorno diaria real. El método del modelo de cadena de Markov también se puede utilizar para análisis similares del índice compuesto de Shanghai y el índice compuesto de Shenzhen.

Referencia

1 Guan Lijuan, Zhao Ming. Uso del modelo de cadena de Markov para predecir el índice compuesto de Shanghai[J]. Revista del Instituto de Administración de Shandong, Universidad de Economía y Gestión de Shandong, 2005(4)

2 Chen. Investigación sobre el índice bursátil de China basada en el modelo de cadena de Markov [J]. Modernización de centros comerciales (discusión académica), 2005(2)

3 Xiao, Lu. Discusión sobre el índice compuesto de Shanghai basado en el sistema de cadenas de Markov [J]. Science and Technology Entrepreneurship Monthly, 2005(9)

4 Bian, Zhang Jie. Uso del modelo de cadena de Markov para predecir el índice compuesto de Shanghai[J]. Estadísticas y toma de decisiones, 2004(6)

5 Hou Yongjian, Zhou Haoren. Predicción del proceso estocástico del mercado de valores[J]. Business Research, 2003(2)

6 Wang Xinlei. Pruebas y predicción de marcadores de índices bursátiles [J]. Estadísticas y toma de decisiones, 2005 (8)

7 Liao Qin y Zhang Yushan. Algunas aplicaciones de las cadenas de Markov en el análisis del mercado de valores [J]. Revista de la Universidad Tecnológica del Sur de China (Edición de Ciencias Naturales), 2003(7)

8 Feng Wenquan. Tecnología de previsión económica y toma de decisiones[M]. Wuhan: Prensa de la Universidad de Wuhan, 2002

9 Liu. Proceso estocástico[M]. Wuhan: Huazhong University of Science and Technology Press, 2001

10 es una gran reunión. Teoría de la probabilidad y estadística matemática[M]. Beijing: Prensa de educación superior.

上篇: Reflexiones sobre la autobiografía de Cao "El corazón es Bodhi" 下篇: Salario mensual 4.000 yuanes. Si compras una casa, puedes devolver 2.800 al mes. ¿Es necesario comprar una casa?
Artículos populares