Saturday 11 November 2017

Red Neuronal Media Móvil


Cuando tenemos que hacer un pronóstico, los libros nos dicen que el método principal es el modelo de media móvil autorregresiva. En mi opinión hay otra gran herramienta, la alimentación de la red neuronal (FFNN). Así que creo que podríamos usar dos herramientas principales: Media móvil autorregresiva Avance de la red neural Por supuesto, debe haber diferencias, pero no soy un experto. ¿Quién, teniendo suficiente experiencia en estos dos métodos, puede explicarme las diferencias entre estos dos métodos en la fabricación de predicciones preguntó Feb 20 14 en 14: 53Entiendo redes neuronales con cualquier número de capas ocultas puede aproximar funciones no lineales, sin embargo, puede aproximar : No puedo pensar en cómo podría hacerlo. Parece una limitación muy obvia de las redes neuronales que potencialmente pueden limitar lo que puede hacer. Por ejemplo, debido a esta limitación, las redes neuronales probablemente no pueden aproximarse adecuadamente a muchas funciones utilizadas en estadísticas como el promedio móvil exponencial, o incluso la varianza. Hablando de media móvil, ¿pueden las redes neuronales recurrentes aproximarse adecuadamente que entiendo cómo una red neuronal feedforward o incluso una sola neurona lineal puede dar salida a un promedio móvil usando la técnica de ventana deslizante, pero cómo las redes neuronales recurrentes lo hacen sin X cantidad de capas ocultas (X siendo el tamaño medio móvil) También, supongamos que no sabemos la función original f. Que pasa a obtener el promedio de los últimos 500 insumos, y luego la salida de un 1 si su superior a 3, y 0 si su no. Pero por un segundo, fingir que no sabemos que, es una caja negra. ¿Cómo sería una red neural recurrente aproximada que Primero tendríamos que saber cuántos timestaps debería tener, lo cual no lo hacemos. Tal vez una red LSTM podría, pero incluso entonces, lo que si no es un simple promedio móvil, es un promedio móvil exponencial No creo que incluso LSTM puede hacerlo. Aún peor aún, lo que si f (x, x1) que estamos tratando de aprender es simplemente Eso parece muy simple y directo. ¿Puede una red neuronal aprender que no veo cómo. ¿Estoy perdiendo algo enorme aquí o son algoritmos de aprendizaje de máquina extremadamente limitado ¿Hay otras técnicas de aprendizaje, además de las redes neuronales que realmente pueden hacer nada de esto El punto clave a entender es compacto. Las redes neuronales (como cualquier otra estructura de aproximación como polinomios, splines o Funciones de Base Radial) pueden aproximarse a cualquier función continua solamente dentro de un conjunto compacto. En otras palabras, la teoría afirma que, dadas: entonces existe una red neural que se aproxima a f (x) con un error de aproximación menor que epsilon. Por todas partes dentro de a, b. Con respecto a su ejemplo de f (x) x 2. Sí se puede aproximar con una red neural dentro de cualquier rango finito: -1,1. 0, 1000. Etc. Para visualizar esto, imagine que aproxima f (x) dentro de -1,1 con una función escalonada. ¿Se puede hacer en papel? Tenga en cuenta que si se hacen los pasos lo suficientemente estrechos se puede lograr cualquier precisión deseada. La forma en que las redes neuronales se aproximan f (x) no es muy diferente de esto. Pero de nuevo, no existe una red neuronal (o cualquier otra estructura de aproximación) con un número finito de parámetros que puedan aproximar f (x) x 2 para todo x en -,. Respondió Mar 20 15 at 18:06 Entiendo que las redes neuronales con cualquier número de capas ocultas pueden aproximar las funciones no lineales, sin embargo, se puede aproximar: Sí se puede. No sé qué te hace pensar que es una función difícil de aproximar, es muy fácil. Dadas suficientes unidades ocultas, una red neural puede aproximar cualquier función a una precisión arbitraria en un rango arbitrario. Hablando de la media móvil, las redes neuronales recurrentes pueden aproximarse adecuadamente que sí, puede. Es una vez más un problema muy simple que parece pensar que es difícil por alguna razón que no están compartiendo. Puede ver la solución trivial creando el estado oculto lo suficientemente grande como para contener toda la historia y el resto de la red para calcular el promedio del estado ocultado recurrente. Primero tendríamos que saber cuántos timotes debería tener, que no tenemos. Eso es un problema de ajuste de parámetros, estos han sido tratados antes. Usted puede buscar fácilmente más información sobre ellos. ¿Estoy perdiendo algo enorme aquí o son algoritmos de aprendizaje de máquina extremadamente limitado ¿Hay otras técnicas de aprendizaje, además de las redes neuronales que realmente pueden hacer nada de esto Sí, parece que falta toda comprensión real de las redes neuronales. Su primera declaración de entender redes neuronales con cualquier número de capas ocultas puede aproximar funciones no lineales, sin embargo, puede aproximar muestra que realmente no entienden las palabras que está utilizando. Hay una gama enorme de temas que podría estar fallando para entender o confundir entre sí, y nadie va a ser capaz de establecer que en un sencillo formato QampA. Si realmente quieres entender lo que está pasando, tomar algunos cursos de posgrado en Aprendizaje de la Máquina y Redes Neuronales en particular. Un buen punto de partida sería que estos videos si ya tiene el conocimiento perquisite. Este no es el lugar apropiado para enseñar. Coge uno de los muchos libros sobre el tema y leer eso. Usted no está considerando el tipo de función de activación o que hay más de una unidad por entrada o que puede haber muchas capas ocultas (no que se necesiten, sino que ayudan a entender). Ndash Raff. Edward Entiendo que las redes neuronales con cualquier número de capas ocultas pueden aproximar funciones no lineales, sin embargo, se puede aproximar: La única manera que puedo dar sentido a esa pregunta es que estás hablando de extrapolación. Así, p. Dadas muestras de entrenamiento en el rango -1 lt x lt 1 puede una red neural aprender los valores correctos para x gt 100. ¿Es eso lo que quieres decir Si tuviera conocimiento previo, que las funciones que está tratando de aproximar es probable que sea de bajo orden Polinomios (o cualquier otro conjunto de funciones), entonces seguramente podría construir una red neuronal que puede representar estas funciones, y extrapolar x2 en todas partes. Si no tienes conocimientos previos, las cosas son un poco más difíciles: Hay infinitas funciones lisas que se ajustan a x2 en el rango -1..1 perfectamente, y no hay ninguna buena razón por la cual esperamos que x2 dé mejores predicciones que cualquier otra función. En otras palabras: Si no tuviéramos conocimiento previo sobre la función que estuviéramos tratando de aprender, ¿por qué querríamos aprender x - gt x2? En el reino de los conjuntos de entrenamiento artificial, x2 podría ser una función probable, pero en el mundo real, probablemente no lo es. Para dar un ejemplo: Digamos que la temperatura del lunes (t0) es 0, el martes es 1, el miércoles es 4. No tenemos razón para creer que las temperaturas se comportan como polinomios de bajo orden, por lo que no queremos inferir de esos datos Que la temperatura el próximo lunes será probablemente alrededor de 49. También, supongamos que no sabemos la función original f, que pasa a obtener el promedio de las últimas 500 entradas, y luego la salida a 1 si es superior a 3 y 0 si no es. Pero por un segundo, fingir que no sabemos que, es una caja negra. ¿Cómo se aproxima una red neural recurrente que creo que es dos preguntas: Primero, ¿puede una red neuronal representar esa función, es decir, ¿Existe un conjunto de pesos que daría exactamente ese comportamiento? Obviamente depende de la arquitectura de red, pero creo que podemos llegar a arquitecturas que pueden representar (o al menos aproximar) este tipo de función. Pregunta 2: ¿Puede aprender esta función, dado suficientes muestras de entrenamiento? Bueno, si su algoritmo de aprendizaje no se atasca en un mínimo local, seguro: Si tiene suficientes muestras de entrenamiento, cualquier conjunto de pesos que no se aproxima a su función da un error de entrenamiento mayor Que 0, mientras que un conjunto de pesos que se ajustan a la función que está tratando de aprender tiene un error de formación0. Así que si encuentra un óptimo global, la red debe ajustarse a la función. La razón por la que estaba pensando en x2. Y los promedios móviles simples o exponenciales es especialmente porque se utiliza mucho en la predicción del mercado financiero en el análisis técnico. Tenía la esperanza de que una red neuronal podría potencialmente aprender los algoritmos y el comercio basado en ellos sin tener que primero codificarlos duro y la introducción de su resultado. Sin embargo, intento averiguar si una red neuronal puede incluso aprender una función como esa. Ndash Essam Al-Mansouri Yo entiendo cómo x2 no es exactamente útil para la predicción del tiempo, y podría hacer que la red predeciera 49 grados el próximo lunes, pero I39m seguro de ser capaz de aprender una función polinomial podría ser útil Para la predicción de precios FOREX, por ejemplo. Entiendo que tal vez una arquitectura de red diferente a la que yo tenía en mente podría ser capaz, pero no conozco ninguna arquitectura que pueda representar f (x, x1) xx1 Creo que podría haber sido mal uso de la palabra aproximado en lugar de representar, pero creo que Todavía entendía lo que estaba tratando de decir muy bien. Lo siento, no pude editar mi último mensaje en el tiempo. (ARIMA) con redes neuronales probabilísticas (PNNs) Resumen Los modelos de media móvil integrada (ARIMA) auto-regresivos son uno de los modelos de series de tiempo más importantes aplicados en la predicción de los mercados financieros En las últimas tres décadas. Mejorar la predicción, especialmente la precisión de predicción de series de tiempo, es una tarea importante pero a menudo difícil para los pronosticadores. Tanto los hallazgos teóricos como empíricos han indicado que la integración de diferentes modelos puede ser una manera efectiva de mejorar su desempeño predictivo, especialmente cuando los modelos en el conjunto son muy diferentes. En la literatura, se han propuesto varias técnicas híbridas combinando diferentes modelos de series temporales para obtener resultados más precisos. En este artículo se propone un nuevo modelo híbrido de media móvil integrada autorregresiva (ARIMA) y red neural probabilística (PNN), con el fin de obtener resultados más precisos que los modelos ARIMA tradicionales. En el modelo propuesto, los valores estimados del modelo ARIMA se modifican en función de la tendencia diferenciada de los residuos ARIMA y la longitud óptima de los pasos, obtenidos respectivamente de una red neuronal probabilística y un modelo de programación matemática. Los resultados empíricos con tres conjuntos de datos reales bien conocidos indican que el modelo propuesto puede ser una forma efectiva para construir un modelo híbrido más preciso que el modelo ARIMA. Por lo tanto, puede utilizarse como un modelo alternativo apropiado para las tareas de pronóstico, especialmente cuando se necesita una mayor precisión de pronóstico. Aspectos destacados Proponer un nuevo método híbrido para la predicción de series de tiempo. Utilización de métodos de clasificación para mejorar el rendimiento de la media móvil integrada autorregresiva (ARIMA). Combinar el ARIMA y las redes neuronales probabilísticas (PNNs) como modelo de predicción híbrida. Superación de la limitación lineal de los modelos ARIMA. Obtención de modelos de series temporales más generales y más precisos que los modelos ARIMA y ANN clásicos. (ARIMA) Redes neuronales probabilísticas (PNNs) Predicción de series de tiempo Modelos híbridos

No comments:

Post a Comment