Parallel Approach for Time Series Analysis with General Regression Neural Networks



Título del documento: Parallel Approach for Time Series Analysis with General Regression Neural Networks
Revista: Journal of applied research and technology
Base de datos: PERIÓDICA
Número de sistema: 000364971
ISSN: 1665-6423
Autores: 1
1
1
1
1
Instituciones: 1Universidad Autónoma de San Luis Potosí, Facultad de Ingeniería, San Luis Potosí. México
Año:
Periodo: Abr
Volumen: 10
Número: 2
Paginación: 162-179
País: México
Idioma: Inglés
Tipo de documento: Artículo
Enfoque: Aplicado, descriptivo
Resumen en español La precisión para estimar retrasos en tiempo en series de tiempo muestreadas irregularmente es de gran importancia en astrofísica. Sin embargo, el tiempo computacional también es importante para el estudio de conjuntos de datos de gran tamaño. Este artículo primero presenta un nuevo método para estimar retrasos en tiempo, posteriormente se presenta una metodología basada en cómputo paralelo para estimar de manera rápida retrasos en tiempo. En ambos casos se utiliza una arquitectura de redes neuronales denominada regresión generalizada (General Regression Neural Networks — GRNN). Para el cómputo paralelo se utiliza MPI (Message Passing Interface) en un cluster tipo beowulf y en una supercomputadora Cray, también se utiliza el lenguaje CUDA™) (Compute Unified Device Architecture) para GPUs (Graphics Processing Units). Finalmente se demuestra empíricamente que con nuestra metodología se obtienen algoritmos rápidos para estimar retrasos en tiempo en conjuntos de datos de gran tamaño con la misma precisión que métodos que se usan en la actualidad
Resumen en inglés The accuracy on time delay estimation given pairs of irregularly sampled time series is of great relevance in astrophysics. However the computational time is also important because the study of large data sets is needed. Besides introducing a new approach for time delay estimation, this paper presents a parallel approach to obtain a fast algorithm for time delay estimation. The neural network architecture that we use is general Regression Neural Network (GRNN). For the parallel approach, we use Message Passing Interface (MPI) on a beowulf-type cluster and on a Cray supercomputer and we also use the Compute Unified Device Architecture (CUDA™) language on Graphics Processing Units (GPUs). We demonstrate that, with our approach, fast algorithms can be obtained for time delay estimation on large data sets with the same accuracy as state-of-the-art methods
Disciplinas: Ciencias de la computación
Palabras clave: Redes,
Redes neuronales,
Series de tiempo,
Aprendizaje de máquinas,
Algoritmos paralelos
Keyword: Computer science,
Networks,
Neural networks,
Time series,
Machine learning,
Parallel algorithms
Texto completo: Texto completo (Ver HTML)