Ajuste e integración númerica de funciones muy oscilantes usando redes neuronales artificiales supervisadas



Document title: Ajuste e integración númerica de funciones muy oscilantes usando redes neuronales artificiales supervisadas
Journal: Investigación operacional
Database: PERIÓDICA
System number: 000378736
ISSN: 0257-4306
Authors: 1
1
Institutions: 1Benemérita Universidad Autónoma de Puebla, Facultad de Ciencias de la Computación, Puebla. México
Year:
Volumen: 32
Number: 3
Pages: 193-203
Country: Cuba
Language: Español
Document type: Artículo
Approach: Analítico, descriptivo
Spanish abstract En este trabajo se presenta una metodología para ajustar e integrar numéricamente funciones muy oscilantes, incluso que tengan una discontinuidad, usando una red neuronal artificial supervisada vectorial (RNASV), que consta de tres capas, una de entrada, o tra de salida y una capa oculta de aprendizaje, en la cual la función de activación es una matriz. Se propone ajustar las funciones muy oscilantes como una combinación lineal de funciones coseno, es decir Se pr esentan las propiedades importantes de la matriz Hessiana derivada de la función de activación matricial resultante, en el caso de que los nodos sean equidistantes, donde es el espaciamiento entre los nodos. Para ajustar las funciones muy oscilantes, se presentan varias técnicas de entrenamiento de la RNASV, dos con factor de aprendizaje constante y dos con factor de aprendizaje variable. Usando funciones muy oscilantes conocidas, se muestra la comparación entre las diferentes técnicas de e ntrenamiento respecto al número de entrenamientos y tiempo requerido para obtener un buen ajuste. Por último, se presenta la aproximación numérica de las integrales definidas de las funciones muy oscilantes, obtenida de la integral definida de la combinación lineal de funciones coseno que las aproxima. Se muestra la comparación con los resultados exactos y el método de Simpson Adaptivo, para cada una de las diferentes técnicas de entrenamiento de la red neuronal
English abstract This paper presents a methodology to adjust and integrate numerically very oscillating functions, even with a discontinuity, using a vectorial supervised artificial neural network ( RNASV), which consists of three layers: one input, one output and one hidden learning layer, in which the activation function is an array. It is proposed to adjust very oscillating fun ctions as a linear combination of cosine functions We present the important properties of the Hessian matrix derived from the resulting matrix activation function in the case that the nodes are equidistant, where is the spacing between nodes. To adjust very oscillating functions, there are several training techniques of the RNASV, two constant factor learning and two variable factor learning. Using known highly oscillating functions, shows the comparison between different training techniques respect the number of training and time required to obtain a good fit. Finally, we present the numerical approximation of definite integrals highly oscillating functions, obtained from the integral of the linear combination that approximates cosine functions. This shows the comparison with exact results and Adaptive Simpson's method, for each of the different techniques of training the neural network
Disciplines: Matemáticas
Keyword: Matemáticas aplicadas,
Integrales,
Redes neuronales,
Funciones oscilantes
Keyword: Mathematics,
Applied mathematics,
Integrals,
Neural networks,
Oscillating functions
Full text: Texto completo (Ver PDF)