Revista: | Investigación operacional |
Base de datos: | PERIÓDICA |
Número de sistema: | 000378736 |
ISSN: | 0257-4306 |
Autores: | Chaman García, Iván1 Sandoval Solís, Lourdes1 |
Instituciones: | 1Benemérita Universidad Autónoma de Puebla, Facultad de Ciencias de la Computación, Puebla. México |
Año: | 2011 |
Volumen: | 32 |
Número: | 3 |
Paginación: | 193-203 |
País: | Cuba |
Idioma: | Español |
Tipo de documento: | Artículo |
Enfoque: | Analítico, descriptivo |
Resumen en español | En este trabajo se presenta una metodología para ajustar e integrar numéricamente funciones muy oscilantes, incluso que tengan una discontinuidad, usando una red neuronal artificial supervisada vectorial (RNASV), que consta de tres capas, una de entrada, o tra de salida y una capa oculta de aprendizaje, en la cual la función de activación es una matriz. Se propone ajustar las funciones muy oscilantes como una combinación lineal de funciones coseno, es decir Se pr esentan las propiedades importantes de la matriz Hessiana derivada de la función de activación matricial resultante, en el caso de que los nodos sean equidistantes, donde es el espaciamiento entre los nodos. Para ajustar las funciones muy oscilantes, se presentan varias técnicas de entrenamiento de la RNASV, dos con factor de aprendizaje constante y dos con factor de aprendizaje variable. Usando funciones muy oscilantes conocidas, se muestra la comparación entre las diferentes técnicas de e ntrenamiento respecto al número de entrenamientos y tiempo requerido para obtener un buen ajuste. Por último, se presenta la aproximación numérica de las integrales definidas de las funciones muy oscilantes, obtenida de la integral definida de la combinación lineal de funciones coseno que las aproxima. Se muestra la comparación con los resultados exactos y el método de Simpson Adaptivo, para cada una de las diferentes técnicas de entrenamiento de la red neuronal |
Resumen en inglés | This paper presents a methodology to adjust and integrate numerically very oscillating functions, even with a discontinuity, using a vectorial supervised artificial neural network ( RNASV), which consists of three layers: one input, one output and one hidden learning layer, in which the activation function is an array. It is proposed to adjust very oscillating fun ctions as a linear combination of cosine functions We present the important properties of the Hessian matrix derived from the resulting matrix activation function in the case that the nodes are equidistant, where is the spacing between nodes. To adjust very oscillating functions, there are several training techniques of the RNASV, two constant factor learning and two variable factor learning. Using known highly oscillating functions, shows the comparison between different training techniques respect the number of training and time required to obtain a good fit. Finally, we present the numerical approximation of definite integrals highly oscillating functions, obtained from the integral of the linear combination that approximates cosine functions. This shows the comparison with exact results and Adaptive Simpson's method, for each of the different techniques of training the neural network |
Disciplinas: | Matemáticas |
Palabras clave: | Matemáticas aplicadas, Integrales, Redes neuronales, Funciones oscilantes |
Keyword: | Mathematics, Applied mathematics, Integrals, Neural networks, Oscillating functions |
Texto completo: | Texto completo (Ver PDF) |