Evaluación de técnicas de compresión para cadenas de bits sparse



Título del documento: Evaluación de técnicas de compresión para cadenas de bits sparse
Revista: Ciencia (Maracaibo)
Base de datos: PERIÓDICA
Número de sistema: 000460432
ISSN: 1315-2076
Autores: 1
1
1
Instituciones: 1Universidad del Zulia, Facultad Experimental de Ciencias, Maracaibo, Zulia. Venezuela
Año:
Periodo: Abr-Jun
Volumen: 21
Número: 2
Paginación: 90-98
País: Venezuela
Idioma: Español
Tipo de documento: Artículo
Enfoque: Experimental
Resumen en español El propósito de la presente investigación consistió en medir el rendimiento de las técnicas de compresión Run Length Encoding (RLE) , Huffman y compresión por índice, sobre cadenas de bits sparse generadas a través del algoritmo de Compresión Probabilístico basado en la Teoría de Información. El trabajo utilizó una metodología experimental propuesta por Rincón y colabo - radores, manipulando las variables dependientes (relación y tiempo de compresión) e indepen - dientes (tamaño del archivo, tamaño del alfabeto y las técnicas de compresión). Los resultados obtenidos mostraron para la variable tiempo de compresión, que los algoritmos de Huffman y RLE son 60% más rápidos que la compresión por índice, mientras que para la variable relación de compresión el mejor resultado se obtuvo con el algoritmo de Huffman. De las tres técnicas investigadas el algoritmo de Huffman modificado fue el que ofreció los mejores resultados. Se hizo un análisis estadístico dividido en dos partes, la primera sin bloquear la variable indepen - diente técnica de compresión y la segunda bloqueando la misma. De estos análisis se concluye que el tamaño del alfabeto influye en las variables dependientes, y que mientras mas sparse es el archivo, mayor será la relación de compresión y menor el tiempo empleado en comprimirlo
Resumen en inglés The purpose of this research was to measure the performance of the compression tech - niques Run Length Encoding (RLE), Huffman and hierarchical, on sparse bit strings generated by the Probabilistic Compression Algorithm based on Information Theory. This work used an ex - perimental methodology employed by Rincon et al, manipulating the dependent variables (com - pression time and compression ratio) and the independents variables (file size, alphabet size and compression techniques). The results showed that for compression time, Huffman and RLE algorithms are 60% faster than hierarchical, while for compression ratio, the best performance was obtained using Huffman algorithm. Overall, of the three studied techniques, the Huffman modified algorithm was the one that offered the best results. Statistical analysis was divided into two parts, the first without blocking the independent variable compression technique and the second blocking it. From this analysis we conclude that the alphabet size influences the dependent variables, and while the file is more sparse, we obtain a higher compression ratio and a lower compression time
Disciplinas: Ciencias de la computación
Palabras clave: Algoritmo de Huffman,
Algoritmos,
Compresión,
Medición del desempeño,
Modelos probabilísticos
Keyword: Algorithms,
Compression,
Huffman algorithm,
Performance measurement,
Probabilistic models
Texto completo: https://produccioncientificaluz.org/index.php/ciencia/article/view/18716/18700