Artículos de divulgación científica Análisis de la eficacia de métodos metaheurísticos en la optimización de ecuaciones matemáticas

Análisis de la eficacia de métodos metaheurísticos en la optimización de ecuaciones matemáticas

El uso de métodos de búsqueda no gradiente es útil en problemas de ingeniería donde se descarta la aplicación de enfoques de optimización estándares.

Comparte este artículo en

Análisis de la eficacia de métodos metaheurísticos en la optimización de ecuaciones matemáticas

Autoría

Palabras clave

Estándares, Metaheurísticos, Algoritmos

El objetivo principal de este estudio es analizar el funcionamiento de tres métodos de búsqueda metaheurísticos en la solución de un problema de optimización de un solo objetivo. Por ello se desarrolló estas estrategias de búsqueda evolutiva para posteriormente compararlas y determinar su eficacia tomando el número de iteraciones, la presión observada y el tiempo total de ejecución como criterios para obtener un resultado.

Los investigadores explican que la optimización evolutiva funciona generando una función matemática que establece un escenario de condiciones específicas. Luego de ello, se trazan varios puntos a lo largo de la función de forma aleatoria en ubicaciones ideales. Se realiza una comparación con los resultados obtenidos y estos mismos se utilizan para hacer convergencias. Finalmente, los resultados se adaptan y convergen hacia los puntos optimizados de forma caótica mediante el método de ensayo y error.

Para el desarrollo de esta investigación, se inició con el análisis de la eficacia general de tres métodos de búsqueda metaheurísticos: algoritmo genético (GA), optimización por enjambre de partículas (PSO) y evolución diferencial (DE), en la optimización de ecuaciones matemáticas.

Además de ello, también se busca conocer la operatividad de cada algoritmo, por lo que, luego del primer análisis, se procede con una evaluación de elementos como la tasa de cruce, la tasa de mutación y el factor de escala que permiten determinar la eficacia individual de cada método.

Cabe resaltar que para la optimización se hace uso de 12 funciones diferentes. En el caso del algoritmo genético se utilizan Ackley, Easom, Holder table y Michalewicz; para la optimización por enjambre de partículas se usan las funciones de Rastrigin, Rosen, Rosen Brock y Shubert; por último, para la evolución diferencial se emplean Schaffer, Sphere, Himmelblau´s y Spring Force Vanderplaats.

DATO: Este artículo se deriva del estudio An Analysis of the Operation Factors of Three PSO-GA-ED Meta-Heuristic Search Methods for Solving a Single-Objective Optimization Problem que tiene como autores a Ali Fozooni, University of Washington; Osman Kamari, University of Human Development; Mostafa Pourtalebiyan, University of Science and Culture; Masoud Gorgich, Velayat University; Amin Valizadeh, Ferdowsi University of Mashhad y Mohammad Khalilzadeh, profesor e investigador de CENTRUM PUCP Business School.

REFERENCIAS

Fozooni, A., Kamari, O., Pourtalebiyan, M., Gorgich, M., Khalilzadeh, M., & Valizadeh, A. (2022). An Analysis of the Operation Factors of Three PSO-GA-ED Meta-Heuristic Search Methods for Solving a Single-Objective Optimization Problem. Computational Intelligence and Neuroscience, 2022, 1-22. https://doi.org/10.1155/2022/2748215

Puedes leer más publicaciones sobre el Centro de Estudios Empresariales

Relacionados

Buscador