banner
Centro de Noticias
Proveedor confiable y experimentado para todas sus necesidades

Una nueva biografía

Jul 18, 2023

Scientific Reports volumen 13, Número de artículo: 8775 (2023) Citar este artículo

2297 Accesos

Detalles de métricas

Este artículo presenta un nuevo algoritmo metaheurístico bioinspirado llamado Walrus Optimization Algorithm (WaOA), que imita los comportamientos de las morsas en la naturaleza. Las inspiraciones fundamentales empleadas en el diseño de WaOA son el proceso de alimentación, migración, escape y lucha contra los depredadores. Los pasos de implementación de WaOA se modelan matemáticamente en tres fases de exploración, migración y explotación. Sesenta y ocho funciones de referencia estándar que consisten en unimodal, multimodal de alta dimensión, multimodal de dimensión fija, conjunto de pruebas CEC 2015 y conjunto de pruebas CEC 2017 se emplean para evaluar el rendimiento de WaOA en aplicaciones de optimización. Los resultados de optimización de las funciones unimodales indican la capacidad de explotación de WaOA, los resultados de optimización de las funciones multimodales indican la capacidad de exploración de WaOA, y los resultados de optimización de los conjuntos de pruebas CEC 2015 y CEC 2017 indican la alta capacidad de WaOA para equilibrar la exploración y la explotación durante el proceso de busqueda El rendimiento de WaOA se compara con los resultados de diez algoritmos metaheurísticos bien conocidos. Los resultados de las simulaciones demuestran que WaOA, debido a su excelente capacidad para equilibrar la exploración y la explotación, y su capacidad para ofrecer resultados superiores para la mayoría de las funciones de referencia, ha exhibido un rendimiento notablemente competitivo y superior en contraste con otros algoritmos comparables. Además, el uso de WaOA para abordar cuatro problemas de ingeniería de diseño y veintidós problemas de optimización del mundo real del conjunto de pruebas de CEC 2011 demuestra la eficacia aparente de WaOA en aplicaciones del mundo real. Los códigos MATLAB de WaOA están disponibles en https://uk.mathworks.com/matlabcentral/profile/authors/13903104.

Recientemente, muchos problemas de optimización en ciencia, ingeniería, industria y tecnología deben resolverse utilizando técnicas de optimización. Desde un punto de vista matemático, las variables de decisión, las restricciones y las funciones objetivo son las tres partes principales del modelado de un problema de optimización. El propósito de la optimización es cuantificar las variables de decisión del problema de modo que, respetando las restricciones, conduzca a alcanzar el valor mínimo (problemas de minimización) o máximo (problemas de maximización) para la función objetivo1. Las técnicas aplicadas en la resolución de problemas de optimización caen dentro de los enfoques determinista y estocástico. Para elegir la técnica adecuada para resolver un problema de optimización, un usuario necesita información completa sobre la comparación de técnicas de resolución de problemas. Por el contrario, a menudo se necesita más que la información disponible del usuario. Los enfoques estocásticos, que se basan principalmente en la búsqueda aleatoria en el espacio de resolución de problemas, pueden tratar los problemas de caja negra de forma más sencilla que muchos algoritmos deterministas. Estos enfoques también son adecuados para problemas en los que las evaluaciones de las funciones están corrompidas por el ruido. Cada enfoque determinista y estocástico tiene varias ventajas y, en general, ninguno puede considerarse superior. En el libro de Krasov2 se proporciona más información y una comparación detallada de los enfoques deterministas y estocásticos.

Como uno de los enfoques estocásticos más utilizados, los algoritmos metaheurísticos, que utilizan operadores estocásticos, conceptos de prueba y error y búsqueda estocástica, pueden proporcionar soluciones adecuadas a los problemas de optimización sin requerir información derivada de la función objetivo. La simplicidad de las ideas, la fácil implementación, la independencia del tipo de problema y la no necesidad de un proceso de derivación se encuentran entre las ventajas que han llevado a la popularidad y omnipresencia de los algoritmos metaheurísticos entre los investigadores3. El proceso de optimización en algoritmos metaheurísticos comienza con la generación aleatoria de varias soluciones factibles iniciales en el espacio de búsqueda del problema. Luego, en un proceso iterativo basado en la efectividad de los pasos del algoritmo, se mejoran estas soluciones iniciales. Finalmente, se presenta como solución al problema la mejor solución encontrada durante la implementación del algoritmo4. Sin embargo, ninguno de los algoritmos metaheurísticos garantiza que podrán proporcionar la solución global óptima. Esta insuficiencia se debe a la naturaleza de la búsqueda aleatoria en este tipo de enfoques de optimización. Por lo tanto, las soluciones derivadas de algoritmos metaheurísticos se conocen como soluciones cuasi-óptimas5.

Las capacidades de exploración y explotación permiten que los algoritmos metaheurísticos proporcionen mejores soluciones casi óptimas. La exploración se refiere a la capacidad de buscar globalmente en diferentes áreas del espacio de resolución de problemas para descubrir la mejor área óptima. Por el contrario, la explotación se refiere a la capacidad de buscar localmente las soluciones disponibles y las áreas prometedoras para converger hacia el óptimo global. Equilibrar la exploración y la explotación es la clave del éxito de los algoritmos metaheurísticos para lograr soluciones efectivas6. Lograr mejores soluciones cuasi-óptimas ha sido el principal desafío y la razón para el desarrollo de varios algoritmos metaheurísticos por parte de los investigadores7,8.

La principal pregunta de investigación es que, a pesar de los numerosos algoritmos metaheurísticos introducidos hasta ahora, ¿sigue existiendo la necesidad de desarrollar nuevos algoritmos? El teorema No Free Lunch (NFL)9 responde a la pregunta de que el desempeño óptimo de un algoritmo para resolver un conjunto de problemas de optimización no garantiza el desempeño similar de ese algoritmo para resolver otros problemas de optimización. El concepto del teorema NFL rechaza la hipótesis de que un algoritmo metaheurístico particular es el mejor optimizador para todas las aplicaciones de optimización sobre todos los algoritmos diferentes. En cambio, el teorema de la NFL alienta a los investigadores a continuar diseñando algoritmos metaheurísticos más nuevos para lograr mejores soluciones casi óptimas para los problemas de optimización. Este teorema también ha motivado a los autores de este artículo a desarrollar un nuevo algoritmo metaheurístico para abordar los desafíos de optimización.

La novedad y contribución de este artículo está en el diseño de un nuevo algoritmo metaheurístico llamado Walrus Optimization Algorithm (WaOA), el cual se basa en la simulación del comportamiento de las morsas en la naturaleza. Las principales contribuciones de este artículo son las siguientes:

Los comportamientos naturales de las morsas inspiran el diseño de WaOA para alimentarse cuando migran, huyen y luchan contra los depredadores.

WaOA se modela matemáticamente en tres fases: exploración, explotación y migración.

La eficiencia de WaOA en el manejo de problemas de optimización se prueba en sesenta y ocho funciones objetivo estándar de varios tipos de unimodales, multimodales, el conjunto de pruebas CEC 2015 y el conjunto de pruebas CEC 2017.

El rendimiento de WaOA se compara con el rendimiento de diez algoritmos metaheurísticos bien conocidos.

El éxito de WaOA en aplicaciones del mundo real se desafía al abordar cuatro problemas de diseño de ingeniería y veintidós problemas de optimización del mundo real del conjunto de pruebas de CEC 2011.

El resto del trabajo es la siguiente. La revisión de la literatura se presenta en la sección "Revisión de la literatura". El enfoque WaOA propuesto se presenta y modela en la sección "Algoritmo de optimización de morsa". Los estudios de simulación se presentan en la sección "Estudios de simulación y resultados". La eficiencia de WaOA para resolver problemas de diseño de ingeniería se evalúa en la sección "WaOA para aplicaciones en el mundo real". Las conclusiones y futuras líneas de investigación se incluyen en la sección "Conclusiones y trabajos futuros".

Los algoritmos metaheurísticos se basan en la inspiración y simulación de diversos fenómenos naturales, estrategias y comportamientos animales, conceptos de ciencias biológicas, genética, ciencias físicas, actividades humanas, reglas de juegos y cualquier proceso basado en la evolución. En consecuencia, desde el punto de vista de la inspiración principal utilizada en el diseño, los algoritmos metaheurísticos se dividen en cinco grupos: basados ​​en la evolución, basados ​​en enjambres, basados ​​en la física, basados ​​en humanos y basados ​​en juegos.

Se han desarrollado algoritmos metaheurísticos basados ​​en la evolución utilizando los conceptos de la biología, la teoría de la selección natural y operadores aleatorios como la selección, el cruce y la mutación. El algoritmo genético (GA) es uno de los algoritmos metaheurísticos más famosos, que se inspira en el proceso de reproducción, la teoría de la evolución de Darwin, la selección natural y los conceptos biológicos10. La Evolución Diferencial (ED) es otro cálculo evolutivo que, además de utilizar los conceptos de biología, operadores aleatorios y selección natural, utiliza un operador diferencial para generar nuevas soluciones11.

Los algoritmos metaheurísticos basados ​​en enjambres se han desarrollado basándose en el modelado de fenómenos naturales, fenómenos de enjambres y comportamientos de animales, aves, insectos y otros seres vivos. Particle Swarm Optimization (PSO) es uno de los primeros métodos metaheurísticos introducidos y fue ampliamente utilizado en campos de optimización. La principal inspiración en el diseño de PSO son los comportamientos de búsqueda de aves y peces para descubrir fuentes de alimento12,13. Ant Colony Optimization (ACO) es un método basado en enjambres inspirado en la capacidad y la estrategia de una colonia de hormigas para identificar el camino más corto entre la colonia y las fuentes de alimento14. Grey Wolf Optimization (GWO) es un algoritmo metaheurístico inspirado en la estructura jerárquica y el comportamiento social de los lobos grises durante la caza15. Marine Predator Algorithm (MPA) se ha desarrollado inspirado en las estrategias de depredadores marinos y oceánicos y sus movimientos de vuelo Levy para atrapar presas16. La estrategia de los tunicados y su mecanismo de búsqueda en el proceso de búsqueda de fuentes de alimento y forrajeo han sido las principales inspiraciones en el diseño del Algoritmo de Enjambre de Tunicados (TSA)17. Algunos otros métodos basados ​​en enjambres son White Shark Optimizer (WSO)18, Reptile Search Algorithm (RSA)19, Raccoon Optimization Algorithm (ROA)20, African Vultures Optimization Algorithm (AVOA)21, Farmland Fertility Algorithm (FFA)22, Slime Mold (SMA)23, Mountain Gazelle Optimizer (MGO)24, Sparrow Search Algorithm (SSA)25, Whale Optimization Algorithm (WOA)26, Artificial Gorilla Troops Optimizer (GTO)27 y Pelican Optimization Algorithm (POA)28.

Los algoritmos metaheurísticos basados ​​en la física se han inspirado en las teorías, los conceptos, las leyes, las fuerzas y los fenómenos de la física. El recocido simulado (SA) es uno de los métodos basados ​​en la física más famosos, cuya principal inspiración es el proceso de recocido de metales. Durante este proceso físico, un sólido se coloca en un baño de calor y la temperatura se eleva continuamente hasta que el sólido se derrite. Las partículas sólidas se separan físicamente o se colocan aleatoriamente. A partir de un nivel de energía tan alto, el baño térmico se enfría lentamente a medida que la temperatura desciende para que las partículas puedan alinearse en una estructura de red cristalina regular29. El algoritmo de búsqueda gravitacional (GSA) es un método computacional basado en la física inspirado en la simulación de la ley de gravitación universal de Newton y las leyes de movimiento de Newton entre las masas alojadas en un sistema30. La aplicación de los tres conceptos de agujero negro, agujero blanco y agujero de gusano en la ciencia cosmológica ha sido la inspiración para el diseño del Multi-Verse Optimizer (MVO)31. Algunos otros métodos basados ​​en la física son: Algoritmo del ciclo del agua (WCA)32, Algoritmo de búsqueda de resorte (SSA)33, Optimización de búsqueda atómica (ASO)34, Algoritmos metaheurísticos inspirados en la cuántica35, Algoritmo de búsqueda de momento (MSA)36 y Optimización de reacción nuclear (ONR)37.

Los algoritmos metaheurísticos basados ​​en humanos se han desarrollado inspirados en las actividades humanas, las relaciones sociales y las interacciones. La Optimización Basada en el Aprendizaje de la Enseñanza (TLBO) es el algoritmo metaheurístico basado en humanos más utilizado en el que las interacciones entre el profesor y los estudiantes, así como entre los estudiantes en el espacio educativo, son su principal fuente de inspiración38. Los esfuerzos de dos sectores de la sociedad, incluidos los pobres y los ricos, para mejorar su situación financiera han sido la idea principal en el diseño de la Optimización de Pobres y Ricos (PRO)39. Algunos otros métodos basados ​​en humanos son Archery Algorithm (AA)40, Brain Storm Optimization (BSO)41, Chef Based Optimization Algorithm (CBOA)42, War Strategy Optimization (WSO)43 y Teamwork Optimization Algorithm (TOA)44.

Se han introducido algoritmos metaheurísticos basados ​​en juegos que simulan las reglas que rigen varios juegos individuales y grupales e imitan los comportamientos de jugadores, árbitros, entrenadores y otras interacciones efectivas. Por ejemplo, la competencia de los jugadores en el juego de tira y afloja bajo las reglas de este juego ha sido la idea principal utilizada en el diseño del algoritmo de optimización de tira y afloja (TWO)45. Se presenta el algoritmo Premier Volleyball League (PVL) basado en el modelado matemático de las interacciones de los jugadores, las competiciones y las instrucciones de entrenamiento durante el juego46. El algoritmo de optimización de rompecabezas (POA) es otro algoritmo metaheurístico basado en juegos que se ha producido en función de los jugadores que intentan resolver acertijos y obtener ayuda entre ellos para organizar mejor las piezas del rompecabezas47. Algunos otros métodos basados ​​en juegos son el algoritmo de búsqueda de orientación (OSA)48, la optimización basada en juegos de lanzamiento de anillos (RTGBO)49, la optimización basada en juegos de fútbol (FGBO)50, la optimización de juegos de dados (DGO)51 y el algoritmo de búsqueda de orientación (OSA) 48.

Basado en el mejor conocimiento obtenido de la revisión de la literatura, no se ha desarrollado ningún algoritmo metaheurístico basado en la simulación de los comportamientos y estrategias de las morsas. Sin embargo, los comportamientos de las morsas inteligentes, como la búsqueda de alimentos, la migración, el escape y la lucha con los depredadores, son propensos a diseñar un optimizador. En la siguiente sección, basada en el modelado matemático de los comportamientos naturales de las morsas, se desarrolla un nuevo algoritmo metaheurístico para manejar aplicaciones de optimización para abordar esta brecha de investigación.

En esta sección, se establece la inspiración fundamental empleada y la teoría del Algoritmo de Optimización Walrus (WaOA) propuesto, luego se modelan matemáticamente sus diversos pasos.

La morsa es un gran mamífero marino con aletas con una distribución discontinua en el Océano Ártico y las aguas subárticas del Hemisferio Norte alrededor del Polo Norte52. Las morsas adultas son fácilmente identificables por sus grandes bigotes y colmillos. Las morsas son animales sociales que pasan la mayor parte de su tiempo en el hielo marino, buscando moluscos bivalvos bentónicos para comer. La característica más destacada de las morsas son los largos colmillos de este animal. Estos son caninos alargados que se ven tanto en especies masculinas como femeninas que pueden pesar hasta 5,4 kg y medir hasta 1 m de longitud. Los colmillos de los machos son un poco más gruesos y largos y se usan para el dominio, la lucha y la exhibición. El macho más musculoso y con los colmillos más largos domina a los demás miembros del grupo y los lidera53. En la Fig. 1 se presenta una imagen de una morsa. A medida que el clima se calienta y el hielo se derrite a fines del verano, las morsas prefieren migrar a afloramientos o playas rocosas. Estas migraciones son muy dramáticas e involucran agregaciones masivas de morsas54. La morsa tiene sólo dos depredadores naturales debido a su gran tamaño y colmillos: el oso polar y la orca (orca). Las observaciones muestran que la batalla entre una morsa y un oso polar es muy larga y agotadora y, por lo general, los osos polares se retiran de la pelea después de herir a la morsa. Sin embargo, las morsas dañan a los osos polares con sus colmillos durante esta batalla. En la lucha contra las morsas, las orcas pueden cazarlas con éxito, con lesiones mínimas e incluso nulas55.

Walrus (la foto está subida desde Wikimedia56).

La vida social y los comportamientos naturales de las morsas representan un proceso inteligente. De estos comportamientos inteligentes, tres son los más obvios:

(i) Guiar a las personas para que se alimenten bajo la guía de un miembro con los colmillos más largos.

El seguimiento del mejor miembro de la población en el proceso de búsqueda dirige el algoritmo hacia áreas prometedoras. En la vida social de las morsas, la morsa más potente, que puede reconocerse como la que tiene el colmillo más largo, es la responsable de guiar a las otras morsas. Mover morsas en este proceso conduce a cambios significativos en su posición. La simulación de estos grandes desplazamientos aumenta la capacidad del algoritmo en la búsqueda global y la capacidad de exploración.

(ii) Migración de morsas a playas rocosas.

Uno de los comportamientos naturales de las morsas es su migración debido al clima cálido en verano. En este proceso, las morsas realizan grandes cambios en su posición desplazándose hacia afloramientos o playas rocosas. En la simulación WaOA para una morsa, la posición de otras morsas se asume como destinos de migración, una de estas posiciones se selecciona aleatoriamente y la morsa se mueve hacia ella. En el diseño de WaOA, imitando esta estrategia, se mejoran las capacidades globales de búsqueda y descubrimiento. La diferencia entre la estrategia de migración y el proceso de búsqueda de alimento bajo la guía de la morsa más fuerte es que en este proceso, se evita que el proceso de actualización de la población dependa de un miembro en particular, como el mejor miembro de la población. Este proceso de actualización evita la convergencia temprana y que el algoritmo se atasque en los óptimos locales.

(iii) Luchar o escapar de los depredadores.

La estrategia de lucha de las morsas frente a sus depredadores, como el oso polar y la orca, es un largo proceso de persecución. Este proceso de persecución tiene lugar en un área pequeña alrededor de la posición de la morsa y provoca pequeños cambios en la posición de la morsa. Por lo tanto, simular los pequeños desplazamientos de la morsa al apuntar a mejores posiciones durante la pelea conduce a un aumento en la capacidad de WaOA para buscar localmente y explotar para converger en mejores soluciones.

El modelado matemático de estos comportamientos es la inspiración principal para desarrollar el enfoque WaOA propuesto.

WaOA es un algoritmo metaheurístico basado en la población en el que los miembros buscadores de esta población son morsas. En WaOA, cada morsa representa una solución candidata al problema de optimización. Así, la posición de cada morsa en el espacio de búsqueda determina los valores candidatos para las variables del problema. Por lo tanto, cada morsa es un vector, y la población de morsas se puede modelar matemáticamente usando la llamada matriz de población. Al comienzo de la implementación de WaOA, las poblaciones de morsas se inicializan aleatoriamente. Esta matriz de población WaOA se determina usando (1).

donde \(X\) es la población de morsas, \({X}_{i}\) es la \(i\)ésima morsa (solución candidata), \({x}_{i,j}\) es el valor de la \(j\)ésima variable de decisión sugerida por la \(i\)ésima morsa, \(N\) es el número de morsas y \(m\) es el número de variables de decisión.

Como se mencionó, cada morsa es una solución candidata al problema y, en función de sus valores sugeridos para las variables de decisión, se puede evaluar la función objetivo del problema. Los valores estimados para la función objetivo obtenidos de las morsas se especifican en (2).

donde \(F\) es el vector de la función objetivo y \({F}_{i}\) es el valor de la función objetivo evaluada en base a la \(i\)ésima morsa.

Los valores de la función objetivo son la mejor medida de la calidad de las soluciones candidatas. La solución candidata que da como resultado la evaluación del mejor valor para la función objetivo se conoce como el mejor miembro. Por otro lado, la solución candidata que da como resultado el peor valor para la función objetivo se denomina peor miembro. De acuerdo a la actualización de los valores de la función objetivo en cada iteración, también se actualizan los mejores y peores miembros.

El proceso de actualización de la posición de las morsas en el WaOA se modela en tres fases distintas en función de los comportamientos naturales de este animal.

Las morsas tienen una dieta variada, alimentándose de más de sesenta especies de organismos marinos, como pepinos de mar, tunicados, corales blandos, gusanos tubícolas, camarones y diversos moluscos57. Sin embargo, la morsa prefiere los moluscos bivalvos bentónicos, en particular las almejas, para lo cual se alimenta pastando en el lecho marino, buscando y detectando alimento con sus enérgicos movimientos de aletas y sus sensibles vibrisas58. En este proceso de búsqueda, la morsa más fuerte y con los colmillos más altos guía a la otra morsa del grupo a encontrar comida. La longitud de los colmillos de las morsas es similar a la calidad de los valores de la función objetivo de las soluciones candidatas. Por lo tanto, la mejor solución candidata con el mejor valor para la función objetivo se considera la morsa más fuerte del grupo. Este comportamiento de búsqueda de las morsas conduce a diferentes áreas de exploración del espacio de búsqueda, lo que mejora el poder de exploración del WaOA en la búsqueda global. El proceso de actualización de la posición de las morsas se modela matemáticamente en función del mecanismo de alimentación bajo la guía del miembro más vital del grupo, utilizando (3) y (4). En este proceso, primero se genera una nueva posición para la morsa según (3). Esta nueva posición reemplaza a la anterior si mejora el valor de la función objetivo; este concepto se modela en (4).

donde \({X}_{i}^{{P}_{1}}\) es la nueva posición generada para la \(i\)ésima morsa basada en la primera fase, \({x}_{i ,j}^{{P}_{1}}\) es su \(j\)ésima dimensión, \({F}_{i}^{{P}_{1}}\) es su función objetivo valor, \({rand}_{i,j}\) son números aleatorios del intervalo \(\left[0, 1\right]\), \(SW\) es la mejor solución candidata que se considera como la morsa más fuerte, y \({I}_{i,j}\) son números enteros seleccionados al azar entre 1 o 2. \({I}_{i,j}\) se usa para aumentar la capacidad de exploración del algoritmo de modo que si se elige igual a 2, crea cambios más significativos y amplios en la posición de las morsas en comparación con el valor de 1, que es el estado normal de este desplazamiento. Estas condiciones ayudan a mejorar la búsqueda global del algoritmo para escapar de los óptimos locales y descubrir el área óptima original en el espacio de resolución de problemas.

Uno de los comportamientos naturales de las morsas es su migración a afloramientos o playas rocosas debido al calentamiento del aire a fines del verano. Este proceso de migración se emplea en WaOA para guiar a las morsas en el espacio de búsqueda para descubrir áreas adecuadas en el espacio de búsqueda. Este mecanismo de comportamiento se modela matemáticamente usando (5) y (6). Este modelo asume que cada morsa migra a otra posición de morsa (seleccionada al azar) en otra área del espacio de búsqueda. Por lo tanto, la nueva posición propuesta se genera primero en base a (5). Entonces según (6), si esta nueva posición mejora el valor de la función objetivo, reemplaza la posición anterior de morsa.

donde \({X}_{i}^{{P}_{2}}\) es la nueva posición generada para la \(i\)ésima morsa basada en la segunda fase, \({x}_{i ,j}^{{P}_{2}}\) es su \(j\)ésima dimensión, \({F}_{i}^{{P}_{2}}\) es su función objetivo valor, \({X}_{k}, k\in \left\{\mathrm{1,2}, \dots ,N\right\} \, \mathrm{y} \, k\ne i,\ ) es la ubicación de la morsa seleccionada para migrar la \(i\)ésima morsa hacia ella, \({x}_{k,j}\) es su \(j\)ésima dimensión, y \({F}_ {k}\) es el valor de su función objetivo.

Las morsas siempre están expuestas a los ataques del oso polar y la orca. La estrategia de escapar y luchar contra estos depredadores provoca un cambio de posición de las morsas en las inmediaciones de la posición en la que se encuentran. Simular este comportamiento natural de las morsas mejora el poder de explotación de WaOA en la búsqueda local en el espacio de resolución de problemas en torno a soluciones candidatas. Dado que este proceso ocurre cerca de la posición de cada morsa, se asume en el diseño de WaOA que este rango de cambio de posición de la morsa ocurre en un vecindario correspondiente centrado en la morsa con un cierto radio. Teniendo en cuenta que en las iteraciones iniciales del algoritmo se da prioridad a la búsqueda global para descubrir el área óptima en el espacio de búsqueda, el radio de esta vecindad se considera variable para que primero se establezca en el valor más alto y luego se haga más pequeño. durante las iteraciones del algoritmo. Por esta razón, se han utilizado límites locales inferiores/superiores en esta fase de WaOA para crear un radio variable con repeticiones de algoritmos. Para la simulación de este fenómeno en WaOA, se asume una vecindad alrededor de cada morsa, a la cual primero se le genera una nueva posición aleatoriamente en esta vecindad usando (7) y (8). luego, si se mejora el valor de la función objetivo, esta nueva posición reemplaza la posición anterior según (9).

donde \({X}_{i}^{{P}_{3}}\) es la nueva posición generada para la \(i\)ésima morsa basada en la tercera fase, \({x}_{i ,j}^{{P}_{3}}\) es su \(j\)ésima dimensión, \({F}_{i}^{{P}_{3}}\) es su función objetivo \(t\) es el contorno de iteración, \(l{b}_{j}\) y \(u{b}_{j}\) son los límites inferior y superior de \(j\) th variable, respectivamente, \(l{b}_{local,j}^{t}\) y \({ub}_{local,j}^{t}\) son límites locales inferior y local permisibles para la variable \(j\)ésima, respectivamente, para simular la búsqueda local en la vecindad de las soluciones candidatas.

Después de actualizar la posición de las morsas en función de la implementación de las fases primera, segunda y tercera, se completa la primera iteración de WaOA y se calculan nuevos valores para la posición de las morsas y las funciones objetivo. Actualizar y mejorar las soluciones candidatas se repite en función de los pasos de WaOA de acuerdo con las ecuaciones. (3)–(9) hasta la iteración final. Una vez completada la ejecución del algoritmo, WaOA presenta la mejor solución candidata encontrada durante la ejecución como la solución al problema dado. El diagrama de flujo de implementación de WaOA se presenta en la Fig. 2, y su pseudocódigo se especifica en el Algoritmo 1.

Diagrama de flujo de WaOA.

En esta subsección, se investiga la complejidad computacional de WaOA. La inicialización de WaOA, que implica la formación de la matriz de población y el cálculo de la función objetivo, tiene una complejidad igual a \(O(Nm)\), donde N es el número de morsas y m es el número de variables del problema. El proceso de actualización de WaOA tiene tres fases diferentes, cada una de las cuales tiene una complejidad igual a \(O(NmT)\), donde T es el número de iteraciones del algoritmo. Por lo tanto, la complejidad computacional total de WaOA es igual a \(O(Nm (1 + 3T))\).

Con respecto a los algoritmos de la competencia, GA, PSO, GSA, GWO, MVO, MPA, TSA, RSA y WSO tienen una complejidad temporal igual a \(O(Nm (1 + T))\), y TLBO tiene una complejidad computacional igual a a \(O(Nm (1 + 2T))\). Por lo tanto, está claro que el enfoque WaOA propuesto tiene una mayor complejidad computacional que todos los algoritmos utilizados para la comparación. Sin embargo, para hacer una comparación justa, usamos el tamaño de la población de cada algoritmo metaheurístico en el análisis de simulación para que el número total de evaluaciones de funciones sea el mismo para todos los algoritmos empleados.

En esta sección, se presentan estudios de simulación WaOA sobre aplicaciones de optimización. La eficiencia de WaOA para proporcionar la solución óptima se probó en sesenta y ocho funciones objetivo estándar, que incluyen unimodal, multimodal de alta dimensión, multimodal de dimensión fija, el conjunto de pruebas CEC 2015 y el conjunto de pruebas CEC 2017. La información sobre estas funciones de prueba se especifica en el Apéndice y en las Tablas A1 a A5.

Las razones para elegir estas funciones de referencia son las siguientes. Las funciones unimodales F1 a F7 son adecuadas para evaluar la capacidad de explotación de algoritmos metaheurísticos en convergencia hacia el óptimo global ya que no tienen un óptimo local. Las funciones multimodales F8 a F23 son opciones adecuadas para evaluar la capacidad de exploración de los algoritmos metaheurísticos debido a que tienen múltiples óptimos locales. Los conjuntos de pruebas CEC 2015 y CEC 2017 tienen funciones comparativas complejas que son adecuadas para evaluar la capacidad de los algoritmos metaheurísticos para equilibrar la exploración y la explotación durante el proceso de búsqueda. El rendimiento de WaOA se compara con diez algoritmos conocidos de GA, PSO, GSA, TLBO, GWO, MVO, MPA, TSA, RSA y WSO para determinar la calidad de los resultados de WaOA. Los valores establecidos para los parámetros de control de los algoritmos empleados se especifican en la Tabla 1. El WaOA y los algoritmos de la competencia mencionados se implementaron en F1 a F23, cada uno en veinte ejecuciones independientes que contienen mil iteraciones (es decir, \(T=1000\) ). En este estudio, el parámetro \(N\) se considera igual a 20 para WaOA, 30 para TLBO y 60 para otros algoritmos de la competencia para igualar el número de evaluaciones de funciones. En este caso, considerando la complejidad computacional de cada algoritmo, el número de evaluaciones de funciones para cada algoritmo metaheurístico es igual a 60.000.

Los resultados de optimización se informan mediante cuatro indicadores estadísticos: media, mejor, desviación estándar y mediana. Además, el rango de cada algoritmo en el manejo de cada función objetivo se determina con base en el criterio promedio.

Se han seleccionado funciones objetivo unimodales para evaluar la capacidad de explotación de WaOA en la búsqueda local debido a que solo tienen una solución óptima principal y, por lo tanto, carecen de soluciones locales. Los resultados de la optimización de las funciones F1 a F7 utilizando WaOA y los algoritmos de la competencia se publican en la Tabla 2. Los resultados de la simulación muestran que WaOA ha puesto a disposición la solución global óptima para las funciones objetivo F1, F3, F5 y F6. WaOA también es el mejor optimizador para optimizar F2, F4 y F7. Una comparación de los resultados de optimización muestra que WaOA tiene una superioridad muy competitiva y obvia sobre los diez algoritmos comparados.

Se han seleccionado funciones multimodales de alta dimensión con varias soluciones óptimas locales y globales para evaluar la capacidad de exploración de WaOA en la búsqueda global. Los resultados de optimización de las funciones F8 a F13 utilizando WaOA y algoritmos de la competencia se informan en la Tabla 3. Lo que se puede deducir de los resultados de esta tabla es que WaOA ha convergido al óptimo global en la optimización de F9 y F11. WaOA también es el mejor optimizador para optimizar F10, F12 y F13. TSA es el mejor optimizador para la función objetivo F8, mientras que WaOA es el segundo mejor optimizador para esta función objetivo. El análisis de los resultados de la simulación muestra que WaOA tiene un rendimiento aceptable en la optimización de funciones objetivo multimodales de alta dimensión y ha proporcionado un resultado superior en comparación con diez algoritmos de la competencia.

Las funciones multimodales de dimensión fija, que tienen menos soluciones locales que las funciones F8 a F13, se seleccionaron para evaluar la capacidad de WaOA para equilibrar la exploración y la explotación. Los resultados de optimización de las funciones F14 a F23 se informan en la Tabla 4. Los resultados muestran que WaOA ocupa el primer lugar como el mejor optimizador en el manejo de todas las funciones F14 a F23. Además, el análisis de los resultados de la simulación muestra la superioridad de WaOA sobre diez algoritmos comparados debido al alto poder de WaOA para equilibrar la exploración y la explotación.

Los rendimientos de WaOA y los algoritmos de la competencia en la resolución de las funciones F1 a F23 se presentan como diagramas de caja en la Fig. 3. El análisis intuitivo de estos diagramas de caja muestra que el enfoque WaOA propuesto ha proporcionado un rendimiento superior y más efectivo que los algoritmos de la competencia al proporcionar mejores resultados en estadísticas. indicadores en la mayoría de las funciones de referencia.

El diagrama de caja de WaOA y el rendimiento de los algoritmos de la competencia en las funciones F1 a F23.

En esta subsección, se analiza estadísticamente la superioridad de WaOA sobre los algoritmos de la competencia para determinar si esta superioridad es significativa o no. Para realizar el análisis estadístico de los resultados obtenidos, se utiliza la prueba de rangos con signo de Wilcoxon59. La prueba de rango con signo de Wilcoxon es una prueba no paramétrica que se utiliza para detectar diferencias significativas entre dos muestras de datos. Los resultados del análisis estadístico utilizando esta prueba se presentan en la Tabla 5. Lo que se puede ver del estudio de los resultados de la simulación es que WaOA tiene una superioridad estadística significativa sobre el algoritmo de la competencia en los casos en que el valor \(p\) es menor que 0.05.

WaOA es un optimizador basado en la población que realiza el proceso de optimización en un cálculo basado en repeticiones. En consecuencia, se espera que los parámetros \(N\) (el número de miembros de la población) y \(T\) (el número total de iteraciones del algoritmo) afecten el rendimiento de la optimización de WaOA. Por lo tanto, el análisis de sensibilidad de WaOA a los parámetros \(T\) y \(N\) se presenta en esta subsección.

Para analizar la sensibilidad de WaOA al parámetro \(N\), se utiliza el algoritmo propuesto para diferentes valores del parámetro \(N\) iguales a 20, 30, 50 y 100 para optimizar las funciones de F1 a F23. Los resultados de optimización se dan en la Tabla 6, y las curvas de convergencia de WaOA bajo este análisis se presentan en la Fig. 4. Lo que es evidente del análisis de la sensibilidad de WaOA al parámetro \(N\) es que aumentar los agentes buscadores mejora la capacidad de búsqueda de WaOA en escanear el espacio de búsqueda, lo que mejora el rendimiento del algoritmo propuesto y reduce los valores de la función objetivo.

Curvas de convergencia de WaOA en el estudio del análisis de sensibilidad al parámetro \(N\).

Para analizar la sensibilidad del algoritmo propuesto al parámetro \(T\), se utiliza WaOA para diferentes valores del parámetro \(T\) iguales a 200, 500, 800 y 1000 para optimizar las funciones de F1 a F23. Los resultados de la optimización se encuentran en la Tabla 7, y las curvas de convergencia de WaOA bajo este análisis se presentan en la Fig. 5. Con base en los resultados obtenidos, se encuentra que el aumento de los valores de \(T\) le da al algoritmo más oportunidades de converger a mejores soluciones basado en la capacidad de explotación. Por lo tanto, se puede ver que con valores crecientes de \(T\), el proceso de optimización se ha vuelto más eficiente y, como resultado, los valores de la función objetivo han disminuido.

Curvas de convergencia de WaOA en el estudio del análisis de sensibilidad al parámetro \(T\).

Los resultados de optimización del conjunto de pruebas de CEC 2015, incluidos C15–F1 a C15–F15 usando WaOA y algoritmos de la competencia, se publican en la Tabla 8. Los resultados de la simulación muestran que WaOA es el mejor optimizador para C15–F1 a C15–F8, C15 –Funciones F10, C15–F13 y C15–F14. Además, al resolver C15–F9 después de MVO, en C15–F11 después de WSO, C15–F12 y C15–F15 después de GSA, el WaOA propuesto es el segundo mejor optimizador. El análisis de los resultados de la simulación muestra que WaOA proporciona mejores resultados en la mayoría de las funciones del conjunto de pruebas CEC 2015 y, en total, con el primer rango del mejor optimizador en el manejo del conjunto de pruebas CEC 2015, ha proporcionado un rendimiento superior en comparación con los algoritmos de la competencia.

Los resultados de empleo de WaOA y los algoritmos de la competencia en el conjunto de pruebas de CEC 2017, incluidas las funciones C17–F1 a C17–F30, se presentan en la Tabla 9. Lo que se puede ver a partir del análisis de los resultados de la simulación es que WaOA es el primer mejor optimizador para C17. Funciones –F1 a C17–F6, C17–F8 a C17–F30. al resolver C17–F7, WaOA propuesto después de GSA es el segundo mejor optimizador. La comparación de los resultados de la simulación muestra que WaOA ha proporcionado mejores resultados en la mayoría de las funciones del conjunto de pruebas de CEC 2017 y ha proporcionado un rendimiento superior en la resolución de este conjunto de pruebas en comparación con los algoritmos de la competencia.

No se requirió el consentimiento informado ya que no hubo humanos ni animales involucrados.

Este artículo no contiene ningún estudio con participantes humanos o animales realizado por ninguno de los autores.

Los algoritmos metaheurísticos son una de las técnicas más utilizadas en el manejo de aplicaciones del mundo real. Esta sección prueba el rendimiento de WaOA en la optimización de cuatro desafíos de diseño de ingeniería y veintidós problemas de optimización con restricciones del conjunto de pruebas de CEC 2011. Cabe señalar que para modelar las restricciones de los problemas de optimización se ha utilizado la función de penalización. Así, si una solución no cumple con alguna de las restricciones del problema, se le suma un coeficiente de penalización al valor de su función objetivo correspondiente a cada incumplimiento de la restricción, y en consecuencia se le conoce como solución inadecuada. .

El diseño del resorte de tensión/compresión es un desafío en las aplicaciones del mundo real con el objetivo de minimizar el peso del resorte de tensión/compresión. En la figura 659 se muestra un esquema de este diseño. La formulación del problema del resorte de tensión/compresión es la siguiente:

Vista esquemática del problema del resorte de tensión/compresión.

Considere \(X=\left[{x}_{1}, {x}_{2}, {x}_{3} \right]=\left[d, D, P\right].\)

Minimiza \(f \left(X\right)=\left({x}_{3}+2\right){x}_{2}{x}_{1}^{2}.\)

Sujeto a:

Con.

\(0.05\le {x}_{1}\le 2, {0.25\le x}_{2}\le 1.3\mathrm{ y }2\le {x}_{3}\le 15\).

Los resultados del uso de WaOA y algoritmos de la competencia para optimizar las variables de diseño del resorte de tensión/compresión se presentan en la Tabla 10. Los resultados de la simulación muestran que WaOA ha proporcionado la solución óptima a este problema con los valores de las variables iguales a (0.0519693, 0.363467, 10,9084) y el correspondiente valor de la función objetivo igual a 0,012672. Los resultados estadísticos obtenidos del rendimiento de WaOA y los algoritmos de la competencia se informan en la Tabla 11, que muestra la superioridad de WaOA al proporcionar mejores valores para los indicadores estadísticos. La curva de convergencia de WaOA mientras se logra la solución para el resorte de tensión/compresión se muestra en la Fig. 7.

Análisis de convergencia del WaOA para el problema de optimización del diseño de resortes de tensión/compresión.

El diseño de vigas soldadas es un verdadero desafío global en las ciencias de la ingeniería cuyo objetivo principal en el diseño es reducir el costo de fabricación de la viga soldada. Un esquema de este diseño se muestra en la Fig. 860. La formulación del problema de diseño de vigas soldadas es la siguiente:

Vista esquemática del problema de diseño de vigas soldadas.

Considere \(X=\left[{x}_{1}, {x}_{2}, {x}_{3}, {x}_{4}\right]=\left[h, l, t, b\derecha]\).

Minimizar \(f (X)=1,10471{x}_{1}^{2}{x}_{2}+0,04811{x}_{3}{x}_{4} (14,0+{x}_ {2})\).

Sujeto a:

dónde

Con

WaOA y los algoritmos de la competencia se implementan en el problema de diseño de vigas soldadas y los resultados se presentan en la Tabla 12. Basándose en estos resultados, WaOA ha proporcionado la solución óptima a este problema con los valores de las variables iguales a (0.20573, 3.470489, 9.036624 , 0,20573) y el correspondiente valor de la función objetivo igual a 1,724901. Los resultados estadísticos del desempeño de WaOA y los algoritmos de la competencia se informan en la Tabla 13. Esta tabla muestra que WaOA se desempeña mejor en términos de indicadores estadísticos. La curva de convergencia de la implementación de WaOA en el diseño de vigas soldadas se muestra en la Fig. 9.

Análisis de convergencia del WaOA para el problema de optimización del diseño de vigas soldadas.

El diseño del reductor de velocidad es un desafío de optimización de ingeniería del mundo real destinado a minimizar el peso del reductor de velocidad. Un esquema de este diseño se muestra en la Fig. 1061,62. El problema de diseño del reductor de velocidad se formula de la siguiente manera:

Vista esquemática del problema de diseño del reductor de velocidad.

Considere \(X=\left[{x}_{1,} {x}_{2}, {x}_{3}, {x}_{4}, {x}_{5}{ ,x }_{6} ,{x}_{7}\derecha]=\izquierda[b, m, p, {l}_{1}, {l}_{2}, {d}_{1}, {d}_{2}\derecho]\).

Minimizar \(f \left(X\right)=0,7854{x}_{1}{x}_{2}^{2}\left(3,3333{x}_{3}^{2}+14,9334{x }_{3}-43,0934\derecha)-1,508{x}_{1}\izquierda({x}_{6}^{2}+{x}_{7}^{2}\derecha)+7,4777 \izquierda({x}_{6}^{3}+{x}_{7}^{3}\derecha)+0,7854({x}_{4}{x}_{6}^{2} +{x}_{5}{x}_{7}^{2})\).

Sujeto a:

Con

Los resultados obtenidos al emplear WaOA y algoritmos de la competencia en la optimización del diseño de reductores de velocidad se informan en la Tabla 14. Los resultados muestran que WaOA ha proporcionado la solución óptima a este problema con los valores de las variables iguales a (3.5, 0.7, 17, 7.3, 7.8, 3.35021, 5.28668) y el correspondiente valor de la función objetivo igual a 2996.3482. Se dan a conocer los resultados estadísticos obtenidos de WaOA y los algoritmos comparados en la Tabla 15, lo que indica la superioridad del WaOA propuesto. La curva de convergencia de WaOA al obtener la solución al problema de diseño del reductor de velocidad se muestra en la Fig. 11.

Análisis de convergencia del WaOA para el problema de optimización del diseño del reductor de velocidad.

El diseño de recipientes a presión es un desafío de optimización del mundo real que tiene como objetivo reducir los costos de diseño. En la Fig. 1263 se muestra un esquema de este diseño. La formulación del problema de diseño de recipientes a presión es la siguiente:

Vista esquemática del problema de diseño de recipientes a presión.

Considere \(X=\left[{x}_{1}, {x}_{2}, {x}_{3}, {x}_{4}\right]=\left[{T}_ {s}, {T}_{h}, R, L\right]\).

Minimizar \(f \left(X\right)=0,6224{x}_{1}{x}_{3}{x}_{4}+1,778{x}_{2}{x}_{3} ^{2}+3,1661{x}_{1}^{2}{x}_{4}+19,84{x}_{1}^{2}{x}_{3}.\)

Sujeto a:

Con

WaOA y los algoritmos de la competencia se utilizan para optimizar el diseño de recipientes a presión. Los resultados obtenidos para las variables de diseño de este tema se dan a conocer en la Tabla 16. Con base en esta tabla, WaOA proporciona los valores óptimos de las variables de diseño iguales a (0.7782641, 0.3847753, 40.32163, 199.8713), lo que conduce al valor igual a 5883.9604 para la función objetivo. Los resultados de los indicadores estadísticos obtenidos de los rendimientos de WaOA y los algoritmos de la competencia se presentan en la Tabla 17. Los resultados estadísticos indican que WaOA ha optimizado efectivamente el desafío del diseño de recipientes a presión al proporcionar valores más favorables para los indicadores estadísticos. La curva de convergencia de WaOA para lograr la solución óptima se muestra en la Fig. 13.

Análisis de convergencia del WaOA para el problema de optimización del diseño de recipientes a presión.

En esta subsección, el desempeño de WaOA en el manejo de aplicaciones del mundo real se cuestiona en veintidós problemas de optimización con restricciones del conjunto de pruebas de CEC 2011. Este conjunto de pruebas tiene veintidós problemas de optimización, a saber: estimación de parámetros para ondas de sonido moduladas en frecuencia (FM), el problema potencial de Lennard-Jones, el problema de control óptimo de mezcla de catalizador bifuncional, control óptimo de un reactor de tanque agitado no lineal, el Tersoff potencial para el modelo Si (B), el potencial de Tersoff para el modelo Si (C), diseño de código polifásico de radar de espectro ensanchado, problema de planificación de expansión de la red de transmisión (TNEP), problema de fijación de precios de transmisión a gran escala, problema de diseño de matriz de antena circular y ELD problemas (que consisten en la instancia 1 de DED, la instancia 2 de DED, la instancia 1 de ELD, la instancia 2 de ELD, la instancia 3 de ELD, la instancia 4 de ELD, la instancia 5 de ELD, la instancia de programación hidrotermal 1, la instancia de programación hidrotermal 2 y la instancia de programación hidrotermal 3), el problema de optimización de la trayectoria de la nave espacial Messenger y el problema de optimización de la trayectoria de la nave espacial Cassini 2. Los detalles completos y la descripción del conjunto de pruebas de CEC 2011 están disponibles en64. Los resultados de emplear WaOA y algoritmos de la competencia en estos problemas de optimización del mundo real se presentan en la Tabla 18. Los diagramas de caja obtenidos del rendimiento de los algoritmos metaheurísticos en el manejo de los problemas de optimización del conjunto de pruebas de CEC 2011 se dibujan en la Fig. 14. Basado en la simulación Como resultado, WaOA es el primer mejor optimizador para resolver todos los problemas de optimización C11–F1 a C11–F22. Según los resultados de la simulación, el enfoque WaOA propuesto ha proporcionado mejores resultados en la mayoría de los problemas de optimización y ha proporcionado un rendimiento superior en el manejo del conjunto de pruebas CEC 2011 en competencia con algoritmos de la competencia. Además, los resultados obtenidos del análisis estadístico para el valor \(p\) muestran que WaOA tiene una superioridad estadística significativa en comparación con los algoritmos de la competencia.

Diagramas de diagramas de caja del rendimiento de WaOA y los algoritmos de la competencia en el conjunto de pruebas de CEC 2011.

En este estudio, se desarrolló un nuevo algoritmo metaheurístico bioinspirado llamado Walrus Optimization Algorithm (WaOA) basado en los comportamientos naturales de las morsas. Alimentarse, escapar, luchar contra los depredadores y migrar son las principales fuentes de inspiración utilizadas en el diseño de WaOA. Por lo tanto, se explicó la teoría WaOA y se presentó su modelado matemático en tres fases: (i) estrategia de alimentación, (ii) migración y (iii) escape y lucha contra los depredadores. Se emplearon sesenta y ocho funciones de referencia estándar de varios tipos de unimodal, multimodal, el conjunto de pruebas CEC 2015 y el conjunto de pruebas CEC 2017 para analizar el rendimiento de WaOA en la provisión de soluciones. La información sobre estas funciones de prueba se especifica en el Apéndice y en las Tablas A1 a A5. Los resultados de optimización de funciones unimodales mostraron la alta capacidad de explotación de WaOA en la búsqueda local para converger hacia un óptimo global. Los resultados de optimización de las funciones multimodales indicaron la alta capacidad de exploración de WaOA en la búsqueda global y no quedar atrapado en soluciones óptimas localmente. Los resultados de rendimiento de WaOA se compararon con los diez algoritmos metaheurísticos conocidos. Los resultados de la simulación y la comparación mostraron que el enfoque WaOA propuesto tiene una alta capacidad para equilibrar la exploración y la explotación y es muy superior y más competitivo frente a diez algoritmos metaheurísticos de la competencia. Además, los resultados de la implementación de WaOA al abordar los cuatro problemas de diseño y los veintidós problemas de optimización del mundo real del conjunto de pruebas de CEC 2011 demuestran la eficacia del enfoque propuesto en las aplicaciones del mundo real.

Aunque se observó que WaOA había proporcionado resultados superiores en la mayoría de las funciones de referencia, el enfoque propuesto tiene algunas limitaciones. La primera limitación a la que se enfrentan todos los algoritmos metaheurísticos es que siempre es posible diseñar algoritmos más nuevos que puedan proporcionar mejores resultados que los algoritmos existentes. La segunda limitación de WaOA es que el método propuesto puede fallar en algunas aplicaciones de optimización. La tercera limitación de WaOA es que la naturaleza de la búsqueda aleatoria en este algoritmo conduce al hecho de que no hay garantía de lograr el óptimo global. Además, los autores no afirman que el enfoque WaOA propuesto sea el mejor optimizador para todas las tareas de optimización posibles. Este hecho, por supuesto, no se puede decir de ningún optimizador debido a la validez del teorema NFL.

Los autores ofrecen varias direcciones de estudio para futuras investigaciones, incluido el diseño de la versión multiobjetivo de WaOA y la versión binaria de WaOA. Además, el uso de WaOA para resolver problemas de optimización en aplicaciones del mundo real es una posible línea para futuras investigaciones.

Todos los datos generados o analizados durante este estudio se incluyen directamente en el texto de este manuscrito enviado. No hay archivos externos adicionales con conjuntos de datos.

Gill, PE, Murray, W. & Wright, MH Optimización práctica (SIAM, 2019).

Libro MATEMÁTICAS Google Académico

Kvasov, DE & Mukhametzhanov, MS Algoritmos de optimización global metaheurística versus determinista: el caso univariado. aplicación Matemáticas. computar 318, 245–259 (2018).

MathSciNet MATEMÁTICAS Google Académico

Cavazzuti, M. Métodos de optimización: de la teoría al diseño Aspectos científicos y tecnológicos de la mecánica 77–102 (Springer, 2013).

Matemáticas Google Académico

Dehghani, M., Hubálovský, Š. & Trojovský, P. Optimización del demonio de Tasmania: un nuevo algoritmo de optimización bioinspirado para resolver el algoritmo de optimización. Acceso IEEE (2022).

Cervone , G. , Franzese , P. & Keesee , AP El algoritmo de aprendizaje casi óptimo (AQ). Wiley Interdisciplinario. Rev. Padre. Informática. Estadística 2, 218–236 (2010).

Artículo Google Académico

Osuna-Enciso , V. , Cuevas , E. & Chestnut , BM Una métrica de diversidad para algoritmos metaheurísticos basados ​​en población . información ciencia Rev. 586, 192–208 (2022).

Artículo Google Académico

Gharehchopogh, FS, Maleki, I. & Dizaji, ZA Algoritmo de búsqueda de vórtice caótico: algoritmo metaheurístico para la selección de características. Evol. Intel. 15, 1777–1808 (2022).

Artículo Google Académico

Mohammadzadeh, H. & Gharehchopogh, FS Un sistema multiagente basado en la resolución de problemas de optimización de alta dimensión: un estudio de caso sobre la detección de correo no deseado. En t. J. común. sist. 34, e4670 (2021).

Artículo Google Académico

Wolpert, DH & Macready, WG No hay teoremas de almuerzo gratis para la optimización. Trans. IEEE. Evol. computar 1, 67–82 (1997).

Artículo Google Académico

Goldberg, DE & Holland, JH Algoritmos genéticos y aprendizaje automático. Mach. Aprender. 3, 95–99. https://doi.org/10.1023/A:1022602019183 (1988).

Artículo Google Académico

Storn, R. & Price, K. Evolución diferencial: una heurística simple y eficiente para la optimización global en espacios continuos. J. Globo. Óptimo 11, 341–359 (1997).

Artículo MathSciNet MATEMÁTICAS Google Académico

Kennedy, J. y Eberhart, R. en Actas de ICNN'95: Conferencia internacional sobre redes neuronales, vol. 1944, 1942–1948 (IEEE, 2023).

Zaman, HRR & Gharehchopogh, FS Una optimización de enjambre de partículas mejorada con algoritmo de optimización de búsqueda de retroceso para resolver problemas de optimización continua. Ing. computar 1, 1–35 (2021).

Google Académico

Dorigo, M., Maniezzo, V. & Colorni, A. Sistema de hormigas: Optimización por una colonia de agentes cooperantes. Trans. IEEE. sist. Hombre cibernético. B 26, 29–41 (1996).

Artículo CAS Google Académico

Mirjalili, S., Mirjalili, SM & Lewis, A. El optimizador de Grey Wolf. Adv. Ing. suave 69 , 46–61 . https://doi.org/10.1016/j.advengsoft.2013.12.007 (2014).

Artículo Google Académico

Faramarzi, A., Heidarinejad, M., Mirjalili, S. & Gandomi, AH Algoritmo de depredadores marinos: una metaheurística inspirada en la naturaleza. Sistema experto aplicación 152, 113377 (2020).

Artículo Google Académico

Kaur, S., Awasthi, LK, Sangal, AL y Dhiman, G. Algoritmo de enjambre de Tunicate: un nuevo paradigma metaheurístico basado en la bioinspiración para la optimización global. Ing. aplicación Artefacto Intel. 90, 103541. https://doi.org/10.1016/j.engappai.2020.103541 (2020).

Artículo Google Académico

Braik, M., Hammouri, A., Atwan, J., Al-Betar, MA y Awadallah, MA Optimizador de tiburón blanco: un algoritmo metaheurístico bioinspirado novedoso para problemas de optimización global. Saber Sistema basado 243, 108457 (2022).

Artículo Google Académico

Abualigah, L., Abd Elaziz, M., Sumari, P., Geem, ZW y Gandomi, AH Algoritmo de búsqueda de reptiles (RSA): un optimizador metaheurístico inspirado en la naturaleza. Sistema experto aplicación 191, 116158 (2022).

Artículo Google Académico

Koohi, SZ, Hamid, NAWA, Othman, M. & Ibragimov, G. Algoritmo de optimización de mapache. Acceso IEEE 7, 5383–5399 (2018).

Artículo Google Académico

Abdollahzadeh, B., Gharehchopogh, FS & Mirjalili, S. Algoritmo de optimización de buitres africanos: un nuevo algoritmo metaheurístico inspirado en la naturaleza para problemas de optimización global. computar Ing. Ind. 158, 107408 (2021).

Artículo Google Académico

Shayanfar, H. & Gharehchopogh, FS Fertilidad de las tierras agrícolas: un nuevo algoritmo metaheurístico para resolver problemas de optimización continua. aplicación Cómputo suave. 71, 728–746 (2018).

Artículo Google Académico

Gharehchopogh, FS, Ucan, A., Ibrikci, T., Arasteh, B. & Isik, G. Algoritmo de molde de limo: un estudio completo de sus variantes y aplicaciones. Arco. computar Métodos Ing. 1, 1–41 (2023).

Google Académico

Abdollahzadeh, B., Gharehchopogh, FS, Khodadadi, N. y Mirjalili, S. Optimizador de gacela de montaña: un nuevo algoritmo metaheurístico inspirado en la naturaleza para problemas de optimización global. Adv. Ing. suave 174, 103282 (2022).

Artículo Google Académico

Gharehchopogh, FS, Namazi, M., Ebrahimi, L. y Abdollahzadeh, B. Avances en el algoritmo de búsqueda de gorriones: una encuesta exhaustiva. Arco. Cómputo Métodos Ing. 30, 427–455 (2023).

Artículo Google Académico

Shen, Y., Zhang, C., Gharehchopogh, FS & Mirjalili, S. Un algoritmo mejorado de optimización de ballenas basado en la evolución de múltiples poblaciones para la optimización global y problemas de diseño de ingeniería. Sistema experto aplicación 215, 119269 (2023).

Artículo Google Académico

Abdollahzadeh, B., Soleimanian Gharehchopogh, F. & Mirjalili, S. Optimizador de tropas de gorilas artificiales: un nuevo algoritmo metaheurístico inspirado en la naturaleza para problemas de optimización global. En t. J. Intel. sist. 36, 5887–5958 (2021).

Artículo Google Académico

Trojovský, P. & Dehghani, M. Algoritmo de optimización Pelican: un algoritmo novedoso inspirado en la naturaleza para aplicaciones de ingeniería. Sensores 22, 855 (2022).

Artículo ADS PubMed PubMed Central Google Scholar

Kirkpatrick, S., Gelatt, CD & Vecchi, MP Optimización por recocido simulado. Ciencia 220, 671–680 (1983).

Artículo ADS MathSciNet CAS PubMed MATH Google Scholar

Rashedi, E., Nezamabadi-Pour, H. & Saryazdi, S. GSA: Un algoritmo de búsqueda gravitacional. información ciencia 179, 2232–2248 (2009).

Artículo MATEMÁTICAS Google Académico

Mirjalili, S., Mirjalili, SM y Hatamlou, A. Optimizador multiverso: un algoritmo inspirado en la naturaleza para la optimización global. Cómputo neuronal. aplicación 27, 495–513 (2016).

Artículo Google Académico

Eskandar, H., Sadollah, A., Bahreininejad, A. y Hamdi, M. Algoritmo del ciclo del agua: un nuevo método de optimización metaheurística para resolver problemas de optimización de ingeniería con restricciones. computar Estructura. 110, 151–166 (2012).

Artículo Google Académico

Dehghani, M. et al. Un algoritmo de búsqueda de primavera aplicado a problemas de optimización de ingeniería. aplicación ciencia 10, 6173 (2020).

Artículo CAS Google Académico

Zhao, W., Wang, L. & Zhang, Z. Optimización de búsqueda atómica y su aplicación para resolver un problema de estimación de parámetros hidrogeológicos. Saber Sistema basado 163, 283–304 (2019).

Artículo Google Académico

Gharehchopogh, FS Algoritmos metaheurísticos inspirados en Quantum: encuesta y clasificación integrales. Artefacto Intel. Rev. 56, 5479–5483 (2022).

Artículo Google Académico

Dehghani, M. & Samet, H. Algoritmo de búsqueda de impulso: un nuevo algoritmo de optimización metaheurística inspirado en la ley de conservación del impulso. SN Apl. ciencia 2, 1–15. https://doi.org/10.1007/s42452-020-03511-6 (2020).

Artículo Google Académico

Wei, Z., Huang, C., Wang, X., Han, T. y Li, Y. Optimización de reacciones nucleares: un algoritmo novedoso y potente basado en la física para la optimización global. Acceso IEEE 7, 66084–66109 (2019).

Artículo Google Académico

Rao, RV, Savsani, VJ y Vakharia, D. Optimización basada en la enseñanza y el aprendizaje: un método novedoso para problemas de optimización de diseño mecánico con restricciones. computar Ayudó a Des. 43, 303–315 (2011).

Artículo Google Académico

Moosavi , SHS & Bardsiri , VK El algoritmo de optimización de pobres y ricos: un nuevo algoritmo multipoblacional basado en humanos. Ing. aplicación Artefacto Intel. 86, 165–181 (2019).

Artículo Google Académico

Zeidabadi, F.-A. et al. Algoritmo de tiro con arco: un algoritmo de optimización estocástica novedoso para resolver problemas de optimización. computar Mate. Contin. 72, 399–416 (2022).

Google Académico

Shi, Y. Algoritmo de optimización de tormenta de ideas. Conferencia internacional sobre inteligencia de enjambres, 303–309 (Springer, 2011).

Dehghani, M. et al. Un nuevo algoritmo de optimización "médico y paciente": una aplicación al problema de compromiso energético. aplicación ciencia 10, 5791 (2020).

Artículo CAS Google Académico

Ayyarao, TL et al. Algoritmo de optimización de estrategia de guerra: un nuevo algoritmo metaheurístico eficaz para la optimización global. Acceso IEEE 10, 25073 (2022).

Artículo Google Académico

Dehghani, M. & Trojovský, P. Algoritmo de optimización del trabajo en equipo: un nuevo enfoque de optimización para la minimización/maximización de funciones. Sensores 21, 4567 (2021).

Artículo ADS PubMed PubMed Central Google Scholar

Kaveh, A. & Zolghadr, A. Un algoritmo metaheurístico novedoso: optimización del tira y afloja. Universidad de Irán ciencia Tecnología 6, 469–492 (2016).

Google Académico

Moghdani, R. & Salimifard, K. Algoritmo de primera división de voleibol. aplicación Cómputo suave. 64, 161–185 (2018).

Artículo Google Académico

Zeidabadi, FA & Dehghani, M. POA: Algoritmo de optimización de rompecabezas. En t. J. Intel. Ing. sist. 15, 273–281 (2022).

Google Académico

Dehghani, M., Montazeri, Z., Malik, OP, Ehsanifar, A. & Dehghani, A. OSA: Algoritmo de búsqueda de orientación. En t. J. Ind. Electron. Óptimo de control 2, 99–112 (2019).

Google Académico

Doumari, SA, Givi, H., Dehghani, M. & Malik, OP Algoritmo de optimización basado en juegos de lanzamiento de anillos para resolver varios problemas de optimización. En t. J. Intel. Ing. sist. 14, 545–554 (2021).

Google Académico

Dehghani, M., Mardaneh, M., Guerrero, JM, Malik, O. & Kumar, V. Optimización basada en juegos de fútbol: una aplicación para resolver el problema del compromiso energético. En t. J. Intel. Ing. sist. 13, 514–523 (2020).

Google Académico

Dehghani, M., Montazeri, Z. y Malik, OP DGO: Optimizador de juegos de dados. Universidad de Gazi. J. Ciencia. 32, 871–882 (2019).

Artículo Google Académico

Wilson, DE & Reeder, DM Especies de mamíferos del mundo: una referencia taxonómica y geográfica vol. 1 (prensa JHU, 2005).

Libro Google Académico

Fay, FH La ecología y biología de la morsa del Pacífico, Odobenus rosmarus divergens Illiger. N Am. Fauna 74, 1–279 (1982).

Artículo Google Académico

Fischbach, AS, Kochnev, AA, Garlich-Miller, JL & Jay, CV Pacific Walrus Coastal Haulout Database, 1852–2016—Informe de antecedentes. Informe No. 2331-1258 (Servicio Geológico de EE. UU., 2016).

Jefferson, TA, Stacey, PJ y Baird, RW Una revisión de las interacciones de las orcas con otros mamíferos marinos: de la depredación a la coexistencia. mamá Rev. 21, 151–180 (1991).

Artículo Google Académico

Christman, B. Cuerpo de la NOAA. https://www.upload.wikimedia.org/wikipedia/commons/c/ce/Noaa-walrus22.jpg.

Sheffield, G., Fay, FH, Feder, H. & Kelly, BP Laboratorio de digestión de presas e interpretación del contenido del estómago de morsa. Mar. Mamm. ciencia 17, 310–330 (2001).

Artículo Google Académico

Levermann, N., Galatius, A., Ehlme, G., Rysgaard, S. & Born, EW Comportamiento alimentario de morsas en libertad con notas sobre la aparente destreza del uso de las aletas. BMC Ecol. 3, 1–13 (2003).

Artículo Google Académico

Wilcoxon, F. Comparaciones individuales por métodos de clasificación. Biometría Toro. 1, 80–83 (1945).

Artículo Google Académico

Mirjalili, S. & Lewis, A. El algoritmo de optimización de ballenas. Adv. Ing. suave Rev. 95, 51–67 (2016).

Artículo Google Académico

Gandomi, AH y Yang, X.-S. Optimización computacional, métodos y algoritmos 259–281 (Springer, Londres, 2011).

Libro MATEMÁTICAS Google Académico

Mezura-Montes, E. & Coello, CAC Congreso Internacional Mexicano de Inteligencia Artificial, 652–662 (Springer, 2023).

Kannan, B. & Kramer, SN Un método basado en el multiplicador de Lagrange aumentado para la optimización continua discreta de enteros mixtos y sus aplicaciones al diseño mecánico. J. Mec. Des. 116, 405–411 (1994).

Artículo Google Académico

Das, S. & Suganthan, PN Definiciones de problemas y criterios de evaluación para la competencia CEC 2011 sobre pruebas de algoritmos evolutivos en problemas de optimización del mundo real 341–359 (Universidad de Jadavpur, 2010).

Google Académico

Descargar referencias

Este trabajo fue apoyado por el Proyecto de Excelencia, Facultad de Ciencias, Universidad de Hradec Králové, No. 2210/2023-2024.

Departamento de Matemáticas, Facultad de Ciencias, Universidad de Hradec Králové, Rokitanského 62, Hradec Králové, 500 03, República Checa

Pavel Trojovský y Mohammad Dehghani

También puede buscar este autor en PubMed Google Scholar

También puede buscar este autor en PubMed Google Scholar

Conceptualización, PT; metodología, PT; software, MD; validación, PT y MD; análisis formal, MD; investigación, PT; recursos, PT.; curación de datos, PT y MD; redacción—preparación del borrador original, PT y MD; redacción—revisión y edición, PT y MD; visualización, PT; supervisión, PT.; administración de proyectos, MD; adquisición de fondos, PT

Correspondencia a Pavel Trojovský.

Los autores declaran no tener conflictos de intereses.

Springer Nature se mantiene neutral con respecto a los reclamos jurisdiccionales en mapas publicados y afiliaciones institucionales.

Acceso abierto Este artículo tiene una licencia internacional Creative Commons Attribution 4.0, que permite el uso, el intercambio, la adaptación, la distribución y la reproducción en cualquier medio o formato, siempre que se otorgue el crédito correspondiente al autor o autores originales y a la fuente. proporcionar un enlace a la licencia Creative Commons e indicar si se realizaron cambios. Las imágenes u otro material de terceros en este artículo están incluidos en la licencia Creative Commons del artículo, a menos que se indique lo contrario en una línea de crédito al material. Si el material no está incluido en la licencia Creative Commons del artículo y su uso previsto no está permitido por la regulación legal o excede el uso permitido, deberá obtener el permiso directamente del titular de los derechos de autor. Para ver una copia de esta licencia, visite http://creativecommons.org/licenses/by/4.0/.

Reimpresiones y permisos

Trojovský, P., Dehghani, M. Un nuevo algoritmo metaheurístico bioinspirado para resolver problemas de optimización basados ​​en el comportamiento de las morsas. Informe científico 13, 8775 (2023). https://doi.org/10.1038/s41598-023-35863-5

Descargar cita

Recibido: 17 Octubre 2022

Aceptado: 24 de mayo de 2023

Publicado: 31 mayo 2023

DOI: https://doi.org/10.1038/s41598-023-35863-5

Cualquier persona con la que compartas el siguiente enlace podrá leer este contenido:

Lo sentimos, un enlace para compartir no está disponible actualmente para este artículo.

Proporcionado por la iniciativa de intercambio de contenido Springer Nature SharedIt

Al enviar un comentario, acepta cumplir con nuestros Términos y Pautas de la comunidad. Si encuentra algo abusivo o que no cumple con nuestros términos o pautas, márquelo como inapropiado.