Por favor, use este identificador para citar o enlazar este ítem:
https://repositorio.ufpe.br/handle/123456789/40461
Comparte esta pagina
Registro completo de metadatos
Campo DC | Valor | Lengua/Idioma |
---|---|---|
dc.contributor.advisor | LUDERMIR, Teresa Bernarda | - |
dc.contributor.author | LACERDA, Marcelo Gomes Pereira de | - |
dc.date.accessioned | 2021-07-08T19:44:12Z | - |
dc.date.available | 2021-07-08T19:44:12Z | - |
dc.date.issued | 2021-03-19 | - |
dc.identifier.citation | LACERDA, Marcelo Gomes Pereira de. Out-of-the-box parameter control for evolutionary and swarm-based algorithms with distributed reinforcement learning. 2021. Tese (Doutorado em Ciência da Computação) – Universidade Federal de Pernambuco, Recife, 2021. | pt_BR |
dc.identifier.uri | https://repositorio.ufpe.br/handle/123456789/40461 | - |
dc.description.abstract | Despite the success of evolutionary and swarm-based algorithms in many different application areas, such algorithms are very sensitive to the values of their parameters. According to the No Free Lunch Theorem, there is no parameter setting for a given algorithm that works best for every possible problem. Thus, finding a quasi-optimal parameter setting that maximizes the performance of a given metaheuristic in a specific problem is necessary. As manual parameter adjustment for evolutionary and swarm-based algorithms can be very hard and time demanding, automating this task has been one of the greatest and most important challenges in the field. Out-of-the-box parameter control methods are techniques that dynamically adjust the parameters of a metaheuristics during its execution and can be applied to any parameter, metaheuristic and optimization problem. Very few studies about out-of-the-box parameter control methods can be found in the literature, and most of them apply reinforcement learning algorithms to train effective parameter control policies. Even though these studies have presented very interesting and promising results, the problem of parameter control for metaheuristics is far from being solved. A few important gaps were identified in the literature of this field, namely: (1) training parameter control policies with reinforcement learning can be very computational-demanding; (2) reinforcement learning algorithms usually require the adjustment of many hyperparameters, what makes difficult its successful use. Moreover, the search for an optimal policy can be very unstable; (3) and, very limited benchmarks have been used to assess the generality of the out-of-the-box methods proposed so far in the literature. To address such gaps, the primary objective of this work is to propose an out-of-the-box policy training method for parameter control of mono-objective evolutionary and swarm-based algorithms with distributed reinforcement learning.The proposed method had its generality tested on a comprehensive experimental benchmark with 133 scenarios with 5 different metaheuristics, solving several numerical (continuous), binary, and combinatorial optimization problems. The scalability of the proposed architecture was also dully assessed. Moreover, extensive analyses of the hyperparameters of the proposed method were performed. The experimental results showed that the three aforementioned gaps were successfully addressed by the proposed method, besides a few other secondary advancements in the field, all commented in this thesis. | pt_BR |
dc.description.sponsorship | CNPq | pt_BR |
dc.language.iso | eng | pt_BR |
dc.publisher | Universidade Federal de Pernambuco | pt_BR |
dc.rights | openAccess | pt_BR |
dc.rights | Attribution-NonCommercial-NoDerivs 3.0 Brazil | * |
dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/3.0/br/ | * |
dc.subject | Inteligência Computacional | pt_BR |
dc.subject | Inteligência de enxames | pt_BR |
dc.subject | Computação evolucionária | pt_BR |
dc.subject | Aprendizagem por reforço | pt_BR |
dc.title | Out-of-the-box parameter control for evolutionary and swarm-based algorithms with distributed reinforcement learning | pt_BR |
dc.type | doctoralThesis | pt_BR |
dc.contributor.advisor-co | LIMA NETO, Fernando Buarque de | - |
dc.contributor.authorLattes | http://lattes.cnpq.br/9233884195509895 | pt_BR |
dc.publisher.initials | UFPE | pt_BR |
dc.publisher.country | Brasil | pt_BR |
dc.degree.level | doutorado | pt_BR |
dc.contributor.advisorLattes | http://lattes.cnpq.br/6321179168854922 | pt_BR |
dc.publisher.program | Programa de Pos Graduacao em Ciencia da Computacao | pt_BR |
dc.description.abstractx | Apesar do sucesso de algoritmos evolutivos e baseados em enxames em diferentes áreas de aplicação, estes algoritmos são muito sensíveis aos seus parâmetros. De acordo com o teorema "não existe almoço grátis", não existe configuração para um determinado algoritmo que funcione melhor para todos os problemas possíveis. Assim, faz-se necessário encontrar uma configuração de parâmetro que maximize o desempenho de uma dada metaheurística em um problema específico. No entanto, o ajuste manual de parâmetros para algoritmos evolutivos e baseados em enxames pode ser muito difícil e exigir muito tempo. Portanto, automatizar essa tarefa tem sido um dos maiores e mais importantes desafios da área. Métodos out-of-the-box de controle de parâmetros são técnicas que ajustam dinamicamente os parâmetros de uma metaheurística durante sua execução e podem ser aplicados a qualquer parâmetro, metaheurística e problema de otimização. Poucos estudos sobre métodos de controle de parâmetros out-of-the-box podem ser encontrados na literatura, e a maioria deles aplica algoritmos de aprendizagem por reforço para treinar políticas de controle de parâmetros eficazes. Embora esses estudos tenham apresentado resultados muito interessantes e promissores, o problema do controle de parâmetros para metaheurísticas está longe de ser resolvido. Algumas lacunas importantes foram identificadas na literatura da área, a saber: (1) Métodos de treinamento de políticas de controle de parâmetros baseados em aprendizagem por reforço podem demandar muito esforço computacional e tempo de execução. (2) Algoritmos de aprendizagem por reforço geralmente requerem o ajuste de vários hiperparâmetros, o que dificulta seu uso com sucesso. Além disso, a busca por uma política ótima pode ser muito instável. (3) Benchmark experimentais muito limitados foram usados para avaliar a generalidade dos métodos out-of-the-box, o que limita a avaliação da generalidade dos métodos propostos. A fim de preencher tais lacunas, o objetivo principal deste trabalho é propor um método de treinamento de política out-of-the-box para controle de parâmetros de algoritmos evolucionários e baseados em enxames mono-objetivos utilizando aprendizagem por reforço distribuída. A fim de avaliar sua generalidade, o método proposto foi testado em um benchmark experimental abrangente com 133 cenários com 5 metaheurísticas diferentes, resolvendo vários problemas de otimização contínua, binários e de otimização combinatória. A escalabilidade da arquitetura proposta também foi avaliada. Além disso, foi realizada uma análise dos hiperparâmetros do método proposto. Os resultados experimentais mostraram que as três lacunas acima mencionadas foram satisfatoriamente preenchidas pelo método proposto, além de alguns outros avanços secundários na área. | pt_BR |
dc.contributor.advisor-coLattes | http://lattes.cnpq.br/5175924818753829 | pt_BR |
Aparece en las colecciones: | Teses de Doutorado - Ciência da Computação |
Ficheros en este ítem:
Fichero | Descripción | Tamaño | Formato | |
---|---|---|---|---|
TESE Marcelo Gomes Pereira de Lacerda.pdf | 5,44 MB | Adobe PDF | ![]() Visualizar/Abrir |
Este ítem está protegido por copyright original |
Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons