Skip navigation
Use este identificador para citar ou linkar para este item: https://repositorio.ufpe.br/handle/123456789/51320

Compartilhe esta página

Registro completo de metadados
Campo DCValorIdioma
dc.contributor.advisorMONTEIRO, José Augusto Suruagy-
dc.contributor.authorBARROS, Tiago da Silva-
dc.date.accessioned2023-06-28T14:19:11Z-
dc.date.available2023-06-28T14:19:11Z-
dc.date.issued2023-04-20-
dc.date.submitted2023-05-15-
dc.identifier.citationBARROS, Tiago da Silva. PRISMA: A Packet Routing Simulator for Multi-Agent Reinforcement Learning. 2023. Trabalho de Conclusão de Curso (Engenharia da Computação) – Universidade Federal de Pernambuco, Recife, 2023.pt_BR
dc.identifier.urihttps://repositorio.ufpe.br/handle/123456789/51320-
dc.description.abstractOne challenging problem in networking is the Distributed Packet Routing (DPR), where the nodes have to define a routing interface for an incoming packet. The traditional routing methods present some limitations when there is no complete view about the network topology or about the traffic (e.g. multi domain systems or wireless ad-hoc networks). One good candidate for packet routing is the usage of Multi-Agent Reinforcement Learning (MARL), a distributed approach, where the agents are located at each node and learn a routing policy in a collaborative way. Some works were done in this direction. However, they don’t use a realistic and standard simulation framework. Also, they don’t consider the control signalling messages between the agents. Then, we propose PRISMA [1], a packet level network simulator based on the network library NS3 [2]. PRISMA is capable of integrating with a MARL algorithm. We also integrated to PRISMA the control signalling mechanisms and evaluated the performance and the communication overhead. For our knowledge, this is the first tool designed for solving DPR using MARL, and this is the first work that evaluates the communication overhead caused by control signalling. The results indicate a tradeoff between the performance and the communication overhead, where the agent, which outperforms Shortest Path and approximates to the Oracle Routing, presented an overhead ratio of 150%.pt_BR
dc.format.extent43 p.pt_BR
dc.language.isoengpt_BR
dc.rightsopenAccesspt_BR
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/br/*
dc.subjectSimulação de redespt_BR
dc.subjectMulti-agent reinforcement learningpt_BR
dc.subjectRoteamento distribuído de pacotespt_BR
dc.subjectMensagens de protocolopt_BR
dc.titlePRISMA: a packet routing simulator for multi-agent reinforcement learningpt_BR
dc.typebachelorThesispt_BR
dc.contributor.authorLatteshttp://lattes.cnpq.br/7226761516034693pt_BR
dc.degree.levelGraduacaopt_BR
dc.contributor.advisorLatteshttp://lattes.cnpq.br/2887736963561252pt_BR
dc.description.abstractxUm problema desafiador no estudo de redes é o Roteamento Distribuído de Pacotes (DRP, em Inglês), onde os nós devem definir uma interface de roteamento para os pacotes que chegam. Os métodos de roteamento tradicionais apresentam algumas limitações quando não há uma visão completa sobre a topologia da rede ou sobre o tráfego (ex. Redes Multi-Domínio ou redes ad-hoc sem fio). Um bom candidato para o roteamento de pacotes é o uso de MultiAgent Reinforcement Learning (MARL), uma abordagem distribuída onde os agentes estão localizados em cada nó e aprendem uma política de roteamento de maneira colaborativa. Alguns trabalhos têm sido realizados nessa direção. Entretanto, eles não usam uma plataforma de simulação realista e padronizada. Eles também não consideram mensagens de protocolo entre os agentes. Assim, propomos o PRISMA [1], um simulador de redes a nível de pacotes baseado na biblioteca de redes NS3 [2]. O PRISMA é capaz de integrar com agentes MARL. Também integramos o PRISMA com mecanismos de mensagens de protocolo e avaliamos o desempenho e o overhead na comunicação. Pelo nosso conhecimento, essa é a primeira ferramenta desenhada que objetiva resolver DPR usando MARL e esse é primeiro trabalho a avaliar o overhead de comunicação causados pelas mensagens de protocolo. Os resultados indicam um tradeoff entre o desempenho e o overhead de comunicação, onde o agente o qual performa melhor que o Algoritmo de Melhor Caminho e aproxima do Roteamento Oráculo apresenta uma razão de overhead de 150%.pt_BR
dc.subject.cnpqÁreas::Ciências Exatas e da Terra::Ciência da Computaçãopt_BR
dc.degree.departament::(CIN-DSC) - Departamento de Sistemas da Computação pt_BR
dc.degree.graduation::CIn-Curso de Engenharia da Computaçãopt_BR
dc.degree.grantorUniversidade Federal de Pernambucopt_BR
dc.degree.localRecifept_BR
Aparece nas coleções:(TCC) - Engenharia da Computação

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
TCC Tiago Da Silva Barros.pdf1,5 MBAdobe PDFThumbnail
Visualizar/Abrir


Este arquivo é protegido por direitos autorais



Este item está licenciada sob uma Licença Creative Commons Creative Commons