Por favor, use este identificador para citar o enlazar este ítem:
https://repositorio.ufpe.br/handle/123456789/63945
Comparte esta pagina
Registro completo de metadatos
Campo DC | Valor | Lengua/Idioma |
---|---|---|
dc.contributor.advisor | TEICHRIEB, Veronica | - |
dc.contributor.author | GUEDES, Paulo de Oliveira | - |
dc.date.accessioned | 2025-06-26T13:56:52Z | - |
dc.date.available | 2025-06-26T13:56:52Z | - |
dc.date.issued | 2024-12-20 | - |
dc.identifier.citation | GUEDES, Paulo de Oliveira. PersonalRAC Personalized Few-shot Exercise Counting. 2024. Dissertação (Mestrado em Ciência da Computação) – Universidade Federal de Pernambuco, Recife, 2024. | pt_BR |
dc.identifier.uri | https://repositorio.ufpe.br/handle/123456789/63945 | - |
dc.description.abstract | The task of Repetitive Action Counting (RAC) is an area of increasing research interest, with numerous technologies being developed in the field. However, existing state-of-the-art methods, trained on currently available generic datasets, are not fit for recognizing personal- ized movements. Such capability has the potential to benefit application fields like physiother- apy and fitness by enabling the creation of unique tailored exercises for patients or clients and tracking them with minimal effort. To address this issue, we introduce the Personalized Rep- etition Action Count (PersonalRAC) system, a novel method capable of counting actions in low-data scenarios (i.e., implementing a few-shot learning approach). PersonalRAC integrates Few-shot Learning, Repetitive Action Counting, and Skeleton Action Recognition. Our system operates with minimal training examples on untrimmed videos by autonomously identifying start and end points, facilitating the easy registration of new exercises. To achieve this, we leverage the concept of salient poses, annotating a subset of Fit3D dataset for this capability and proposing a few-shot division of it. The system processes videos of users performing ex- ercises and extracting skeleton information using MediaPipe. The information is processed to make it more reliable for the next stage. The MotionBERT model for action detection analyzes this processed information, and the output passes to a repetition counting module. Experi- mental results demonstrate the system’s effectiveness and robustness in accurately counting repetitions across various exercise types. Our system achieves state-of-the-art performance in the few-shot and few-shot multi-cam settings on the Fit3D dataset, with respectively MAE of 0.33 (44.07% improvement) and an OBO of 0.64, and 0.22 MAE (53.19% improvement) and 0.71 OBO. | pt_BR |
dc.language.iso | eng | pt_BR |
dc.publisher | Universidade Federal de Pernambuco | pt_BR |
dc.rights | openAccess | pt_BR |
dc.rights.uri | https://creativecommons.org/licenses/by-nc-nd/4.0/ | pt_BR |
dc.subject | Aprendizado de Máquina | pt_BR |
dc.subject | Aprendizado Profundo | pt_BR |
dc.subject | Aprendizado com Poucos exemplos | pt_BR |
dc.subject | Telerreabilitação | pt_BR |
dc.title | PersonalRAC Personalized Few-shot Exercise Counting | pt_BR |
dc.type | masterThesis | pt_BR |
dc.contributor.advisor-co | FIGUEIREDO, Lucas Silva | - |
dc.contributor.authorLattes | http://lattes.cnpq.br/4383867107106657 | pt_BR |
dc.publisher.initials | UFPE | pt_BR |
dc.publisher.country | Brasil | pt_BR |
dc.degree.level | mestrado | pt_BR |
dc.contributor.advisorLattes | http://lattes.cnpq.br/3355338790654065 | pt_BR |
dc.publisher.program | Programa de Pos Graduacao em Ciencia da Computacao | pt_BR |
dc.description.abstractx | A tarefa de Contagem de Ações Repetitivas (Repetitive Action Counting - RAC) é uma área de crescente interesse em pesquisas, com diversas tecnologias sendo desenvolvi- das no campo. No entanto, os métodos existentes de ponta, treinados em datasets genéri- cos disponíveis atualmente, não são adequados para reconhecer movimentos personalizados. Essa capacidade tem o potencial de beneficiar áreas de aplicação como fisioterapia e fitness, permitindo a criação de exercícios únicos e personalizados para pacientes ou clientes e seu acompanhamento com mínimo esforço. Para abordar essa questão, introduzimos o sistema Personalized Repetition Action Count (PersonalRAC), um método inovador capaz de contar ações em cenários de dados escassos (ou seja, implementando uma abordagem de aprendizado com poucos exemplos - few-shot learning).O PersonalRAC integra Aprendizado com Poucos Exemplos (Few-shot Learning), Contagem de Ações Repetitivas e Reconhecimento de Ações baseadas em Esqueletos. Nosso sistema opera com um número mínimo de exemplos de treina- mento em vídeos não cortados, identificando autonomamente os pontos de início e fim das ações, o que facilita o registro de novos exercícios de maneira prática. Para alcançar isso, utilizamos o conceito de poses salientes, anotando um subconjunto do dataset Fit3D para essa funcionalidade e propondo uma divisão para few-shot desse conjunto de dados. O sistema processa vídeos de usuários realizando exercícios e extrai informações de esqueletos utilizando o MediaPipe. Essas informações são processadas para torná-las mais confiáveis para a próxima etapa. O modelo MotionBERT, especializado em detecção de ações, analisa as informações processadas, e a saída é encaminhada para um módulo de contagem de repetições. Os resul- tados experimentais demonstram a eficácia e robustez do sistema em contar repetições com precisão em diversos tipos de exercícios. Nosso sistema atinge um desempenho de ponta nos cenários few-shot e few-shot multi-câmera no dataset Fit3D, obtendo respectivamente um MAE de 0,33 (melhoria de 44,07%) e um OBO de 0,64, e um MAE de 0,22 (melhoria de 53,19%) e um OBO de 0,71. | pt_BR |
dc.contributor.advisor-coLattes | http://lattes.cnpq.br/3195170463502606 | pt_BR |
Aparece en las colecciones: | Dissertações de Mestrado - Ciência da Computação |
Ficheros en este ítem:
Fichero | Descripción | Tamaño | Formato | |
---|---|---|---|---|
DISSERTAÇÃO Paulo de Oliveira Guedes.pdf | 23,41 MB | Adobe PDF | ![]() Visualizar/Abrir |
Este arquivo é protegido por direitos autorais |
Este item está licenciada sob uma Licença Creative Commons