Use este identificador para citar ou linkar para este item:
https://repositorio.ufpe.br/handle/123456789/51746
Compartilhe esta página
Registro completo de metadados
Campo DC | Valor | Idioma |
---|---|---|
dc.contributor.advisor | QUEIROZ, Ruy José Guerra Barretto de | - |
dc.contributor.author | PADOVAN, Paulo Henrique | - |
dc.date.accessioned | 2023-08-02T21:27:38Z | - |
dc.date.available | 2023-08-02T21:27:38Z | - |
dc.date.issued | 2023-02-08 | - |
dc.identifier.citation | PADOVAN, Paulo Henrique. MAIA: Metamodelo de Accountability para Inteligência Artificial. 2023. Tese (Doutorado em Ciência da Computação) – Universidade Federal de Pernambuco, Recife, 2023. | pt_BR |
dc.identifier.uri | https://repositorio.ufpe.br/handle/123456789/51746 | - |
dc.description.abstract | A inteligência artificial (IA) pode tomar decisões erráticas, causando preconceito, desconfiança, perdas ou danos aos indivíduos. Questões complexas de caráter mo- ral e normativo devem ser dirimidas para estabelecer como determinar accountabi- lity. Até recentemente, entender o funcionamento das “caixas pretas” era extrema- mente difícil; no entanto, o uso de Inteligência Artificial Explicável (XAI) ajuda a acla- rar os problemas complexos que podem incorrer a IA. Neste contexto, esta tese pro- cura analisar, caracterizar e conformar accountability no âmbito da moral e da IA e fornecer um cânone que ajude as várias partes interessadas a lidar com as questões de responsabilidade algorítmica. Para definir accountability, apresentamos, caracte- rizamos e diferenciamos os diversos matizes de responsabilidade no contexto nor- mativo atual, apresentando os dois pressupostos relacionados à accountability mo- ral: exigibilidade e responsividade. Por fim, fornecemos uma análise sobre como a estrutura contábil existente, com o suporte de XAI e dados registrados, pode abordar questões relacionadas à responsabilidade algorítmica da IA. | pt_BR |
dc.description.sponsorship | CAPES | pt_BR |
dc.language.iso | por | pt_BR |
dc.publisher | Universidade Federal de Pernambuco | pt_BR |
dc.rights | openAccess | pt_BR |
dc.rights | Attribution-NonCommercial-NoDerivs 3.0 Brazil | * |
dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/3.0/br/ | * |
dc.subject | Inteligência computacional | pt_BR |
dc.subject | Responsabilidade algorítmica | pt_BR |
dc.subject | IA confiável | pt_BR |
dc.subject | Inteligência Artificial Explicável (IAE) | pt_BR |
dc.subject | Unidade Responsiva Explicável (URE) | pt_BR |
dc.title | MAIA : Metamodelo de Accountability para Inteligência Artificial | pt_BR |
dc.type | doctoralThesis | pt_BR |
dc.contributor.advisor-co | MARTINS, Clarice Marinho | - |
dc.contributor.authorLattes | http://lattes.cnpq.br/9788127954548465 | pt_BR |
dc.publisher.initials | UFPE | pt_BR |
dc.publisher.country | Brasil | pt_BR |
dc.degree.level | doutorado | pt_BR |
dc.contributor.advisorLattes | http://lattes.cnpq.br/1825502153580661 | pt_BR |
dc.publisher.program | Programa de Pos Graduacao em Ciencia da Computacao | pt_BR |
dc.description.abstractx | Artificial intelligence (AI) can lead to erratic behavior causing bias, mistrust, loss, or damage to individuals. Intricate questions of moral and normative nature must be resolved to establish how to determine accountability. Until recently, understanding the inner workings of “black boxes” has been exceedingly difficult; however, the use of Explainable Artificial Intelligence (XAI) would help simplify the complex problems that can occur with AI. In this context, this thesis seeks to analyze, characterize, and conform accountability within the scope of morality and AI and provide a canon that helps the various stakeholders to deal with the urges for algorithmic responsibility. To define accountability, we present, characterize, and differentiate concepts of respon- sibility, liability, and accountability in today's normative context, presenting the two assumptions related to moral accountability: enforceability and answerability. Lastly, it provides an analysis of whether existing accounting framework, with the support of XAI and logged data, can address concerns related to AI algorithmic accountability. | pt_BR |
dc.contributor.advisor-coLattes | http://lattes.cnpq.br/0419071207537280 | pt_BR |
Aparece nas coleções: | Teses de Doutorado - Ciência da Computação |
Arquivos associados a este item:
Arquivo | Descrição | Tamanho | Formato | |
---|---|---|---|---|
TESE Paulo Henrique Padovan.pdf | 2,57 MB | Adobe PDF | ![]() Visualizar/Abrir |
Este arquivo é protegido por direitos autorais |
Este item está licenciada sob uma Licença Creative Commons