DSpace/Manakin Repository

Análise de transformações metamórficas em conjunto de dados para garantia de fairness em modelos de classificação de informações.

Mostrar registro simples

dc.creator.ID DONATO, R. B. pt_BR
dc.creator.Lattes http://lattes.cnpq.br/0431132751476325 pt_BR
dc.contributor.advisor1 MACHADO, Patrícia Duarte de Lima.
dc.contributor.advisor1ID MACHADO, P. D. L. pt_BR
dc.contributor.advisor1Lattes http://lattes.cnpq.br/2495918356675019 pt_BR
dc.contributor.referee1 MACHADO , Patrícia Duarte de Lima.
dc.contributor.referee2 ALVES , Everton Leandro Galdino.
dc.contributor.referee3 LINO, Natasha Correia Queiroz.
dc.description.resumo O viés de classificação é um problema recorrente em sistemas de aprendizagem, sendo causado também pela presença de preconceitos e injustiças do mundo real inseridas nos dados digitais. O estudo de tal assunto se concentra na área intitulada Fairness, que embora não tenha uma definição unificada pela literatura, representa a garantia de que decisões tomadas por sistemas sejam realizadas de forma imparcial, evitando a presença de preconceitos e discriminações contra minorias de grupos sociais, sejam por gênero, raça, poder aquisitivo, etc. Porém, tais sistemas são muitas vezes intitulados como “não testáveis”, visto que não está claro quais são os resultados corretos para as classificações dos dados e, com isso, surge a discussão do quão os modelos podem generalizar seus resultados. Visando à imparcialidade a partir da generalização dos modelos, surgem as técnicas de Transformações Metamórficas, sendo alterações realizadas nos conjuntos de dados, tanto em suas estruturas como também em seus valores, empregadas no presente trabalho com o propósito de que as classificações dos modelos executados com os dados alterados possam gerar os resultados mais imparciais possíveis independentemente dos grupos sociais presentes nos dados. As Transformações Metamórficas empregadas são idealizadas e executadas em quatro cenários distintos, sejam alterando informações em partes de valores de cada atributo do conjunto de dados utilizado como também a alteração de todas as informações de um único grupo de amostras, como informações de pessoas apenas do sexo masculino ou feminino. É com este contexto que o presente trabalho se desenvolve, através da análise de diferentes aplicações e combinações de transformações metamórficas em dados de amostras que tem o gênero feminino como grupo suscetível ao preconceito por parte dos modelos de classificação, com seus valores postos em evidência através do cálculo de métricas voltadas para as áreas de Fairness, iv v v fazendo a análise seja somente com os valores classificados como também levando em consideração os valores reais, além do cálculo de métricas consolidadas em tarefas de Classificação de informações. Em termos de resultados foi possível alcançar valores que indicam melhorias de até 20% quando utilizando instâncias de modelos treinadas com os dados transformados. Ao analisar as transformações em diferentes modelos de aprendizagem foi possível embasar a discussão sobre se realmente é possível melhorar os índices de Fairness nas classificações, com alguns cenários se mostrando promissores em responder esta questão e também no engrandecimento da literatura sobre o assunto, que até então tem se mostrado escassa. pt_BR
dc.publisher.country Brasil pt_BR
dc.publisher.department Centro de Engenharia Elétrica e Informática - CEEI pt_BR
dc.publisher.program PÓS-GRADUAÇÃO EM CIÊNCIA DA COMPUTAÇÃO pt_BR
dc.publisher.initials UFCG pt_BR
dc.subject.cnpq Ciência da Computação. pt_BR
dc.title Análise de transformações metamórficas em conjunto de dados para garantia de fairness em modelos de classificação de informações. pt_BR
dc.date.issued 2024-02-08
dc.description.abstract Classification bias is a recurring problem in learning systems and is also caused by the presence of real-world prejudices and injustices embedded in digital data. The study of this subject focuses on the area known as Fairness, which, although it does not have a unified definition in the literature, represents the assurance that decisions made by systems are carried out impartially, avoiding the presence of prejudice and discrimination against minorities of social groups, whether by gender, race, purchasing power, etc. However, such systems are often labeled as ‘untestable’, since it is not clear what the correct results for data classifications are, and this raises the discussion about how models can generalize their results. Aiming for impartiality from the generalization of the models, Metamorphic Transformations techniques emerge, with changes made to the datasets, both in their structures and also in their values. These techniques are used in this work with the aim that the classifications of the models executed with the altered data can generate the most impartial results possible, regardless of the social groups present in the data. The Metamorphic Transformations employed are conceptualized and executed in four different scenarios, either by changing information in parts of the values of each attribute of the dataset used or by changing all information from a single group of samples, such as information about people of just one sex, male or female. It is within this context that this work is developed, through the analysis of different applications and combinations of metamorphic transformations in sample data that have the female gender as a group susceptible to prejudice on the part of classification models. Their values are highlighted through the calculation of metrics focused on the areas of Fairness, carrying out the analysis not only with the classified values but also taking into account the real values, in addition to the calculation of consolidated metrics vi vii vii in Information Classification tasks. In terms of results, it was possible to achieve values that indicate improvements of up to 20% when using model instances trained with the transformed data. By analyzing the transformations in different learning models, it was possible to support the discussion on whether it is really possible to improve Fairness indices in classifications, with some scenarios showing promise in answering this question and also in expanding the literature on the subject, which until then has proven to be scarce. pt_BR
dc.identifier.uri http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/36481
dc.date.accessioned 2024-07-05T13:01:44Z
dc.date.available 2024-07-05
dc.date.available 2024-07-05T13:01:44Z
dc.type Dissertação pt_BR
dc.subject Ciência da computação pt_BR
dc.subject Aprendizagem de máquina pt_BR
dc.subject Classificação de informações pt_BR
dc.subject Fairness pt_BR
dc.subject Transformações pt_BR
dc.subject Computer science pt_BR
dc.subject Machine learning pt_BR
dc.subject Information classification pt_BR
dc.subject Transformations pt_BR
dc.rights Acesso Aberto pt_BR
dc.creator DONATO, Rodolfo Bolconte.
dc.publisher Universidade Federal de Campina Grande pt_BR
dc.language por pt_BR
dc.title.alternative Analysis of metamorphic transformations in datasets to ensure fairness in information classification models. pt_BR
dc.identifier.citation DONATO, Rodolfo Bolconte. Análise de transformações metamórficas em conjunto de dados para garantia de fairness em modelos de classificação de informações. 2024. 139 f. Dissertação (Mestrado em Ciência da Computação) – Programa de Pós-Graduação em Ciência da Computação, Centro de Engenharia Elétrica e Informática, Universidade Federal de Campina Grande, Paraíba, Brasil, 2024. pt_BR


Arquivos deste item

Este item aparece na(s) seguinte(s) coleção(s)

Mostrar registro simples

Buscar DSpace


Busca avançada

Navegar

Minha conta