| Name: | Description: | Size: | Format: | |
|---|---|---|---|---|
| 1.9 MB | Adobe PDF |
Authors
Advisor(s)
Abstract(s)
The increase in the application of algorithmic decision-making has given rise to concerns about the fairness of machine-made decisions. Specifically in areas that heavily impact individuals like healthcare, recidivism, or finance, a thorough understanding of how decisions have been made is crucial from a regulatory and moral standpoint. However, improving algorithms in terms of their predictive performance often comes at the cost of increased complexity and thereby reduced understandability. This is especially true for algorithms without a direct interpretation method like neural networks, so-called “black box” models. This thesis aimed to examine whether 2022 Home Mortgage Disclosure Act mortgage lending data can be used to train a neural network to predict whether a mortgage will be granted based on demographic data, specifically focusing on geography and sensitive attributes such as applicant race. Both fairness and explainability requirements were incorporated into the process, all with the aim of keeping the model’s predictive performance high. Iteratively adapting the initial neural network with different fairness-focused algorithms as well as trying to uncover its inner workings using explainability algorithms showed mixed results. While some results were promising with regards to the scope of this thesis, none of the iterations applied managed to significantly improve fairness and/or predictive performance of the proposed model. This is most likely the effect of underlying discriminatory factors underlying in the data, that cannot directly be mitigated by controlling for the race of mortgage applicants, leaving an important focus for future research.
O aumento na aplicação de tomada de decisão algorítmica tem gerado preocupações sobre a justiça das decisões automatizadas. Em áreas com impacto significativo sobre os indivíduos, como saúde, reincidência e finanças, é crucial entender minuciosamente os processos de tomada de decisão, tanto do ponto de vista regulatório quanto moral. No entanto, melhorar o desempenho preditivo dos algoritmos muitas vezes aumenta a sua complexidade e reduz a sua compreensibilidade. Isto é particularmente verdadeiro para modelos de “caixa-negra", como as redes neurais, que carecem de interpretabilidade direta. Esta tese examina se os dados de concessão de hipotecas de 2022, que têm como base o Home Mortgage Disclosure Act, podem ser usados para treinar uma rede neural para prever a aprovação de hipotecas com base em dados demográficos, com foco em geografia e atributos sensíveis, como a raça do solicitante. A adaptação iterativa do modelo de redes neurais inicial, utilizando diferentes algoritmos focados na justiça e a aplicação de várias técnicas de explicabilidade, produziu resultados mistos. Embora alguns resultados tenham sido promissores no âmbito desta tese, nenhum melhorou significativamente a justiça ou o desempenho preditivo do modelo proposto. Tal deve-se provavelmente a fatores discriminatórios subjacentes nos dados que não podem ser mitigados apenas controlando a raça dos solicitantes, destacando uma área importante para pesquisas futuras.
O aumento na aplicação de tomada de decisão algorítmica tem gerado preocupações sobre a justiça das decisões automatizadas. Em áreas com impacto significativo sobre os indivíduos, como saúde, reincidência e finanças, é crucial entender minuciosamente os processos de tomada de decisão, tanto do ponto de vista regulatório quanto moral. No entanto, melhorar o desempenho preditivo dos algoritmos muitas vezes aumenta a sua complexidade e reduz a sua compreensibilidade. Isto é particularmente verdadeiro para modelos de “caixa-negra", como as redes neurais, que carecem de interpretabilidade direta. Esta tese examina se os dados de concessão de hipotecas de 2022, que têm como base o Home Mortgage Disclosure Act, podem ser usados para treinar uma rede neural para prever a aprovação de hipotecas com base em dados demográficos, com foco em geografia e atributos sensíveis, como a raça do solicitante. A adaptação iterativa do modelo de redes neurais inicial, utilizando diferentes algoritmos focados na justiça e a aplicação de várias técnicas de explicabilidade, produziu resultados mistos. Embora alguns resultados tenham sido promissores no âmbito desta tese, nenhum melhorou significativamente a justiça ou o desempenho preditivo do modelo proposto. Tal deve-se provavelmente a fatores discriminatórios subjacentes nos dados que não podem ser mitigados apenas controlando a raça dos solicitantes, destacando uma área importante para pesquisas futuras.
Description
Keywords
Interpretability Explainability Fairness in algorithmic decision-making Interpretabilidade Explicabilidade Justiça na tomada de decisões algorítmicas
