Repository logo
 
Publication

The blame game : attribution of responsibility in human, black box and explainable AI in the context of successful and unsuccessful managerial decision-making

datacite.subject.fosCiências Sociais::Economia e Gestãopt_PT
dc.contributor.advisorMendonça, Cristina
dc.contributor.authorSchneider, Annabel
dc.date.accessioned2023-11-27T14:33:41Z
dc.date.available2023-11-27T14:33:41Z
dc.date.issued2023-10-16
dc.date.submitted2023-09-13
dc.description.abstractThe rise of ChatGPT, deep fake artificial images, and automated machine learning techniques are proof of the growing demand for usable AI methods. The more sophisticated those applications become, the harder it is to create transparency along the responsibility chain. This master’s thesis looks into the complex world of responsibility attribution in collaborative human-AI decision-making with an emphasis on different types of AI and different decision outcomes within managerial contexts. The findings support a general trend: compared to AI entities, people tend to place more blame on human decision-makers, which is consistent with the fundamental attribution error. Contrary to predictions, the research finds no significant difference in the allocation of blame between explainable AI and black box AI. This challenges the notion that attribution of responsibility is decreased by AI transparency and highlights the complex nature of this phenomenon. The study challenges common thinking by showing that the success of a decision outcome does not significantly impact responsibility attribution, inferring that accountability stays relatively constant in managerial decision-making regardless of the outcome. In conclusion, this thesis emphasizes the crucial role of human decision-makers in managerial settings and promotes continuous investment in human ethical decision-making training. These findings provide an important contribution to the discussion of AI ethics and responsibility in decision-making.pt_PT
dc.description.abstractO surgimento do ChatGPT, dos deepfakes e de técnicas de aprendizagem automática são a prova da procura crescente de métodos utilizáveis de IA. Quanto mais sofisticadas essas aplicações se tornam, mais difícil é criar transparência ao longo da cadeia de responsabilidade. Esta tese de mestrado analisa o complexo mundo da atribuição de responsabilidades na tomada de decisões colaborativas entre humanos e IA, com ênfase nos diferentes tipos de IA e nos diferentes resultados das decisões em contextos de gestão. Os resultados apoiam uma tendência geral: em comparação com entidades de IA, as pessoas tendem a atribuir mais culpa aos decisores humanos, o que é consistente com o erro de atribuição fundamental. Contrariamente às previsões, a investigação não encontra diferenças significativas na atribuição de culpa entre a IA explicável e a IA de caixa negra. Isto desafia a noção de que a atribuição de responsabilidades é reduzida pela transparência da IA e realça a natureza complexa deste fenómeno. O estudo desafia o pensamento comum ao mostrar que o sucesso de um resultado de decisão não afecta significativamente a atribuição de responsabilidades, inferindo que a responsabilidade se mantém relativamente constante na tomada de decisões de gestão, independentemente do resultado. Em conclusão, esta tese enfatiza o papel crucial dos decisores humanos em contextos de gestão e promove o investimento contínuo na formação de decisores humanos éticos. Estas conclusões constituem um contributo importante para o debate sobre a ética e a responsabilidade da IA na tomada de decisões.pt_PT
dc.identifier.tid203377400pt_PT
dc.identifier.urihttp://hdl.handle.net/10400.14/43200
dc.language.isoengpt_PT
dc.subjectHuman-computer interactionpt_PT
dc.subjectMulti-agent decision-makingpt_PT
dc.subjectAI-supported management decisionspt_PT
dc.subjectTransparencypt_PT
dc.subjectTrustpt_PT
dc.subjectInteração homem-computadorpt_PT
dc.subjectTomada de decisões com múltiplos agentespt_PT
dc.subjectDecisões de gestão apoiadas por IApt_PT
dc.subjectTransparênciapt_PT
dc.subjectConfiançapt_PT
dc.titleThe blame game : attribution of responsibility in human, black box and explainable AI in the context of successful and unsuccessful managerial decision-makingpt_PT
dc.title.alternativeO jogo da culpa : Atribuição de responsabilidade em IA humana, caixa negra e explicável no contexto de decisões de gestão bem e mal sucedidaspt_PT
dc.typemaster thesis
dspace.entity.typePublication
rcaap.rightsopenAccesspt_PT
rcaap.typemasterThesispt_PT
thesis.degree.nameMestrado em Gestão e Administração de Empresaspt_PT

Files

Original bundle
Now showing 1 - 1 of 1
No Thumbnail Available
Name:
203377400.pdf
Size:
423.19 KB
Format:
Adobe Portable Document Format
License bundle
Now showing 1 - 1 of 1
No Thumbnail Available
Name:
license.txt
Size:
3.44 KB
Format:
Item-specific license agreed upon to submission
Description: