Name: | Description: | Size: | Format: | |
---|---|---|---|---|
423.19 KB | Adobe PDF |
Authors
Advisor(s)
Abstract(s)
The rise of ChatGPT, deep fake artificial images, and automated machine learning techniques are proof of the growing demand for usable AI methods. The more sophisticated those applications become, the harder it is to create transparency along the responsibility chain. This master’s thesis looks into the complex world of responsibility attribution in collaborative human-AI decision-making with an emphasis on different types of AI and different decision outcomes within managerial contexts. The findings support a general trend: compared to AI entities, people tend to place more blame on human decision-makers, which is consistent with the fundamental attribution error. Contrary to predictions, the research finds no significant difference in the allocation of blame between explainable AI and black box AI. This challenges the notion that attribution of responsibility is decreased by AI transparency and highlights the complex nature of this phenomenon. The study challenges common thinking by showing that the success of a decision outcome does not significantly impact responsibility attribution, inferring that accountability stays relatively constant in managerial decision-making regardless of the outcome. In conclusion, this thesis emphasizes the crucial role of human decision-makers in managerial settings and promotes continuous investment in human ethical decision-making training. These findings provide an important contribution to the discussion of AI ethics and responsibility in decision-making.
O surgimento do ChatGPT, dos deepfakes e de técnicas de aprendizagem automática são a prova da procura crescente de métodos utilizáveis de IA. Quanto mais sofisticadas essas aplicações se tornam, mais difícil é criar transparência ao longo da cadeia de responsabilidade. Esta tese de mestrado analisa o complexo mundo da atribuição de responsabilidades na tomada de decisões colaborativas entre humanos e IA, com ênfase nos diferentes tipos de IA e nos diferentes resultados das decisões em contextos de gestão. Os resultados apoiam uma tendência geral: em comparação com entidades de IA, as pessoas tendem a atribuir mais culpa aos decisores humanos, o que é consistente com o erro de atribuição fundamental. Contrariamente às previsões, a investigação não encontra diferenças significativas na atribuição de culpa entre a IA explicável e a IA de caixa negra. Isto desafia a noção de que a atribuição de responsabilidades é reduzida pela transparência da IA e realça a natureza complexa deste fenómeno. O estudo desafia o pensamento comum ao mostrar que o sucesso de um resultado de decisão não afecta significativamente a atribuição de responsabilidades, inferindo que a responsabilidade se mantém relativamente constante na tomada de decisões de gestão, independentemente do resultado. Em conclusão, esta tese enfatiza o papel crucial dos decisores humanos em contextos de gestão e promove o investimento contínuo na formação de decisores humanos éticos. Estas conclusões constituem um contributo importante para o debate sobre a ética e a responsabilidade da IA na tomada de decisões.
O surgimento do ChatGPT, dos deepfakes e de técnicas de aprendizagem automática são a prova da procura crescente de métodos utilizáveis de IA. Quanto mais sofisticadas essas aplicações se tornam, mais difícil é criar transparência ao longo da cadeia de responsabilidade. Esta tese de mestrado analisa o complexo mundo da atribuição de responsabilidades na tomada de decisões colaborativas entre humanos e IA, com ênfase nos diferentes tipos de IA e nos diferentes resultados das decisões em contextos de gestão. Os resultados apoiam uma tendência geral: em comparação com entidades de IA, as pessoas tendem a atribuir mais culpa aos decisores humanos, o que é consistente com o erro de atribuição fundamental. Contrariamente às previsões, a investigação não encontra diferenças significativas na atribuição de culpa entre a IA explicável e a IA de caixa negra. Isto desafia a noção de que a atribuição de responsabilidades é reduzida pela transparência da IA e realça a natureza complexa deste fenómeno. O estudo desafia o pensamento comum ao mostrar que o sucesso de um resultado de decisão não afecta significativamente a atribuição de responsabilidades, inferindo que a responsabilidade se mantém relativamente constante na tomada de decisões de gestão, independentemente do resultado. Em conclusão, esta tese enfatiza o papel crucial dos decisores humanos em contextos de gestão e promove o investimento contínuo na formação de decisores humanos éticos. Estas conclusões constituem um contributo importante para o debate sobre a ética e a responsabilidade da IA na tomada de decisões.
Description
Keywords
Human-computer interaction Multi-agent decision-making AI-supported management decisions Transparency Trust Interação homem-computador Tomada de decisões com múltiplos agentes Decisões de gestão apoiadas por IA Transparência Confiança