| Nome: | Descrição: | Tamanho: | Formato: | |
|---|---|---|---|---|
| 1.19 MB | Adobe PDF |
Autores
Orientador(es)
Resumo(s)
With the growing influence of Artificial Intelligence (AI) systems, concerns about their trustworthiness have emerged. Therefore, this dissertation explores the critical issue of trust in AI and introduces certification labels as a method to enhance end users' trustworthiness perceptions of AI. To uncover whether a certification label for trustworthy AI (TAI) has the potential to increase end-users’ trust in and the acceptance of AI systems, two experimental studies were conducted in the scope of this research. Study 1 found that a certification label for TAI can have a positive impact on end-users’ trust in and the acceptance of AI systems. Study 2 identified that transparently communicating the requirements used for the certification on the certification label translates into higher levels of trust in the AI system. Moreover, it was examined that the requirement Transparency was perceived as most important regarding AI trustworthiness. The results from these studies have clear implications for policymakers, developers, and organizations that seek to enhance the trustworthiness of AI, suggesting that certification labels for TAI are an effective method to communicate trustworthiness of AI systems to end-users and thereby to increase the acceptance of their AI-based products and services. Considering the potential competitive advantage of embedding TAI in products and services, the dissertation underscores the relevance of TAI in shaping the future landscape of AI technologies. Further, the findings also complement the knowledge on labels (in general) and the effectiveness of different label designs.
Com a crescente influência da Inteligência Artificial (IA), surgiram preocupações quanto à sua fiabilidade. Por conseguinte, esta dissertação explora a questão crítica da confiança na IA e introduz rótulos de certificação como um método para melhorar as percepções de fiabilidade da IA por parte dos utilizadores finais. Para descobrir se um rótulo de certificação para uma IA fiável (IAF) tem potencial para aumentar a confiança dos utilizadores finais e a aceitação da IA, foram realizados dois estudos experimentais. O estudo 1 concluiu que um rótulo de certificação para uma IAF pode ter um impacto positivo na confiança dos utilizadores finais e na aceitação da IA. O estudo 2 identificou que a comunicação transparente dos requisitos utilizados para a certificação no rótulo de certificação se traduz em níveis mais elevados de confiança na IA. Além disso, verificou-se que o requisito Transparência foi considerado o mais importante no que respeita à fiabilidade da IA. Os resultados destes estudos têm implicações claras para os decisores políticos, os criadores de IA, e as organizações, sugerindo que os rótulos de certificação para as IAF são um método eficaz para comunicar a fiabilidade da IA aos utilizadores finais e, assim, aumentar a aceitação da IA. Tendo em conta a potencial vantagem competitiva da incorporação de IAF em produtos e serviços, a dissertação sublinha a relevância das IAF na definição do futuro panorama da IA. Além disso, os resultados também complementam o conhecimento sobre os rótulos (em geral) e a eficácia das diferentes concepções de rótulos.
Com a crescente influência da Inteligência Artificial (IA), surgiram preocupações quanto à sua fiabilidade. Por conseguinte, esta dissertação explora a questão crítica da confiança na IA e introduz rótulos de certificação como um método para melhorar as percepções de fiabilidade da IA por parte dos utilizadores finais. Para descobrir se um rótulo de certificação para uma IA fiável (IAF) tem potencial para aumentar a confiança dos utilizadores finais e a aceitação da IA, foram realizados dois estudos experimentais. O estudo 1 concluiu que um rótulo de certificação para uma IAF pode ter um impacto positivo na confiança dos utilizadores finais e na aceitação da IA. O estudo 2 identificou que a comunicação transparente dos requisitos utilizados para a certificação no rótulo de certificação se traduz em níveis mais elevados de confiança na IA. Além disso, verificou-se que o requisito Transparência foi considerado o mais importante no que respeita à fiabilidade da IA. Os resultados destes estudos têm implicações claras para os decisores políticos, os criadores de IA, e as organizações, sugerindo que os rótulos de certificação para as IAF são um método eficaz para comunicar a fiabilidade da IA aos utilizadores finais e, assim, aumentar a aceitação da IA. Tendo em conta a potencial vantagem competitiva da incorporação de IAF em produtos e serviços, a dissertação sublinha a relevância das IAF na definição do futuro panorama da IA. Além disso, os resultados também complementam o conhecimento sobre os rótulos (em geral) e a eficácia das diferentes concepções de rótulos.
Descrição
Palavras-chave
Artificial intelligence Trustworthy AI Certification Trust Cognitive and affective trust Requirements for TAI AI acceptance Ethical guidelines AI auditing Labels Inteligência artificial IA fiável Certificação Confiança Confiança cognitiva e afectiva Requisitos para a TAI Aceitação da IA Orientações éticas Auditoria da IA Rótulos
