Repository logo
 
Loading...
Thumbnail Image
Publication

AI biases and marginalized stakeholders : inquiry into AI implementation practices in dating apps

Use this identifier to reference this record.
Name:Description:Size:Format: 
203941489.pdf755.55 KBAdobe PDF Download

Abstract(s)

This study explores how the use of artificial intelligence (AI) in dating apps can reinforce or mitigate biases against marginalized stakeholders groups, including racial minorities, women, and LGBTQ+ users. While AI improves user engagement and safety, it also risks reinforcing systemic biases, such as racial and gender-based discrimination. Through a qualitative thematic analysis of publicly available data, this research examines AI implementation in popular dating apps like Tinder, Bumble, and Grindr. Findings show that AI-driven algorithms often prioritize engagement over fairness, disproportionately excluding marginalized groups. The study highlights AI9s dual role: it can mitigate harm through features like harassment detection but also perpetuates inequalities when unethically designed. Theoretical contributions include applying stakeholder theory and ethical AI frameworks to digital matchmaking, emphasizing companies' ethical responsibilities to marginalized users. Practical recommendations focus on algorithmic transparency, fairness-aware machine learning, and inclusive AI governance. This research highlights the need for ethical AI practices in dating apps to ensure inclusivity and fairness, contributing to broader discussions on AI ethics and digital discrimination.
Este estudo explora como o uso da inteligência artificial (IA) em aplicativos de namoro nos Estados Unidos pode reforçar ou mitigar vieses contra grupos marginalizados, incluindo minorias raciais, mulheres e pessoas LGBTQ+. Embora a IA possa melhorar o engajamento dos usuários e a segurança, ela também apresenta o risco de perpetuar vieses sistêmicos, como discriminação racial e de gênero. Por meio de uma análise temática qualitativa de dados secundários, esta pesquisa examina a implementação da IA em aplicativos de namoro populares, como Tinder, Bumble e Grindr. Os resultados indicam que os algoritmos de IA frequentemente priorizam o engajamento em detrimento da equidade, resultando na exclusão desproporcional de grupos marginalizados. O estudo destaca o papel duplo da IA: por um lado, pode mitigar danos com ferramentas de detecção de assédio; por outro, pode reforçar desigualdades se projetada sem considerar princípios éticos. As contribuições teóricas incluem a aplicação da teoria dos stakeholders e frameworks de IA ética ao namoro digital, enfatizando a responsabilidade das empresas com usuários vulneráveis. As recomendações focam na transparência algorítmica, modelos de IA justos e governança inclusiva. Este estudo reforça a necessidade de práticas éticas de IA para garantir inclusão e equidade, contribuindo para debates mais amplos sobre ética da IA e discriminação digital.

Description

Keywords

AI bias Algorithmic discrimination Aplicativos de namoro Dating apps Discriminação algorítmica Ethical AI IA ética Marginalized stakeholders Partes interessadas marginalizadas Stakeholder theory Teoria das partes interessadas Vieses da IA

Pedagogical Context

Citation

Research Projects

Organizational Units

Journal Issue