A discriminação algoritmica como pressuposto de exclusão social e mitigação dos direitos fundamentais e humanos

Data

Título da Revista

ISSN da Revista

Título de Volume

Editor

Resumo

A proposta deste trabalho consiste em analisar se e como os sistemas de inteligência artificial podem gerar discriminação algorítmica para indivíduos e grupos em estado de vulnerabilidade social, com base em características identitárias como idade, gênero, raça, orientação sexual, religião, opinião política, classe social, entre outros, perpetuando preconceitos existentes na sociedade e vulnerando seus direitos humanos e fundamentais. No contexto da sociedade da informação e de riscos, considera-se a disseminação da informação por meios tecnológicos de comunicação em massa e seus impactos nas relações sociais. E como a informação é considerada uma mercadoria de valor econômico essencial em um mundo globalizado, com reflexos nos âmbitos jurídico, político, cultural e socioeconômico. O Direito, nesse contexto, é essencial para regular o uso e a proteção de dados pessoais e garantir direitos fundamentais e humanos, justiça social e segurança jurídica, como para parametrizar o uso da inteligência artificial e o enfrentamento da discriminação por algoritmos tendenciosos e promover um tratamento igualitário. Reside aí a problemática central da tese, com a hipótese de que o algoritmo é discriminatório, com um recorte sobre a correlação entre a inteligência artificial e o pensamento humano, explorando não apenas a reprodução do pensamento humano, mas também o aprimoramento de suas capacidades intelectuais. Por meio de uma abordagem interdisciplinar, busca-se analisar as características da inteligência artificial e suas práticas globais, incluindo o uso de big data e os desafios relacionados aos algoritmos prejudiciais. Também, uma compreensão da discriminação algorítmica, causada pelo tratamento de dados pessoais com falhas ou tendências perigosas na tomada de decisões, resultando em injustiças para indivíduos ou grupos minoritários. A pesquisa investiga a necessidade de políticas públicas identitárias para combater o viés discriminatório dos algoritmos em relação a pessoas e grupos em estado de vulnerabilidade social, por meio da implementação de sistemas inteligentes seguros, transparentes e responsáveis, adotando medidas corretivas e mecanismos de gestão de riscos. Demonstra-se a importância da incorporação de princípios éticos e de direitos fundamentais em todas as etapas de desenvolvimento dos sistemas de inteligência artificial. Essa abordagem contribui para um controle técnico, jurídico e social abrangente durante a criação desses sistemas. E, mesmo que a pesquisa apresente pluralidade científica, ainda que sob o recorte jurídico, é perceptível a interdisciplinaridade da temática próxima da realidade gerada a partir da inteligência artificial. A pesquisa conclui que a discriminação algorítmica evidencia que a inteligência artificial não é neutra e pode contribuir para o aumento das desigualdades sociais e sua ampliação em escala global. Na execução do trabalho, preponderantemente, foi utilizado o método hipotético-dedutivo. Precedendo a análise de pesquisa bibliográfica e documental, explorando as ferramentas da ciência jurídica com uma tendência interdisciplinar (filosofia, sociologia, psicologia, matemática, estatística, ciências da computação e tecnologia da informação).

Descrição

The aim of this work consists in analyzing whether and how artificial intelligence systems can generate algorithmic discrimination against individuals and groups in a state of social vulnerability, based on identity characteristics such as age, gender, race, sexual orientation, religion, political opinion, social class, among others, perpetuating existing prejudices in society and violating their human and fundamental rights. In the context of the information and risk society, the dissemination of information through mass communication technologies and its impacts on social relations is considered. Besides, information is regarded as an essential economic commodity in a globalized world, with repercussions in the legal, political, cultural and socioeconomic spheres. Law, in this context, is essential to regulate both the usage and protection of personal data and ensure fundamental and human rights, social justice and legal security, as well as to set standards for the use of artificial intelligence and combat discrimination by biased algorithms and promoting equal treatment. Therein lies the central issue of the thesis, with the hypothesis that the algorithm is discriminatory, with a focus on the correlation between artificial intelligence and human thought, exploring not only the reproduction of human thought, but also the enhancement of their intellectual capabilities. Through an interdisciplinary approach, it is sought to analyze the characteristics of artificial intelligence and its global practices, including the use of big data and the challenges related to harmful algorithms. It also seeks an understanding of algorithmic discrimination, caused by the processing of personal data with flaws or dangerous biases in decision-making, resulting in injustices for individuals or minority groups. The research investigates the need for public identity policies to combat the discriminatory bias of algorithms toward people and groups in social vulnerability, through the implementation of safe, transparent and accountable intelligent systems, adopting corrective measures and risk management mechanisms. The importance of incorporating ethical principles and fundamental rights at all stages of artificial intelligence system development is demonstrated. This approach contributes to comprehensive technical, legal and social control during the creation of these systems. Even though the research presents scientific plurality, albeit from a legal perspective, the interdisciplinary nature of the theme close to the reality generated by artificial intelligence is noticeable. The research concludes that algorithmic discrimination shows that artificial intelligence is not neutral and can contribute to the increase in social inequalities and their expansion on a global scale. In carrying out the work, the hypothetical-deductive method was predominantly used. Preceding the analysis of bibliographic and documentary research, exploring the tools of legal science with an interdisciplinary tendency (philosophy, sociology, psychology, mathematics, statistics, computer science and information technology).

Palavras-chave

Proteção de dados, Direitos fundamentais, Algoritmos, Inteligência artificial

Citação

Avaliação

Revisão

Suplementado Por

Referenciado Por