Discriminacao Algoritmica No Brasil Uma
Discriminacao Algoritmica No Brasil Uma
NILTON SAINZ1
Pontifícia Universidade Católica do Paraná (PUCPR). Curitiba (PR). Brasil.
EMERSON GABARDO2, I
I Pontifícia Universidade Católica do Paraná (PUCPR). Curitiba (PR). Brasil.
NATÁLIA ONGARATTO3, II
II Fundação Escola do Ministério Público do Estado do Paraná (FEMPAR). Curitiba (PR). Brasil.
RESUMO: Este artigo tem como objetivo analisar a abordagem da pesquisa acadêmica sobre a discriminação
algorítmica no campo do Direito no Brasil, fornecendo uma descrição do estágio atual dessa discussão. Com base
em uma revisão de escopo da literatura jurídica, foram identificadas as áreas de Direitos Humanos e Direito
Administrativo como aquelas que possuem as principais concentrações de estudos sobre o tema. Por outro lado,
subáreas do Direito, como Direito Civil, Direito do Trabalho e Direito Processual Penal, estão em
desenvolvimento. A pesquisa foi realizada por meio de uma busca sistemática em periódicos indexados na Scopus,
Web of Science, SciELO e Google Scholar, além de publicações no Congresso Internacional de Direito e
Inteligência Artificial. A hipótese inicial de que a pesquisa sobre a discriminação algorítmica no Direito no Brasil
estaria em estágio inicial foi confirmada, porém com identificação de forte potencial de crescimento. As conclusões
também apontaram, na área do Direito, uma concentração de estudos em casos discriminatórios semelhantes, bem
como a identificação de objetos de análise e problemáticas similares. A pesquisa e suas conclusões se justificam
considerando-se a importância de abordagens interdisciplinares a fim de ser obtida uma compreensão abrangente
e atualizada do fenômeno da discriminação algorítmica, possibilitando o desenvolvimento de soluções regulatórias
mais eficientes para as novas tecnologias.
PALAVRAS-CHAVE: Discriminação algorítmica; Inteligência artificial; Direitos Humanos; Direito Digital;
Novas tecnologias.
ABSTRACT: This article aims to analyze the approach of academic research on algorithmic discrimination in the
field of Law in Brazil, providing a description of the current stage of this discussion. Based on a scope review of
legal literature, the areas of Human Rights and Administrative Law were identified as having the main
concentrations of studies on the subject. On the other hand, sub-areas of Law such as Civil Law, Labor Law, and
Criminal Procedural Law are under development. The research was conducted through a systematic search in
journals indexed in Scopus, Web of Science, SciELO, and Google Scholar, as well as publications from the
International Congress on Law and Artificial Intelligence. The initial hypothesis that research on algorithmic
discrimination in Law in Brazil is in an early stage was confirmed, but with the identification of strong growth
1
https://orcid.org/0000-0002-3957-2714
2
https://orcid.org/0000-0002-1798-526X
3
https://orcid.org/0009-0004-0902-0064
RDP, Brasília, Vol.21 n. 110, 258-289, abr./jun. 2024, DOI: 10.11117/rdp.v21i110.7295 | ISSN:2236-1766
KEYWORDS: Algorithmic Discrimination; Artificial Intelligence; Human Rights; Digital Law; New
technologies.
INTRODUÇÃO
RDP, Brasília, Vol.21 n. 110, 258-289, abr./jun. 2024, DOI: 10.11117/rdp.v21i110.7295 | ISSN:2236-1766
encadeamento lógico preciso com base nos dados e informações (inputs) fornecidos
(RUSSELL; NORVIG, 2021).
A discriminação negativa (ilegítima), por si mesma, é um fenômeno que ultrapassa o
mundo digital. O racismo estrutural vivenciado na história brasileira é um exemplo eloquente
e que impacta na hermenêutica jurídica (SANTOS, 2021b). A discriminação algorítmica, por
sua vez, pode decorrer tanto do resultado da programação efetuada para o software quanto ser
uma reprodução de preconceitos e discriminações já existentes na sociedade, e que adquirem
um potencial de perpetuação de vieses por meio de diferentes tratamentos de dados
(BAROCAS; SELBST, 2016). Ainda não existe uma classificação consensual do conceito de
discriminação algorítmica. Uma proposição inovadora é de Mendes e Mattiuzzo (2019, p. 14-
15) que apresentam quatro tipos de discriminação que ocorrem a partir da utilização de
algoritmos: I) discriminação por erro estatístico; II) discriminação por generalização; III)
discriminação por uso de informações sensíveis; IV) e, por fim, discriminação limitadora do
exercício de direitos. Embora possuam semelhanças, esses tipos de discriminação algorítmica
se distinguem principalmente pelos elementos causais. Em todos os casos, a discriminação
efetuada é relevante para o Direito, notadamente nos seus aspectos de regulação e controle das
novas tecnologias.
A discriminação por erro estatístico ocorre quando há falhas na coleta de dados ou na
construção do código do algoritmo. Um exemplo disso pode ser um erro amostral na população
presente nos dados, o que resulta na subestimação ou desconsideração de certos grupos sociais.
Além disso, pode haver um desequilíbrio no cálculo estatístico, atribuindo um valor maior a
uma determinada característica. Por outro lado, a discriminação por generalização decorre da
limitação das modelagens estatísticas. Embora não haja falhas no cálculo, esses modelos, que
estão associados ou correlacionados com características específicas, não conseguem considerar
a diversidade individual de uma população, ignorando a "margem de erro". Já a discriminação
por uso de informações sensíveis é baseada na utilização de características intrínsecas a
indivíduos ou grupos historicamente discriminados. Esse tipo de discriminação pode ocorrer
por violações de dados, uma vez que certas informações são protegidas por lei – ou, ao
contrário, pode desconsiderar estas variáveis quando elas são essenciais para a obtenção de um
resultado justo. Por fim, a discriminação limitadora do exercício de direitos é caracterizada pela
forma como os dados são utilizados, ou seja, não é resultado de um erro estatístico ou da
RDP, Brasília, Vol.21 n. 110, 258-289, abr./jun. 2024, DOI: 10.11117/rdp.v21i110.7295 | ISSN:2236-1766
qualidade da informação, mas sim do impacto negativo que o resultado do algoritmo tem sobre
os direitos de um indivíduo.
A Resolução n° 332/2020 do Conselho Nacional de Justiça, em seu art. 7º, destaca o
princípio da não discriminação como fundamental para a implementação de ferramentas de IA
no sistema de justiça brasileiro. Mobilizações recentes, como as da Justiça do Trabalho e do
Ministério Público do Trabalho (MPT), demonstram que a discriminação algorítmica é uma
pauta presente nesses órgãos. Em 2020, o MPT criou o grupo de estudo Diversidade e
Tecnologia, com o objetivo de qualificar seus membros e disseminar informações sobre
discriminação algorítmica e tecnológica. Como resultado desse esforço, o grupo publicou a
coletânea “O uso de dados pessoais e inteligência artificial na relação de trabalho: proteção,
discriminação, violência e assédio digital” (ARAUJO et al., 2022), que inclui capítulos
abordando as múltiplas faces da discriminação algorítmica nas relações de trabalho. O ponto
central dessas reflexões tem sido questionar quem são os beneficiados por tecnologias
discriminatórias e quais grupos são mais vulneráveis e excluídos dos processos de
desenvolvimento e aplicação dessas novas tecnologias nas relações sociais em geral.
Motivado pela relevância da problemática jurídica e social, o objetivo deste artigo é
analisar como a discriminação algorítmica tem sido abordada na pesquisa acadêmica na área do
Direito no Brasil, bem como fornecer uma descrição do estágio atual dessa discussão. Portanto,
busca-se compreender como esse fenômeno tem ganhado importância nos estudos jurídicos
recentes, examinando os objetos de análise, as subáreas de concentração dos estudos, o
mapeamento de casos de discriminação citados, as principais problematizações sobre a
discriminação algorítmica e as possibilidades futuras de avanços nessa temática. A hipótese
deste estudo parte do pressuposto de que o tema está sendo desenvolvido de forma concentrada
em duas áreas principais: Direitos Humanos e Direito Administrativo, recebendo pouca atenção
de áreas subjacentes ao fenômeno da discriminação algorítmica. Isso resulta em uma
concentração de abordagens, casos discriminatórios e problematizações em subáreas
específicas.
Apoiando-se em abordagens contemporâneas de investigações sobre a literatura jurídica
(DANCEANU, 2019; DINOS et al., 2015; HORÁKA; LACKOB; KLOCEKB, 2021), optou-
se pelo método de revisão de escopo para a realização deste estudo, utilizando uma busca
sistemática de literatura. Essa escolha metodológica tem como objetivo reduzir os vieses na
RDP, Brasília, Vol.21 n. 110, 258-289, abr./jun. 2024, DOI: 10.11117/rdp.v21i110.7295 | ISSN:2236-1766
seleção do que é considerado para uma revisão narrativa de literatura e mitigar os efeitos na
interpretação do fenômeno por meio de uma amostragem significativa de publicações sobre a
temática. A coleta dessa literatura foi baseada em periódicos indexados na Scopus, Web of
Science (WoS) e SciELO, além da inclusão de artigos indexados no Google Scholar (GS)
publicados em periódicos de estrato superior no Qualis-Capes e papers publicados no
Congresso Internacional de Direito e Inteligência Artificial (CIDIA).
Dito isto, após a introdução dos conceitos, problemáticas e metodologia de pesquisa,
este artigo está dividido em três seções. A primeira aborda os detalhes metodológicos,
começando com a apresentação dos princípios da revisão de escopo, onde são detalhados os
procedimentos adotados para a análise da literatura, seguindo um protocolo adaptado. Em
seguida, são discutidos os critérios utilizados na busca sistemática. A segunda seção do artigo
é dividida em duas partes: a primeira descreve o panorama da produção acadêmica, destacando
as principais características dessa literatura em conjunto, fornecendo um mapa da temática
discriminação algorítmica na pesquisa jurídica nacional. Já a segunda parte aprofunda a
interpretação sobre os temas que estão em destaque no campo jurídico brasileiro relacionados
ao assunto em questão. Por último, a seção de conclusões apresenta uma síntese da pesquisa
realizada, juntamente com um prognóstico sobre a agenda futura para o aprimoramento dos
estudos e do debate.
RDP, Brasília, Vol.21 n. 110, 258-289, abr./jun. 2024, DOI: 10.11117/rdp.v21i110.7295 | ISSN:2236-1766
RDP, Brasília, Vol.21 n. 110, 258-289, abr./jun. 2024, DOI: 10.11117/rdp.v21i110.7295 | ISSN:2236-1766
Tabela 2 – Strings de busca aplicadas nas bases Scopus, Web of Science e SciELO
Base String de busca Número de
artigos coletados
Scopus ( TITLE-ABS-KEY ( "Law" OR "Legal" OR 16
"Juridical" OR "Judicial" ) AND TITLE-ABS-KEY (
"Artificial Intelligence" OR "Machine Learning" OR
"Deep Learning" OR "Neural Networks" ) AND
TITLE-ABS-KEY ( "Discrimination" OR "Bias" OR
"Racism" OR "Algorithms" OR "Algorithmic Bias"
OR "Algorithmic Discrimination" OR "Algorithmic
Racism" ) ) AND ( LIMIT-TO ( SUBJAREA , "SOCI"
) ) AND ( LIMIT-TO ( DOCTYPE , "ar" ) ) AND (
LIMIT-TO ( PUBSTAGE , "final" ) ) AND ( LIMIT-
TO ( AFFILCOUNTRY , "Brazil" )
SciELO4 3
Obs. Buscas realizadas em 02 de maio de 2023.
Fonte: Elaboração própria.
4
Destaca-se que a Web of Science e a SciELO, que compartilham o mesmo mecanismo de busca. Essa integração
ocorreu a partir do ano de 2014, quando a SciELO foi incorporada à plataforma da WoS.
RDP, Brasília, Vol.21 n. 110, 258-289, abr./jun. 2024, DOI: 10.11117/rdp.v21i110.7295 | ISSN:2236-1766
5
Vale ressaltar que a Scopus não conta com um filtro exclusivo para a área do Direito, sendo essa parte das sociais
aplicadas conforme está descrito na string (SUBJAREA , "SOCI"). Já na WoS e Scielo é possível usar um
limitador específico para o campo do Direito, conforme explicado na busca “Law (Web of Science Categories)”.
6
Os termos incluídos na busca do Google Scholar foram: "Lei" OR "Jurídico" OR "Judicial" OR "Jurídica"
(Tópico) AND "Inteligência Artificial" OR "Aprendizado de Máquina" OR "Aprendizado Profundo" OR "Redes
Neurais" AND "Discriminação" OR "Viés" OR "Racismo" OR "Algoritmos" OR "Viés Algorítmico" OR
"Discriminação Algorítmica" OR "Racismo Algorítmico".
7
O estrato superior da CAPES é composto por periódicos classificados como A1, A2, A3 e A4 no último
quadriênio (2017-2020).
RDP, Brasília, Vol.21 n. 110, 258-289, abr./jun. 2024, DOI: 10.11117/rdp.v21i110.7295 | ISSN:2236-1766
RDP, Brasília, Vol.21 n. 110, 258-289, abr./jun. 2024, DOI: 10.11117/rdp.v21i110.7295 | ISSN:2236-1766
RDP, Brasília, Vol.21 n. 110, 258-289, abr./jun. 2024, DOI: 10.11117/rdp.v21i110.7295 | ISSN:2236-1766
Racial 24
Gênero 8
Xenofóbica 5
Geográfica 5
Econômica 5
Capacitista 2
Sexual 2
Etnocentrista 1
Infantil 1
RDP, Brasília, Vol.21 n. 110, 258-289, abr./jun. 2024, DOI: 10.11117/rdp.v21i110.7295 | ISSN:2236-1766
xenófobos (VINCENT, 2016). Além disso, casos relacionados a vagas de emprego também são
citados, como o algoritmo de recrutamento de candidatos da Amazon, que, devido à
predominância de currículos masculinos, passou a reduzir a pontuação de mulheres, diminuindo
suas chances de contratação (DASTIN, 2018). Também houve relatos de discriminação sexual
contra grupos LGBTQIA+ no controle de conteúdo de plataformas de redes sociais, em que
termos utilizados na comunicação desses grupos foram classificados como tóxicos por
algoritmos de análise automatizada de conteúdo (OLIVEIRA, 2020).
No geral, os casos de discriminação apresentam intersecções significativas. No entanto,
as discriminações econômicas e geográficas estão mais associadas nos exemplos citados. Isso
ocorre porque parte dos casos mencionados nos estudos envolviam características em que a
localização dos indivíduos indicava condições econômicas menos favoráveis. Essa prática,
conhecida como geopricing, ganhou notoriedade no Brasil com o caso da empresa Decolar, que
aplicava diferentes preços de acordo com a localização do consumidor, além de impossibilitar
reservas com base na geolocalização do usuário (VEJA, 2018). Os casos de discriminação
socioeconômica vão além de exemplos materiais e também são mencionados em relação às
condições econômicas e sociais do país, como é o caso do Brasil. Por exemplo, níveis de
desigualdades educacionais podem aprofundar diferenças nos processos de seleção para vagas
de emprego ou até mesmo acesso à universidade, assim como na concessão de créditos e
financiamentos (credit score), que estão associados à localização do consumidor, limitando as
oportunidades daqueles que residem em áreas de baixa renda (FRANÇA NETTO; EHRHARDT
JÚNIOR, 2022; HENRIQUES; SAMPAIO, 2021).
Outros tipos de discriminação, como o capacitismo, foram relatados em menor
quantidade nas publicações, mas destacam os riscos da discriminação algorítmica em relação a
pessoas que sofrem de alguma limitação física ou mental. Por exemplo, há o caso de um jovem
dos EUA que, após ser diagnosticado com transtorno bipolar, enfrentou dificuldades para
encontrar emprego devido a um teste de personalidade desenvolvido pela empresa Kronos, que
incluía perguntas sobre saúde mental (O’NEIL, 2018). Adicionalmente, é importante
mencionar a discriminação cultural e etnocêntrica, que se refere aos padrões ocidentais das
diretrizes de programação adotados por grandes conglomerados empresariais do setor. Esses
padrões estão sujeitos a falhas ao serem aplicados em contextos regionais específicos, com
diversidades sociais, culturais e jurídicas (ADAM; FURNIVAL, 1995).
RDP, Brasília, Vol.21 n. 110, 258-289, abr./jun. 2024, DOI: 10.11117/rdp.v21i110.7295 | ISSN:2236-1766
2023 1
2022 14
2021 14
2020 4
2019 2
1995 1
Entre os anos em que foram publicados os textos analisados pela revisão proposta,
destaca-se o ano de 1995, em total contraste com o padrão da análise que se concentra nos
últimos cinco anos. Especificamente, foi identificado um artigo publicado no periódico
Information & communication technology law. Neste artigo, as autoras Alison Adam e Chloë
Furnival (ADAM; FURNIVAL, 1995), esta última professora do Departamento de Ciência da
Informação da Universidade Federal de São Carlos, analisam o sistema de inteligência artificial
Cyc sob a perspectiva da teoria jurídica feminista. As autoras questionam a reprodução de
estruturas de discriminação e desigualdades existentes por parte desse sistema de IA.
A partir de 2019, é possível observar um crescimento significativo no número de
publicações que abordam o tema da discriminação algorítmica. Nos anos de 2021 e 2022, em
particular, foram analisadas 14 publicações em cada um desses anos. Essa tendência ascendente
indica um aumento de interesse e engajamento dos pesquisadores com essa temática. Um olhar
para as bases de dados utilizadas revelou que incentivos institucionais, como dossiês em
periódicos, promovem um papel importante na promoção e estímulo aos pesquisadores a
explorarem essas temáticas. Por exemplo, a Revista de Direito Público publicou o dossiê
“Inteligência artificial, ética e epistemologia” em 2021 (WIMMER; DONEDA, 2021). Além
RDP, Brasília, Vol.21 n. 110, 258-289, abr./jun. 2024, DOI: 10.11117/rdp.v21i110.7295 | ISSN:2236-1766
Direitos Humanos 9
Teoria do Direito 7
Filosofia do Direito 3
Direito Civil 3
Direito do Consumidor 1
Processo Penal 1
Direito Constitucional 1
Direito do Trabalho 1
RDP, Brasília, Vol.21 n. 110, 258-289, abr./jun. 2024, DOI: 10.11117/rdp.v21i110.7295 | ISSN:2236-1766
RDP, Brasília, Vol.21 n. 110, 258-289, abr./jun. 2024, DOI: 10.11117/rdp.v21i110.7295 | ISSN:2236-1766
Discriminação algorítmica 13
Decisão judicial 6
Regulação algorítmica 5
Responsabilização civil 2
Epistemologia feminista 1
Uso de IA na sociedade 1
Predição penal 1
Ética 1
Direito à explicação 1
Contata-se que 36% dos textos analisados têm como foco a discriminação algorítmica,
o que significa dizer que 64% dos artigos examinados nesta revisão contemplam a
discriminação algorítmica como um objeto correlato em suas discussões. As pesquisas com
foco nas decisões judiciais e na regulamentação de algoritmos de IA receberam maior atenção
nos estudos acadêmicos dentro no recorte analisado.
É possível observar que, de forma geral, os objetos de pesquisa se entrecruzam, mas
podem ser investigados em maior ou menor escala por campos distintos das Ciências Jurídicas,
como é principalmente o caso da discriminação algorítmica e dos Direitos Humanos. Em
contrapartida, identifica-se que objetos de pesquisa como a regulamentação de algoritmos de
IA se concentram no ramo do Direito Administrativo, assim como os estudos sobre decisões
judiciais estão sendo abordados principalmente pela Teoria do Direito.
As análises dos objetos centrais dessas investigações auxiliaram a revelar as principais
problematizações e preocupações abordadas por esses estudos quando mobilizam o conceito de
discriminação algorítmica. Os fatores discriminatórios e o aprofundamento das desigualdades
sociais, juntamente com o enfoque no problema da transparência e regulamentação dos
algoritmos constituem os principais pontos de atenção dos pesquisadores da área em relação à
discriminação algorítmica.
RDP, Brasília, Vol.21 n. 110, 258-289, abr./jun. 2024, DOI: 10.11117/rdp.v21i110.7295 | ISSN:2236-1766
RDP, Brasília, Vol.21 n. 110, 258-289, abr./jun. 2024, DOI: 10.11117/rdp.v21i110.7295 | ISSN:2236-1766
RDP, Brasília, Vol.21 n. 110, 258-289, abr./jun. 2024, DOI: 10.11117/rdp.v21i110.7295 | ISSN:2236-1766
RDP, Brasília, Vol.21 n. 110, 258-289, abr./jun. 2024, DOI: 10.11117/rdp.v21i110.7295 | ISSN:2236-1766
RDP, Brasília, Vol.21 n. 110, 258-289, abr./jun. 2024, DOI: 10.11117/rdp.v21i110.7295 | ISSN:2236-1766
Diante dos potenciais riscos dos avanços tecnológicos em relação aos direitos
fundamentais, especialmente aqueles relacionados aos dados pessoais, diversas organizações
internacionais têm se engajado nas últimas décadas em discussões sobre diretrizes e
regulamentos para a utilização responsável e ética dessas ferramentas, (EUROPEAN UNION,
2016; OECD, 2019) por meio de princípios e recomendações pautadas em uma IA baseada em
valores humanos (BRAVO, 2020). Nesse sentido, o Brasil também adotou medidas para
regulamentar e estabelecer diretrizes que visam mitigar e combater possíveis discriminações e
RDP, Brasília, Vol.21 n. 110, 258-289, abr./jun. 2024, DOI: 10.11117/rdp.v21i110.7295 | ISSN:2236-1766
RDP, Brasília, Vol.21 n. 110, 258-289, abr./jun. 2024, DOI: 10.11117/rdp.v21i110.7295 | ISSN:2236-1766
Existe uma interpretação restritiva e equivocada da LGPD que sugere que o direito à
revisão por parte de uma pessoa natural não está previsto em seu art. 20. Parece mais adequada
ao sistema constitucional brasileiro, todavia, a realização de uma hermenêutica extensiva para
garantir o direito à explicação e os interesses dos titulares de dados pessoais (TONIAZZO;
BARBOSA; RUARO, 2021). No entanto, há também o argumento de que o art. 20 da Lei nº
13.709/2018 reconhece o direito “de solicitar a revisão de uma decisão automatizada por uma
pessoa natural, caso o titular dos dados considere que seus interesses foram afetados” (GOMES;
VAZ; DIAS, 2021, p. 116).8 Nessa perspectiva, o direito à explicação e o princípio da
transparência desempenham um papel fundamental no avanço do debate em direção a uma
inteligência artificial ética e fundamentada nos direitos humanos, como apontam Cardoso e
Pessoa (2022, p. 93).
Para promover uma inteligência artificial ética, a doutrina jurídica brasileira vem
incorporando o conceito de “desenviesamento” humano e algorítmico, com o objetivo de
aplicar o princípio da não-discriminação (RIBEIRO, 2022). Indícios dessa busca pelo combate
aos vieses na utilização da IA podem ser observados na Resolução 332 do CNJ, que estabelece
a criação de condições para eliminar ou minimizar decisões discriminatórias baseadas em
preconceitos, além de exigir a homologação de modelos de IA capazes de “identificar se
preconceitos ou generalizações influenciaram seu desenvolvimento” (CNJ, 2020b). No entanto,
uma crítica relevante feita nessa literatura está relacionada à aparente omissão da
regulamentação do CNJ em relação à origem dos dados que alimentam os algoritmos de IA, os
quais provêm de uma sociedade marcada por preconceitos e desigualdades (CARDOSO;
PESSOA, 2022). Essa questão ressalta a importância de considerar os agentes responsáveis pela
construção dos algoritmos e pela implementação das IAs na sociedade. Não se pode
negligenciar ou abstrair dessa discussão jurídica os interesses por trás dos tratamentos de bancos
de dados e da programação dos algoritmos ao regulamentar esses processos, pois a
responsabilidade desses atores é crucial para garantir uma IA que seja justa e equitativa.
Se o desenviesamento se torna um antídoto importante para combater a discriminação
algorítmica e alcançar decisões éticas, transparentes e imparciais no uso da IA na sociedade
(PUSCHEL; RODRIGUES; VALLE, 2022), o próprio avanço tecnológico passa a desempenhar
8
Vale ressaltar que o trecho da lei que previa a revisão de decisões automatizadas por uma pessoa natural foi
retirado do texto em lei por veto presidencial.
RDP, Brasília, Vol.21 n. 110, 258-289, abr./jun. 2024, DOI: 10.11117/rdp.v21i110.7295 | ISSN:2236-1766
CONSIDERAÇÕES FINAIS
RDP, Brasília, Vol.21 n. 110, 258-289, abr./jun. 2024, DOI: 10.11117/rdp.v21i110.7295 | ISSN:2236-1766
RDP, Brasília, Vol.21 n. 110, 258-289, abr./jun. 2024, DOI: 10.11117/rdp.v21i110.7295 | ISSN:2236-1766
REFERÊNCIAS
RDP, Brasília, Vol.21 n. 110, 258-289, abr./jun. 2024, DOI: 10.11117/rdp.v21i110.7295 | ISSN:2236-1766
RDP, Brasília, Vol.21 n. 110, 258-289, abr./jun. 2024, DOI: 10.11117/rdp.v21i110.7295 | ISSN:2236-1766
digital divide in Brazil and the accessibility as a fundamental right. Revista chilena de
derecho y tecnología, v. 11, 2022.
GOMES, Eduardo Biacchi; VAZ, Andréa Arruda; DIAS, Sandra Mara de Oliveira. Limites
éticos para o uso da inteligência artificial no sistema de justiça brasileiro, de acordo com a
Lei. 13.709 de 2018 (LGPD) e Resoluções 331 e 332 do Conselho Nacional de Justiça.
Revista Internacional Consinter de Direito, v. 2, n. 13, 2021.
GUIMARÃES, Rodrigo Régnier Chemim. A Inteligência Artificial e a disputa por diferentes
caminhos em sua utilização preditiva no processo penal. Revista Brasileira de Direito
Processual Penal, v. 5, n. 3, p. 1555–1588, 2019.
HACHEM, Daniel Wunder. São os direitos sociais “direitos públicos subjetivos”? Mitos
e confusões na teoria dos direitos fundamentais. Revista de Estudos
Constitucionais, Hermenêutica e Teoria do Direito (RECHTD), São Leopoldo, v. 11, n. 3,
p. 404-436, 2019.
HENRIQUES, Isabella Vieira Machado; SAMPAIO, Inês Vitorino. Discriminação
Algorítmica e Inclusão em sistemas de Inteligência Artificial - Uma Reflexão sob a ótica dos
Direitos da Criança no Ambiente Digital. Direito Público, v. 18, n. 100, p. 245–271, 2021.
HIROMI Saito, Vitória; SALGADO, Eneida Desiree. Privacidade e proteção de dados: por uma
compreensão ampla do direito fundamental em face da sua multifuncionalidade. International
Journal of Digital Law, v. 1, p. 117-137, 2020.
HORÁKA, Filip; LACKOB, David; KLOCEKB, Adam. Legal Consciousness: A Systematic
Review of its Conceptualization and Measurement Methods. Anuario de Psicología
Jurídica, n. 31, p. 9–34, 2021.
MARQUES, Fabíola; NETO MARTINEZ, Aldo Augusto. Vieses algorítmicos, direitos
fundamentias e os sindicatos. Revista Jurídica Luso Brasileira, v. 8, n. 6, p. 707–729, 2022.
MEDEIROS, Alexandre Dimitri Moreira de; MOÇÃO, Josias. A questão ética da
responsabilidade civil ao longo do ciclo de vida do sistema de inteligência artificial no
processo seletivo de candidatos. 2021, Belo Horizonte: [s.n.], 2021.
MENDES, Laura Schertel; MATTIUZZO, Marcela. Discriminação Algorítmica: Conceito,
Fundamento Legal e Tipologia. Revista Direito Público, v. 16, n. 90, p. 39–64, 2019.
Disponível em:
<https://www.academia.edu/42741206/Discriminação_Algorítmica_Conceito_Fundamento_L
egal_e_Tipologia>.
MUGNAINI, Rogério; NOYONS, Ed; PACKER, Abel L. Fluxo de citações inter-nacional:
fontes de informação para avaliação de impacto científico no Brasil Rogério. 6o Encontro
Bras. Bibliometr. e Cientometria a ciência em rede. 6° ed. Rio de Janeiro: UFRJ, 2018.
NATIONS, United. International Covenant on Civil and Political Rights. General
Assembly resolution 2200A. [S.l: s.n.]. , 1966
______. Universal Declaration of Human Rights Preamble. United Nations General
Assembly. [S.l: s.n.]. , 1948
RDP, Brasília, Vol.21 n. 110, 258-289, abr./jun. 2024, DOI: 10.11117/rdp.v21i110.7295 | ISSN:2236-1766
O’NEIL, Cathy. Personality Tests Are Failing American Workers, 2018. Disponível em:
<https://www.bloomberg.com/opinion/articles/2018-01-18/personality-tests-are-failing-
american-workers#:~:text=Setting ADA violations aside for,with other types of
assessments.>. Acesso em: 10 jun. 2023.
OECD. Recommendation of the Council on Artificial Intelligence. . [S.l: s.n.]. , 2019
OLIVEIRA, Thiago Dias. Content moderation technologies: Applying human rights standards
to protect freedom of expression. Human Rights Law Review, v. 20, n. 4, p. 607–640, 2020.
PAEZ, Arsenio. Gray literature: An important resource in systematic reviews. Journal of
Evidence-Based Medicine, v. 10, n. 3, p. 233–240, 2017.
PETERS, Micah D. J et al. The Joanna Briggs Institute Reviewers ’ Manual 2015
Methodology for JBI Scoping Reviews. Adelaide: The Joanna Briggs Institute., 2015.
PINCUS, Fred L. From Individual to Structural Discrimination. In: PINCUS, Fred L;
EHRLICH, Howard J (Org.). . Race Ethn. Confl. Contend. Views Prejud. Discrim.
Ethnoviolence. New York: Routledge, 2018.
PURVES, Duncan; DAVIS, Jeremy. Criminal justice algorithms: Being race-neutral
doesn’t mean race-blind, 2022. Disponível em: <https://theconversation.com/criminal-
justice-algorithms-being-race-neutral-doesnt-mean-race-blind-177120>.
PUSCHEL, André Felipe Silva; RODRIGUES, Roberto Tessis; VALLE, Vivian Cristina Lima
López. The ethical dilemma of algorithmic decision in Public Administration. A e C - Revista
de Direito Administrativo e Constitucional, v. 22, n. 90, p. 207–226, 2022.
REQUIÃO, Maurício; COSTA, Diego Carneiro. Discriminação algorítmica : ações
afirmativas como estratégia de combate. Civilistica, v. 11, n. 3, p. 1–24, 2022.
REYNA, Justo; GABARDO, Emerson; SANTOS, Fabio de Sousa. Electronic government,
digital invisibility and fundamental social rights. Sequência (Florianópolis), n. 85, p. 30–50,
2020.
RIBEIRO, Ricardo Silveira. Inteligência artificial, direito e equidade algorítmica:
discriminações sociais em modelos de machine learning para a tomada de decisão. Revista de
Informação Legislativa, v. 59, n. 236, p. 29–53, 2022.
RIOS, Roger Raupp. Proteção de direitos LGBTQIA+ no Direito brasileiro: momentos e
descompassos jurídicos e políticos. Revista de Investigações Constitucionais. v. 9, n. 3, p.
659-680, 2022.
RUSSELL, Stuart J.; NORVIG, Peter. Artificial Intelligence: A Modern Approach. Harlow:
Pearson, 2021.
SANTOS, Fábio de Sousa. Governo eletrônico, burocracia e controle: o uso da inteligência
artificial preditiva na aplicação da Lei 13.655. de 2018. In: ZOCKUN, Maurício; GABARDO,
Emerson (Coords.). O Direito Administrativo do Pós-crise. Curitiba: Íthala, 2021a.
______. Racismo estrutural no Brasil e interpretação dos conceitos jurídicos indeterminados.
In: ANDRADE, Giulia de Rossi; SAIKALI, Lucas Bossoni (Coords.). Eficiência,
RDP, Brasília, Vol.21 n. 110, 258-289, abr./jun. 2024, DOI: 10.11117/rdp.v21i110.7295 | ISSN:2236-1766
RDP, Brasília, Vol.21 n. 110, 258-289, abr./jun. 2024, DOI: 10.11117/rdp.v21i110.7295 | ISSN:2236-1766
RDP, Brasília, Vol.21 n. 110, 258-289, abr./jun. 2024, DOI: 10.11117/rdp.v21i110.7295 | ISSN:2236-1766
RDP, Brasília, Vol.21 n. 110, 258-289, abr./jun. 2024, DOI: 10.11117/rdp.v21i110.7295 | ISSN:2236-1766