Em outubro de 2020, a rede social Twitter (atualmente chamada X) foi alvo de denúncias de racismo algorítmico quando usuários notaram que a ferramenta de recorte automático de fotos tinha uma inclinação a escolher rostos de pessoas brancas em imagens que também possuíam rostos de pessoas negras. Assim, em uma mesma postagem, o quadro de pré-visualização que aparece no feed dos usuários, responsável por engajar o conteúdo, removeria a pessoa negra. Em julho de 2021, a plataforma reconheceu publicamente a falha na inteligência artificial, que foi descontinuada (SANTANA, 2021). O caso acima narrado não é isolado, sendo que o viés racial identificado no Twitter tem sido identificado em outras redes sociais, hoje, protagonistas na veiculação de conteúdo midiático online (OLIVEIRA, 2023, p. 258). Consequentemente, a distribuição dos recursos midiáticos, alcance de influenciadores negros e acesso de usuários com fenótipo mais escuro se torna desigual e mesmo danosa a essas pessoas. É o que evidenciam também casos como os filtros da plataforma FaceApp, que embranqueciam o rosto dos usuários (SILVA, 2019) e da rede social Tiktok, que instruiu seus moderadores de conteúdo a removerem do algoritmo da seção de vídeos recomendados, aqueles que mostrassem pessoas consideradas “feias” ou “faveladas” (DIAS et al, 2020). Nesse contexto, o objetivo do presente resumo é analisar como o racismo preexistente offline perpassa as mídias digitais, minorando o direito à participação democrática de pessoas negras online. Para tanto, adota-se o método de análise textual-discursiva. Os dados coletados possuem caráter bibliográfico e a vertente teórico-metodológica possui classificação jurídico-dogmática e abordagem dedutiva. A pesquisa se vale ainda do estudo de caso para apresentar episódios que evidenciam a necessidade de criar ferramentas para efetivo enfrentamento do racismo algorítmico. Os motivos pelos quais as plataformas digitais de mídia absorvem vieses raciais são diversos, indo desde falhas na adoção dos critérios utilizados na idealização dos rankings de visibilidade, à inadequação da base de dados utilizada para treinar o algoritmo e aos vieses – conscientes ou não – de seus programadores. Ainda, o enviesamento pode ocorrer em etapa posterior, a partir da absorção do algoritmo do conteúdo racista inserido pelos usuários na plataforma (BEIGUELMAN, 2021) ou mesmo a partir da intervenção humana direta, como no caso da plataforma Tiktok. Diante do exposto, torna-se imprescindível criar ferramentas aptas a não apenas mapear a origem dos resultados discriminatórios, mas também criar condições de igual desfrute por todos os criadores de conteúdo. Com efeito, a auditoria e regulamentação dessas plataformas, como precursoras da distribuição de recurso na sociedade 4.0, deve ultrapassar o mero diagnóstico, mas imputar responsabilidade aquelas empresas que reiteradamente discriminarem usuários negros, bem como impor a adoção de medidas ativas de governança, inclusão, representatividade na base de dados e dos profissionais envolvidos em todas as etapas de idealização e funcionamento dessas plataformas.
Comissão Organizadora
Ulepicc-Brasil
Comitê Científico
Anderson David Gomes dos Santos (UFAL)
Aianne Amado Nunes da Costa (USP/UFS)
Ana Beatriz Lemos da Costa (UnB)
Arthur Coelho Bezerra (IBICT/UFRJ)
Carlos Eduardo Franciscato (UFS)
Carlos Peres de Figueiredo Sobrinho (UFS)
César Ricardo Siqueira Bolaño (UFS)
Chalini Torquato Gonçalves de Barros (UFRJ)
Eloy Santos Vieira (UFS)
Fernando José Reis de Oliveira (UESC)
Florisvaldo Silva Rocha (UFS)
Helena Martins do Rêgo Barreto (UFC/UFS)
Janaine Sibelle Freires Aires (UFRN)
Manoel Dourado Bastos (UEL)
Marcelo Rangel Lima (UFS)
Rafaela Martins de Souza (Universidade de Coimbra)
Renata Barreto Malta (UFS)
Rodrigo Moreno Marques (UFMG)
Rozinaldo Antonio Miani (UEL)
Verlane Aragão Santos (UFS)