top of page
Product List Website in Purple Pink Yellow Tactile 3D Style (1).png

RACISMO ALGORÍTMICO, INFLUENCERS NEGROS E A INVISIBILIDADE NO UNIVERSO DIGITAL 

     Os primeiros estudos sobre a Inteligência artificial surgiram ainda na década de 1940, no entanto, a definição conceitual desta inovação só veio nos anos 1950, na Universidade de Carnegie Mellon. Nos últimos anos, a evolução desta tecnologia ocorreu de modo crescente como uma força transformadora, permeando vários aspectos das nossas vidas, desde os cuidados de saúde às finanças, à educação e a maneira como consumimos conteúdos nas redes sociais. Embora a Inteligência Artificial tenha um potencial imenso para fazer avançar a sociedade, existe uma preocupação crescente com o aparecimento de preconceitos algorítmicos, especialmente no contexto do racismo. A ligação de algoritmos de IA e racismo levanta questões críticas sobre a equidade, a responsabilidade e as consequências dos sistemas de aprendizagem automática.

   Conforme os algoritmos se integram cada vez mais nos processos de tomada de decisão, as preocupações com o seu impacto nas comunidades marginalizadas ganharam relevância. O racismo algoritmo, nesta abordagem, refere-se aos preconceitos imprudentes ou sistêmicos incorporados nos sistemas de IA que perpetuam ou exacerbam as disparidades raciais. 

Home (8).png

    No cenário atual, o mundo em que vivemos está cada vez mais submerso nas tecnologias e dependentes das mesmas para viver. Portanto, medir com precisão a quantidade de indivíduos prejudicados por conta do viés racista do algoritmo ainda não é possível. No entanto, estudos e experimentos comprovam que o racismo algorítmico existe e está presente no universo digital. 

 

     Em outubro de 2020, a criadora do projeto digital Preta Pariu, Sá Ollebar, iniciou um  experimento em suas redes sociais: onde passou a publicar fotografias de mulheres brancas em seu perfil do Instagram e notou que seu alcance (métrica que mede a relevância do seu conteúdo através das visualizações, curtidas, comentários e compartilhamentos) aumentou em 6000%. 


   

image (3).png

MUNDIAIS

Foto: Reprodução/Instagram

     O Pesquisador sênior de Políticas de Tecnologia, Fundação Mozilla, autor do livro Racismo Algorítmico: mídia, inteligência artificial e discriminação nas redes digitais (2022). Conceitua o racismo algorítmico como "Um modo pelo qual as tecnologias digitais podem incorporar dinâmicas de opressão e discriminação. Em um mundo moldado pela supremacia branca de um modo que pode não só aprofundar ou até apresentar novos tipos de discriminação.”

Tarcízio Silva Racismo Algorítmico
00:00 / 02:22

Preconceito de dados

O racismo algorítmico ocorre quando as práticas contemporâneas de big data geram resultados que produzem e propagam disparidades raciais, transferindo poder e controle das pessoas e comunidades negras e pardas. 

MILNER, Yeshimabeit; TRAUB, Amy; Data Capitalism and Algorithmic Racism. 

(Tradução nossa)

 

   No seu âmago, a desigualdade racial presente na nossa sociedade é uma descendência de um passado histórico de opressão por meio da escravidão, que infelizmente, moldou o sistema político, econômico e social deste país. Neste cenário em que a sociedade foi construída, dados e informações armazenados durante todos esses anos são provenientes de todas as bases assimiladas no decorrer das eras. 

 

    A relação entre aprendizagem de máquina e o racismo algorítmico reside no latente enviesamento de dados que são utilizados para treinar modelos de aprendizagem automática e dos próprios algoritmos. Os chamados Machine Learning, aprendem padrões e realizam previsões com base nos dados em que foram treinados. Portanto, se os dados abrangerem informações tendenciosas ou discriminatórias, o algoritmo pode apresentar um comportamento faccioso, conduzindo a resultados discriminatórios. O pesquisador, Tarcízio Silva, em um artigo sobre Dos autômatos e robôs às redes difusas de agência no racismo algorítmico, citou uma pesquisa da revista Science sobre o uso de dados que influenciam o atendimento de cuidados médicos para pacientes negros. Em entrevista, o pesquisador apontou que os dados podem ser o mecanismo que provoca a discriminação algorítmica que acarreta em um série de exclusão no âmbito social. 

 

 

  As novas ferramentas tecnológicas ampliam o processo de extração de coletas de dados dos usuários, classificam e utilizam o algoritmo para ordenar, categorizar e avaliar as pessoas e informações de acordo com o seu “valor”. Desde uma nova recomendação de série e filme, até uma recomendação de conteúdo nas redes sociais. Os algoritmos foram desenvolvidos por programadores ricos, brancos e do sexo masculino, com base em dados e informações que refletem as desigualdades sociais e raciais existente no mundo. 


     As decisões automatizadas baseadas nos algoritmos avaliam os indivíduos a partir de uma norma desproporcionalmente branca, masculina, de classe média ou rica pertencente ao Vale do Silício, nos Estados Unidos, (localizado na Baía de São Francisco, Califórnia, onde abriga a maioria das grandes startups como Google, Apple e Facebook) que é expressa como neutra,  universal e imparcial. No entanto, devido às classificações algorítmicas serem de grande maioria retirada de uma base de dados, as decisões que expandem a perpetuação do racismo são legitimadas e muitas das vezes, não vistas pelos seus desenvolvedores que continuam afirmando a neutralidade dentro dessas tecnologias. Em seu livro, Tarcízio Silva, evidencia que democracia racial e neutralidade na tecnologia são dois conceitos distantes dentro do ambiente digital. 

“Democracia racial e neutralidade na tecnologia são dois conceitos aparentemente distantes, mas se irmanam no propósito de ocultar relações de poder que constroem interpretações de mundo, naturalizam e aprofundam explorações e desigualdades."

(SILVA, Tarcízio; Racismo algorítmico: inteligência artificial e discriminação nas redes digitais, p.15).

Tarcizio Silva Agência difusa
00:00 / 05:00

    Apesar de seus criadores defenderem a neutralidade tecnológica, existem provas de que as tecnologias são moldadas pelo sistema econômico, social e político em que os seus idealizadores estão inseridos. Podemos citar o monopólio intelectual das Big Tech (empresas de tecnologia, como Google ou Facebook), que dominam o pensamento da população quando o assunto é tecnologia. Essas empresas exercem a mediação do mundo digital, elas modelam o comportamento do usuário  por meio da coleta massiva de dados e da criação de um algoritmo capaz de observar o comportamento do consumidor identificando e classificando perfis de acordo com seu desempenho dentro de suas plataformas, com o objetivo de gerar maior valor e capital. 

 

  Sob esta perspectiva, vale salientar que o problema central da criação desse sistema não é o aprendizado de dados, mas a utilização dos dados que são incorporados em  vieses discriminatórios que visam a segregação e marginalização de uma parcela da sociedade. Além do impacto profundo na visibilidade e oportunidades dessa parcela da população. 

Como o racismo algorítmico
se apresenta no universo digital

   Incorporados em nossas vidas em diversas maneiras de atuação, no mundo digital, os algoritmos medeiam múltiplas ferramentas e otimizam inúmeras ações. Sua utilização pode ser aplicada em mecanismos de buscas, reconhecimento facial e mediadores de conteúdo nas redes sociais. Por ser uma ferramenta que utiliza a coleta de dados para otimizar  ações, suas condutas são modificadas inúmeras vezes e acabam fortalecendo o viés racista. 

 

      Em 2018, a professora da Universidade da California  (UCLA) Safiya Noble lançou o livro Algorithms of Oppression: How Search Engines Reinforce Racism, que denuncia a manifestação do racismo nos resultados de busca do Google. No livro, a autora evidenciou os resultados de buscas manipulados pelos algoritmos, que reproduzem e reforçam o racismo e o machismo no ambiente digital, sobretudo no que diz respeito à representação de mulheres negras. Para salientar a sua tese, Noble, expôs exemplos que provam a representação ofensiva a partir de buscas como “black girls”, que resultam em conteúdo pornográfico. 

 

    No Brasil, uma denúncia a respeito da associação de mulheres negras e pornografia no buscador do Google ganhou destaque em 2019. Quando era pesquisado “mulher dando aula”, os resultados eram normais, com professoras dentro de salas de aula. No entanto, ao pesquisar “mulher negra dando aula”, o Google resultava em conteúdo pornográfico.

dando-aula.png

Foto: Reprodução/Internet

   Além disso, o racismo algoritmo também se perpetua no reconhecimento facial. Um experimento feito pelo próprio Twitter, no ano de 2021, após uma polêmica de racismo algorítmico dentro de sua plataforma, evidenciou que seu algoritmo é racista ao cortar pessoas negras das fotos e privilegiar o destaque para pessoas brancas. O viés discriminatório presente no reconhecimento facial, prejudica também outros aspectos da sociedade. Um caso bastante conhecido sobre racismo algoritmo envolvendo reconhecimento facial, envolveu o  ator internacional Michael B. Jordan que teve seu rosto exposto na lista dos mais procurados do Ceará, acusado de participar de uma chacina na região. Atualmente, muitas cidades implementaram o reconhecimento facial para solucionar crimes, o que pode causar  uma disparidade de injustiças dentro do sistema carcerário. Um estudo feito em parceria com a USP, Universidade Cândido Mendes, Universidade Federal do Ceará, Iniciativa Negra e Gabinete de Assessoria Jurídica às organizações populares de Pernambuco, apontou que 90% do presos pela tecnologia do Reconhecimento facial eram negros e 88% homens com idade média de 35 anos.

   Plataformas de inteligência artificial também possuem vieses racistas. A deputada, Renata Souza do (PSOL),  sofreu racismo após utilizar uma ferramenta que cria ilustrações no estilo de desenhos da Disney,  gerados por inteligência artificial. Após escrever detalhadamente que queria uma ilustração de uma mulher negra, de cabelo afro, em uma favela vestindo um blazer, a ferramenta criou uma imagem com a descrição que a deputada pediu. No entanto, a mulher da ilustração segurava uma arma com o fundo da favela atrás. Este ato, reforça que as novas tecnologias estão propagando vieses discriminatórios e reforçando estereótipos já pré-estabelecidos em nossa sociedade, onde uma inteligência artificial, propagou que todo mundo que mora em uma favela é bandido — o que desencadeia uma série de preocupações dentro de uma sociedade preconceituosa e segregatória. 

racismo-algoritmico-960x540_edited.jpg

Reprodução: Instagram /Renata Souza

Reprodução: Instagram /Renata Souza

"Não pode uma mulher negra, cria da favela, estar num espaço que não da violência? O que leva essa “desinteligência artificial” a associar o meu corpo, a minha identidade, com uma arma?"

images (4).jpeg

     Após sua postagem, a deputada Renata Souza, foi alvo de muitos comentários racistas: “Vocês vão perder as IAs desenhadeiras  porque uma macaca (sim, uma macaca), fabricou uma notícia falsa sobre IA que simula traços da Disney”; “Essa macaca, p* arrombada  (isso mesmo, macaca mesmo! Dane-se se você acha isso racismo) Fabricando notícia falsa para, muito provavelmente, dar entrada com uma lei que proíbe o uso de inteligência artificial desenhista para o público. Uma doente mental desgraçada”, esses foram alguns dos comentários recebidos nas redes sociais da deputada. A reação dos usuários das redes sociais, só evidenciam o quanto o racismo estrutural presente na nossa sociedade aliena inúmeras pessoas e que o viés discriminatório das novas tecnologias, auxiliam ainda mais nesse processo. 

 

     Nas redes sociais, por outro lado, o racismo algorítmico se apresenta de outra maneira. Por ser um mediador de conteúdo, o algoritmo é responsável por filtrar os conteúdos para os usuários com base no comportamento dos indivíduos. Porém, esse tipo de performance acaba por prejudicar produtores de conteúdos negros dentros das redes sociais que perdem a visibilidade de seus perfis. Após o experimento realizado no Instagram pela criadora de conteúdo Sá Ollebar, outros influenciadores começaram a testar o algoritmo e comprovaram seu viés racista. 

    Outra denúncia envolvendo o racismo algorítmico presente nas redes sociais, envolve o aplicativo de vídeos curtos mais conhecido como Tik Tok. O influencer digital Ziggi Tyler, que publicou um vídeo em sua rede social, evidenciando a censura de frases como “A vida dos negros é importante”, “apoiando os negros”, “apoiando as vozes negras” e “Vidas negras importam”, citações que apoiam o movimento negro. Tyler, denunciou que ao utilizar algumas das frases citadas anteriormente em sua biografia, o jovem recebia um alerta de “conteúdo impróprio”. O influenciador também sinalizou que quando tentava escrever frases como “Eu sou neo nazi” a plataforma reagia de maneira natural, mas quando escrevia “Eu sou um homem negro”, a rede social mandava um alerta.
 

IMG_0955.jpg

Ziggi Tyler criticou a censura de palavras de apoio ao movimento negro em sua biografia no Tik Tok. Foto: Reprodução/Internet

Outros casos de Racismo Algorítmico

A invisibilidade tem cor

    O racismo, o inimigo ardiloso que se esconde nas sombras da interação humana, desfazendo a fina teia que une a nossa existência compartilhada. É  um veneno infiltrado nas fendas da sociedade, manchando a alma coletiva com marcas amargas do preconceito e discriminação velada. Por meio dele, os indivíduos não são vistos pela essência de seu caráter ou pela relevância de seus estudos e capacidade. Pelo contrário, são notados por suas características físicas, especialmente por aquelas que o identificam como afrodescendentes, julgados e discriminados pelo seu nariz, lábios, cabelo e tom da pele. 

 

    A escritora best-seller do romance Como eu não me apaixonei por você e criadora de conteúdo para as redes sociais há três anos, Mary Dionísio, acredita que existe um racismo velado e que a partir do momento que existem pessoas brancas e homens no geral desenvolvendo este tipo de tecnologia, o algoritmo irá continuar a produzir vieses discriminatórios. 

"Quando a gente fala de Racismo algoritmo, a gente precisa ter aquele background de que o algoritmo é uma ferramenta tecnológica. E quando a gente fala de espaços de produção de tecnologia e ciências, são espaços majoritariamente dominados por pessoas brancas e homens no geral. Então, quando a gente tem essas pessoas produzindo tecnologias e ciência, você não tem como fugir de tendências racistas e muitas vezes misóginas dentro das questões dos algoritmos."

    A autora ainda completou dizendo: “Desde que comecei a produzir conteúdo mostrando o meu rosto, o tipo de visualização que tem é muito diferente, os vídeos engajam muito menos. Por exemplo, eu faço um vídeo meu falando e público no Reels,  e uma outra influencer faz um vídeo falando e publica no reels, a diferença de engajamento é absurda. O algoritmo tende a privilegiar pessoas brancas, quando a gente fala de questões estéticas e você vê isso nos mínimos detalhes.” 

“Os meus vídeos engajam mais quando eu estou de trança do que quando eu estou com meu cabelo natural.” — Mary Dionísio

Em conversa, a jovem ainda destacou que houve um tempo que aguardava para colocar as tranças para gravar inúmeros vídeos com a intenção de deixar todos salvos para ir postando gradativamente. 

 

“Eu já perdi as contas de quantas vezes esperei para colocar trança para gravar vários vídeos para deixar salvo para poder estar postando até o momento em que eu não estiver mais de trança. E, isso gera uma pressão psicológica dentro da cabeça.” 

Mary Dionísio
00:00 / 00:51

     Iniciar a produção de conteúdo para as redes sociais é um processo lento, que demanda muita estratégia e tempo para estabelecer um nicho e ganhar o público. No caso de influencers negros, esse desafio só aumenta, visto que, precisam enfrentar problemas raciais e sociais presentes na nossa sociedade e, além disso, o risco de não obter seu conteúdo entregue pela plataforma por ações tendenciosas dos algorítmicos. 
 

     Além de ganharem pouca visibilidade nas redes, ainda recebem menos se comparados com os influenciadores brancos. Uma pesquisa realizada pela Black Influence em 2020, apontou que 36% dos influencers pretos ganham menos do que influencers brancos com números parecidos de engajamento e de seguidores. Em média, o ganho do influencer preto é 16% menor do que o do influencer branco. Esses números evidenciam que o racismo está tão intrínseco na nossa sociedade que respingou no mundo digital, causando uma disparidade negativa entre os produtores de conteúdo. 

   A estudante de Direito da Universidade Veiga de Almeida, influencer de conteúdo literário e criadora do podcast Entre sumários Cast, Rayane Silva, contou que a falta de visibilidade que o algoritmo proporciona aos seus conteúdos afeta bastante em seu engajamento. 

Reprodução: Instagram /Entre sumários cast

"É nítido que isso afeta porque basicamente eu só sou alcançada pelos meus seguidores e por outras pessoas, quando estou falando sobre racismo. Quando estou reclamando de alguma coisa que aconteceu referente ao racismo é quando eu sou ouvida. Quando eu não estou fazendo isso, simplesmente, ninguém vê os vídeos que eu posto. O  que dá para ver em todos os insights, de todas as redes que o vídeo não chega em lugar nenhum.”

IMG_0956.png

   A escritora e influenciadora digital, Andressa Cardoso, contou que do final do ano passado em diante, seus conteúdos estão sendo menos entregues pela plataforma do Tik Tok “Durante a pandemia, o Tik Tok ainda estava na ascensão e ele entregava mais o seu conteúdo. Agora, do final do ano passado pra cá, eu sinto que ele retém muito o conteúdo que ele quer mostrar. Daí, acaba que pessoas pretas, ele não entrega com tanta facilidade. Ele tem uma resistência muito forte a esses conteúdos. As vezes eu fico muito mal, por que me dedico para fazer um conteúdo para tentar falar sobre livros que tem uma representatividade maior e o Tik Tok fala assim “A gente não vai entregar hoje não, tá”.

 

   Beatriz Augusto, estudante de Letras na Pontifícia Universidade Católica de São Paulo e criadora de conteúdo literário há três anos, acredita que a falta de visibilidade em outros meses além de novembro é injusta e precisa acabar. 

 

​​

“Eu particularmente não quero ser lembrada só no mês da consciência negra, não quero ser chamada para falar sobre racismo nesse mês ou em outro, cara, estou cansada das grandes empresas/eventos/editoras só lembrarem de pessoas racializadas neste período de novembro e depois quando o mês acaba, acaba também a “visibilidade”, porque eles não dão essa atenção aos influencers pretos em outros meses? Porque as pessoas normalmente não indicam livros com representatividade preta em outros meses? Porque é aquela coisa né, eles querem engajamento em uma luta que não é deles, porém, para fazer algo realmente significante para o nosso lado (de pessoas pretas) eles não fazem.” 

20231124_160749.jpg

Reprodução: Instagram /Bookromances

     A jovem ainda complementa: “Dar “atenção” e “visibilidade” para influencers pretos no mês da consciência negra não é uma ação legal, nem era para ser discutido isso. Era para termos espaço e visibilidade sempre, porque somos capazes e fazemos um conteúdo bom” 

Beatriz Nascimento

(@escrevacombea)

"Percebo que, para pessoas pretas, existe uma dificuldade maior para se destacarem e serem vistas no mercado; e muitas vezes são lembradas apenas quando é pra pensar em representatividade preta ou racismo, mas são esquecidas em outros contextos."

Roberta Gurriti

(@thegurriti)

"Se eu for te contar quantas pessoas pretas em um ano desistiram de criar conteúdo nas redes sociais, você se espantaria. E não é nem somente pelo fato de que as marcas, editoras e outros creators só nos chamam para algo em novembro, mas pelo descaso, pelo apagamento e pelo prazer de nos tirar do foco sempre."

      

 

     Diante destes depoimentos, podemos salientar que a base de dados assimilada pelos algoritmos possuem um padrão de conteúdo, onde, o criador preto está enquadrado em um modelo que envolve temáticas em relação ao racismo, no qual, o criador de conteúdo negro só é visto, quando o algoritmo compreende que a temática sobre racismo é uma especialidade do influencer negro. Vale ressaltar, que não estamos dizendo que o influencer negro deva parar de falar sobre o assunto ou que é ruim expor o tema, mas sim, evidenciando que, o critério utilizado pelo algoritmo na hora de levar a visibilidade criou um estereótipo que tende a atitudes segregatórias.

Quais são as consequências  dos 
vieses racistas dos algoritmos

    Por se tratar de um sistema automatizado, alimentado por dados, o algoritmo apresenta um comportamento tendencioso e discriminatório que afeta desproporcionalmente determinados grupos raciais. As consequências do racismo algorítmico podem ser profundas e de grande alcance. Para buscar compreendê-lo, levantamos as seguintes hipóteses e a expomos em um esquema: 

Home (9).png

      Por isso, a abordagem do racismo algorítmico requer uma análise cuidadosa dos dados utilizados para treinar algoritmos, monitorização contínua de preconceitos, transparência nos processos de tomada de decisões algorítmicas e esforços para garantir que a tecnologia é desenvolvida e implementada de maneira democrática e justa. 

 

      Trazendo para o universo dos influenciadores negros, as consequências da invisibilidade no território digital pode atrapalhar sua relevância e prejudicar o ganho de trabalhos e parcerias. Em setembro de 2021, a influenciadora de conteúdo Débora Silva, produziu um vídeo questionando a falta de representatividade no recebimento de livros dentro da comunidade literária do TikTok, conhecida popularmente por BookTok. 

Vídeo: Reprodução/Tik Tok @debook_

 

     Após esse vídeo, inúmeros casos de discriminação envolvendo este nicho ficou conhecido.  No início deste ano, a Editora Intrínseca abriu um programa de parceria, no qual a maioria dos escolhidos eram compostos por pessoas brancas. Após uma criadora de conteúdo publicar um vídeo expondo a sua indignação, a editora repensou o seu programa de parceria e sinalizou que a partir deste ano estaria mais atenta ao assunto e que abriria vagas exclusivamente para influencers literários diversos etnicamente.
 

   O número de influencers literários negros realizando parcerias com editoras e livrarias é desesperadamente baixo, um exemplo vivido é o dos embaixadores do Submarino que conta com todos os seus embaixadores compostos 100% por criadores brancos. Outro caso recente, foi com a empresa Amazon, que realizou um evento literário, no qual, nenhum dos criadores literários convidados eram pretos.

   Diante da falta de visibilidade, muitos influenciadores não brancos estão deixando de possuir oportunidades de crescimento profissional. Cansados com tamanhas diferença, muitos foram a público para expressar sua indignação com os ocorridos. Como é o caso da nossa entrevistada, Beatriz Augusto. 

     Estudante de Pedagogia da Universidade do Estado da Bahia (UNEB) e criadora de conteúdo literário focado em literatura preta  com mais de 30 mil seguidores no Tik Tok, Débora Silva é conhecida por abordar o racismo presente na literatura e dar suas opiniões em determinados acontecimentos envolvendo a temática no Book Tok. A jovem relata que ganhar parcerias e reconhecimento dentro deste nicho é muito difícil, pois, para as grandes marcas reconhecerem você como um criador de conteúdo influente, é necessário alcance e engajamento, no entanto, tudo isso se torna custoso com um algoritmo que inviabiliza o reconhecimento desses produtores de conteúdo:  “Como é que nós, criadores de conteúdo negros teremos visualizações se a plataforma não entrega os nossos vídeos? O algoritmo é racista!” 

  

   A partir daí, a jovem se tornou uma referência dentro da plataforma sobre o assunto. A falta de visibilidade que esses influencers sofrem dentro das redes sociais, causam consequências para a maneira como são vistos e interpretados pelas pessoas e empresas. Para se ter uma ideia, para encontrar um influenciador negro nesses ambiantes é preciso passar um bom tempo passeando pela for you, quando isso não acontece, o usuário precisa procurar e buscar por esse conteúdo, e consequentemente treinar o algorítimo de que o material produzido por  influencers negros é bacana e merece destaque. 

Vídeo: Reprodução/Tik Tok @debook_

     Sob essa perspectiva, podemos salientar que o racismo algorítmico desenvolve uma série de racismos diretos e indiretos, ocasionando uma lavagem cerebral em seus usuários, pois, a partir do momento que sua mediação começa a influenciar pensamentos e atitudes em detrimento de outras, causa uma falsa verdade entre os usuários, criando assim, outros meios de praticar o racismo e segregar uma classe racial. 

  Para além da diminuição de curtidas e engajamento, o enviesamento dessa nova tecnologia desenvolve uma desigualdade social e financeira para os produtores de conteúdos negros e não brancos. A primeira pesquisa realizada sobre esta temática no Brasil, ocorreu em 2020 pelo site Youpix, que retratou em números as disparidades salariais entre influencers brancos e negros. De acordo com a pesquisa, 38% dos entrevistados que se autodeclaram negros responderam que receberam menos para a realização de uma campanha publicitária. 

Home (5).png

  Os dados coletados pela pesquisa da Youpix, mostra a população mais uma dispariedade existente na sociedade decorrente de uma discriminação. No entanto, o viés racista do algoritmo pode causar muito mais estragos e desigualdades. Para a Tainá Turella, mestranda em Ciências da Computação com o tema: Redes Sociais e Racismo Algorítmico, existem diversos impactos que o Racismo Algoritmo pode trazer para a população no geral.

“Olhando algo simples como recomendação de posts em redes sociais, podemos dizer que acaba afetando certos influencers em suas métricas de alcance. Mas quando vamos pra esferas um pouco mais complicadas, por exemplo mercado de trabalho, podemos ver que sistemas de pré-seleção de currículos possuem certos vieses. E em um caso mais extremo, podemos falar até sobre as ferramentas de reconhecimento facial que estão sendo compradas por alguns governos estaduais e que têm gerado falsos matches.” 

   Ariel Thamara, Growth Hacker, graduada em Publicidade pela Universidade Federal de MInas Gerais (UFMG) e pesquisadora sobre Os vieses raciais que existem no algoritmo do Instagram, acredita que a falta de alcance a inexistência de contratos está diretamente conectado ao racismo algorítmico presentes nessas plataformas. 

 

     Ariel ainda acrescenta que as marcas tendem a privilegiar influenciadores que têm mais alcance: “Quando uma marca tende a privilegiar,  as marcas tendem a pegar quem tem mais alcance. Então, influenciadores negros, além de ter toda uma questão "presencial" de uma beleza que ao longo da história não foi tão exaltada pelas marcas, ainda entra no meio digital, no qual o perfil dele  é sabotado por meio desses algoritmos, ele tem muito mais dificuldade de fechar um contrato.” 

 

   Ariel ainda complementou: “Quando você fecha menos contratos e seu perfil tem menos alcance, isso impacta na sua saúde financeira e quando impacta na saúde financeira a gente sabe que impacta em várias outras vertentes.” 

 

    Além do impacto financeiro, existe o dano psicológico para esses influenciadores que precisam lidar com a frustração e se sobrecarregar na produção de conteúdos para alimentar uma plataforma que não valoriza o seu perfil. 

 

     Na sociedade capitalista em que vivemos, o racismo estrutural existente é velado, e intrínseco no âmago da população. Portanto, os impactos podem ocorrer em diversas outras esferas da sociedade. Entre todos, podemos destacar a utilização dos algoritmos para fortalecer a alienação dos usuários. Um exemplo atual e bastante coerente com a realidade do mundo: as guerras. Desde o ano passado, a população se deparou com anúncios de guerras em algumas localidades, e durante todos esses meses a Guerra entre a Rússia e a Ucrânia, Hamas e Israel foram citadas e informadas de modo igual para a população. Em todos os lugares e em todos os meios de comunicação, é praticamente impossível abrir as redes sociais e não ser bombardeado com algum assunto referente a essas guerras. No entanto, em paralelo a esses conflitos, no continente africano, existe uma outra guerra acontecendo. Da qual, não só os meios de comunicação, mas também a internet parece ter esquecido e inviabilizado o destaque e atenção em decorrer dos outros acontecimentos. Visto isto, podemos salientar que o algoritmo também afeta a informação de determinados assuntos causando uma alienação geopolítica e territorial entre os usuários. 

“É tudo muito conectado. Se você é uma pessoa negra, automaticamente suas publicações não alcançam tantas pessoas como a de uma influencer branca, por causa do algoritmo, a pele mais clara vai alcançar mais perfis do que a pele mais escura. As marcas, querem o que quando contratam um influencer? Alcance. Então, ela vai pegar o perfil que alcançar mais.” 

20231124_160139.jpg

Reprodução: Instagram /Ariel Thamara

Os desafios para solucionar o problema 

    Encontrar uma fórmula para solucionar o problema não será possível, nenhum especialista ou pesquisador sobre o tema foi capaz de dizer uma fórmula secreta para erradicar o enviesamento dos algoritmos. No entanto, existem meios coerentes e acessíveis para começar a pensar em uma solução para o problema. 

 

  Um dos primeiros passos é tornar essa discriminação mais conhecida para a população. Realizamos uma pesquisa com os usuários das redes sociais via Google Forms e cerca de 66,6% dos entrevistados não sabem o que é Racismo algoritmo, 33,3% afirmam não seguir nenhum produtor de conteúdo negro e 47,6% afirmam não procurar por esses criadores.

Home (7).png

       Portanto, podemos dizer que, levar informação para a sociedade é um ato primordial para que a população fique conscientizada de que este tipo de discriminação existe e causa inúmeros impactos no ambiente digital e real. Além disso, a criação e implementação de leis adequadas que enquadrem este tipo de discriminação como criminosa também é uma medida para que tais vieses venham se erradicar.  Atualmente, no Brasil é discutido sobre o Projeto de Lei (PL 21/2020), sobre a regulamentação das big techs no uso de algorítmico de IA (Inteligência artificial), e entre um dos trechos  está a não discriminação por vieses fenótipos e raciais de preconceitos como xenofobia (Brasil, 2021). Além disso, em 2021, a ONU (Organização das Nações Unidas) alertou a população sobre como os algoritmos poderiam produzir vieses preconceituosos e repercutir a violência entre grupos historicamente discriminados. 

      Para a pesquisadora Tainá Turella, o primeiro passo é admitir que o problema existe e buscar compreender como as tecnologias podem chegar próximo da neutralidade: “Acredito que o primeiro passo é admitir que existe um problema e entendermos de forma mais ampla na sociedade que tecnologias até podem se aproximar de uma neutralidade, mas que no fundo elas nunca serão. Acredito ser necessário deixar certos processos de escolha mais transparentes e auditáveis e acredito que deve existir uma certa regulamentação que resguarde as pessoas que farão uso daquela tecnologia.” 

“Não há democratização enquanto tiver vieses raciais” — Ariel Thamara 

 

        Para que exista a democratização na tecnologia, é preciso que o sistema se modifique de dentro para fora. Tanto nas atualizações dos dados coletados através das décadas quanto na reformulação do mercado digital e das pessoas que trabalham nele. 

Reprodução: Instagram /Tainá Turella

“As empresas de tecnologia devem ter um olhar um pouco mais social, não só em suas contratações, mas na própria ideação dos produtos. Deveriam fazer análises constantes para tentar entender se seus produtos não estão sendo influenciados de forma muito negativa pelos estigmas sociais.” 

20231124_160435.jpg

         A partir do momento que as grandes empresas de tecnologia constroem uma cultura organizacional mais social e transparente, trazendo mais diversidade para sua corporação, o risco de determinados enviesamentos tendenciosos em suas tecnologias pode diminuir consideravelmente. Portanto, ações afirmativas devem ser tomadas e pensadas no coletivo para que todos possam participar do bate-papo sobre o enviesamento dos algoritmos e buscar criar uma solução eficaz. 

A seguir, confira o videojornalismo que acompanha esta reportagem:

bottom of page