Racismo estrutural e dos algoritmos: Como reverter - WHOW

Whow

Racismo estrutural e dos algoritmos: Como reverter

Confira essa realidade dos aplicativos que utilizamos e saiba como fazer sua parte para acabar com isso

POR Redação Whow! | 12/05/2021 16h04

Os nossos smartphones trazem inúmeras soluções para o nosso cotidiano, entretanto, essa tecnologia também pode trazer alguns problemas. Um dos mais sérios são as métricas que eles utilizam, podendo gerar algoritmos racistas, por exemplo.

Nesse texto, você irá descobrir que os algoritmos coletados nas nossas redes sociais ou nos aplicativos, podem estar sendo utilizados para reproduzir o pior do racismo.

Continue a leitura até o fim e saiba como isso acontece.

 Algoritmos racistas tem origem no racismo estrutural

De acordo com, Cathy O’Neil  algoritmos são opiniões embutidas em códigos. A sua explicação pode ser encontrada no livro intitulado de  “Weapons of math destruction”

Os modelos que definem como as redes sociais funcionam, reproduzem as ideologias, os comportamentos e por que não os preconceitos dos seus criadores?

Afinal, faz sentido que seja assim. Se o racismo é estrutural, e está presente em toda sociedade e suas instituições, por que não estaria presente nas redes sociais também?

As ações de racismo nas redes, além de serem tristes, estão demonstrando o viés errado dessas ferramentas. Acontece que agora, o racismo embutido nesses aplicativos, está tornando evidente a necessidade de discutir essa pauta.

Assim como o racismo estrutural presente na sociedade, é muito difícil mensurar os males causados pelo racismo nos algoritmos. Já que por serem problemas inseridos na sociedade, podem não serem reconhecidos tão diretamente.

Exemplos de racismo nos algoritmos

Um grande exemplo é o Twitter, rede social para textos curtos, mas que também pode ter outras funções

Ao postar uma foto, por exemplo, o aplicativo utiliza os seus algoritmos para reconhecer rostos. No entanto, apesar da programação realizar o diagnóstico para os mais variados tipos de rostos, ela prioriza os brancos.

Esse algoritmo racista foi descoberto por usuários, que fizeram um teste postando numa mesma foto a imagem de um homem branco e de um homem negro. E no recorte que aparece na miniatura da postagem, sempre prioriza o rosto branco.

O Twitter reconheceu a validade da reclamação. A empresa lançou uma nota de imprensa informando que iria mobilizar sua equipe para rever essa prática.

Esses casos acontecem pelo fato de que essas tecnologias “aprendem” aquilo que os seus criadores ensinam. Dessa forma, podem estar cheias de preconceitos ou formas de ver o mundo.

Em 2019, um estudo realizado pela Universidade da Carolina do Sul também demonstrou que a rede social Facebook, também teve denúncias de algoritmos racistas. Os pesquisadores compraram anúncios na plataforma e não definiram a que público os anúncios seriam destinados.

Foram dois anúncios publicados na pesquisa. Um sobre oportunidades de emprego, em cargos de alta hierarquia profissional. O público atingido foi de 72% de pessoas brancas e 90% de homens.

Já o segundo anúncio, tinha como conteúdo vagas, como caixa de supermercado, por exemplo. Nesse caso, o Facebook escolheu entregar a mensagem para um público composto por 75% negros e 85% mulheres.

A empresa também publicou uma nota, afirmando que iria rever suas métricas. Além dessas duas redes sociais, há muitos outros exemplos de algoritmos racistas. Aplicativos como o TikTok também já foram alvo de denúncias.

Ei, Siri, Tô Tomando um enquadro

No último mês, foi lançado para a plataforma IOS, um atalho de voz “Ei, Siri, Tô Tomando um enquadro”. A ferramenta tem como intuito auxiliar as vítimas a registrarem uma abordagem policial.

Isso se dá pelo fato de que a polícia brasileira é muito violenta nas suas ações. Dados recolhidos pela agência Aos Fatos, em 2018, mostram que 6.220 pessoas foram mortas pela polícia naquele ano. Um aumento de 19,6% em relação ao ano anterior.

Acima de tudo, é necessário afirmar que dessas mais de 6 mil pessoas, a maioria são homens, negros, entre 15 e 29 anos. Com a grande maioria dos casos nem sendo investigada.

Esse é um desafio que se inicia pela falta de investimento na educação. Que consequentemente gera cada vez mais casos de violência.

Outro fator a ser analisado é a precarização da polícia no Brasil. Ainda mais com o pouco treinamento e apoio psicológico que esses profissionais têm.

Dessa forma, aqueles que tinham como dever nos proteger e fazer a nossa segurança, acabam recebendo treinamento para agir contra a própria população.

Bruno Dombidau, levou essas questões em conta para criar a ferramenta: “ei, Siri, tô tomando um enquadro”. Dessa forma, o recurso tem como intuito defender a população da falta de segurança que estão submetidos.

O aplicativo funciona da seguinte forma: quando a vítima da abordagem policial diz a frase perto do seu smartphone, a inteligência artificial do celular age automaticamente.

Dessa forma, irá reduzir o volume até o zero, ativar o modo “não perturbe”, diminuir o brilho da tela e irá compartilhar a localização com um contato seguro.

Para o criador, o atalho protege as pessoas de abordagens violentas e chama a atenção das autoridades sobre esse grave problema estrutural da sociedade.

Caminhos possíveis para barrar os algoritmos racistas

Conforme especialistas em algoritmos, não existe apenas uma resposta para eliminar algoritmos racistas. No entanto, existem possibilidades de caminhos a seguir.

A primeira seria alterar a hegemonia branca nos cargos de liderança das áreas de tecnologia. Ou seja, investir mais em uma equipe heterogênea e com maior diversidade.

Tornar esses públicos invisíveis nas tomadas de decisões, pode interferir muito no resultado final.  Dessa forma, poderá gerar problemas como os algoritmos racistas.

Outra alternativa é apoiar comitês de ética e investir na transparência de como esses aplicativos funcionam. Portanto, os algoritmos são uma força gigantesca na nossa sociedade atual. Servem desde para melhorar a experiência do usuário, como para moldar pensamentos da sociedade.

Em suma, devemos cobrar dos nossos líderes, métodos de regulamentar essa ferramenta. Para que assim, talvez possamos nos libertar dos seus malefícios.

Quer saber mais sobre assuntos relacionados à inovação e tecnologia? Assine a nossa newsletter! Basta clicar aqui e inserir seus dados ao final da página.