O Twitter tem sido acusado de ter um algoritmo racista. Polêmica envolve o aprendizado de máquina
Uma publicação normal tentando mostrar um possível racismo no Zoom, plataforma de videoconferências, acabou gerando uma grande polêmica para o Twitter.
Tudo começou quando o usuário @colinmadland publicou uma foto mostrando a dificuldade do seu amigo negro em mudar seu fundo virtual. Isso porque o algoritmo do Zoom sempre cortava seu rosto.
Como as fotos tinham dimensões maiores que o visualizável no mobile, o Twitter corta automaticamente a foto. Mas os usuários notaram que a plataforma sempre deixava o rosto branco no destaque, cortando sempre o rosto negro.
A partir disso, diversos usuários começaram a realizar testes buscando compreender a dinâmica do algoritmo do Twitter.
Logo ficou claro que não era uma questão de ordem, como prioridade das fotos em cima, embaixo, esquerda ou direita. Nem questão de notoriedade, já que até mesmo o ex-presidente americano Barack Obama foi ocultado contra o senador Mitch McConnel.
Resposta do Twitter
Após a polêmica, o microblog publicou uma nota em seu perfil. Nela, o Twitter afirma não terem sido acusado nenhum tipo de viés racista enquanto testavam o algoritmo, mas irão rodar mais teste para resolver o problema.
Além disso, a nota afirmava que eles irão abrir o código para que mais pessoas possam analisar o problema.
Usuários continuaram pressionando a rede, pedindo por atualizações constantes do processo e afirmando que esse problema seria resolvido se cada autor da publicação tivesse que cortar manualmente a foto.
Como o aprendizado automático interfere no algoritmo do Twitter
O aprendizado automático, conhecido na língua inglesa como machine learning, é um sistema lógico no qual uma máquina modifica seu comportamento automáticamente.
Simplificando, uma máquina aprende de forma autônoma como resolver problemas. Isso quer dizer que, muitas vezes, não existe interação humana na solução que a máquina encontra para determinado problema.
Por conta disso, o algoritmo do Twitter acabou chegando de forma autônoma na conclusão de que era prioritário mostrar rostos brancos em detrimento de negros.
Muitos criticam o microblog, afirmando que a equipe de machine learning poderia ter alimentado a inteligência artificial da máquina com um banco de dados sem nenhum viés. Ou seja, mostrado para a máquina um número de rostos de diferentes etnias para que ela não priorizasse nenhuma.
Outros dizem que é muito complexo achar um banco de dados grande o suficiente para o aprendizado automático e que também fosse isento de algum viés.
Seja o que for, a polêmica fortaleceu ainda mais a discussão acerca das dificuldades do machine learning. Há duas semanas, o documentário da Netflix chamado The Social Dilemma levantou questionamentos acerca da ausência de controle humano nas decisões tomadas pelos algoritmos das redes sociais.
Seja como for, ainda não se sabe exatamente a razão por trás do bug no algoritmo do Twitter.
Via: Techtudo
Gostou desse conteúdo? Continue acompanhando o blog da Bloomin para mais notícias como essa!