Tilt: Existe neutralidade no desenvolvimento de algoritmos?
Safiya Noble: Muita gente acha que os resultados de busca são neutros, que eles são um reflexo do que é mais popular naquela comunidade ou na nossa sociedade. Mas eu comecei a observar as identidades de garotas de cor [nota da edição: ela usou a expressão "girls of color"], ou seja, garotas negras, latinas, asiáticas, e tentar entender por que os resultados para esses termos eram pornográficos ou uma representação sexualmente explícita.
Quando comecei esse trabalho, as pessoas me diziam que os algoritmos por trás de ferramentas de buscas eram apenas matemáticos e a matemática não pode ser racista ou sexista. Bom, passaram-se 10 anos e hoje nós sabemos que os algoritmos e a inteligência artificial podem ser programados de formas terrivelmente racistas, predatórias, degradantes, sexistas e misóginas.
Tilt: O quanto a tecnologia e os algoritmos já prejudicaram as minorias?
SN: É muito perigoso deturpar a representação das pessoas de forma racista, homofóbica, islamofóbica, porque as narrativas que circulam são desumanizadoras. Quando há desumanização dessas pessoas, elas ficam mais suscetíveis a violência e a políticas públicas ruins. Por isso é tão importante entender o papel que essas plataformas ocupam na nossa sociedade.
Mas não devemos pensar apenas em plataformas específicas, porque sabemos que empresas como Google e Facebook estão engajadas em práticas lucrativas em cima de conteúdo degradante e prejudicial a minorias. Sabemos porque isso é pauta todos os dias. Mas esquecemos que elas estão criando legados, consequências de longo prazo, de décadas, séculos de ideias racistas e sexistas contra pessoas vulneráveis no mundo.
Há um efeito cumulativo porque essas ideias são construídas a partir de sistemas muito perigosos. Temos muito trabalho a fazer quando pensamos em como vamos reparar e remediar esses efeitos sobre as pessoas que foram vítimas dessas tecnologias.