Topo

Ricardo Cavallini

Corrigir preconceitos e tendências da IA vira ramo de emprego para humanos

starline/ Freepik
Imagem: starline/ Freepik

08/09/2020 04h00

Receba os novos posts desta coluna no seu e-mail

Email inválido

Um usuário do Reddit disse ter descoberto que um terço da versão escocesa da Wikipedia foi escrita por apenas uma pessoa.

Segundo o levantamento, foram mais de 20 mil artigos e 200 mil edições. Pelo volume, esse usuário dedicou uma parte relevante do seu dia durante anos para completar essa tarefa. Admirável por um lado —pela resiliência, foco e contribuição—, esquisito por outro, ou só eu acho estranho tamanha dedicação?

Mas até aí, nada muito interessante. Porém, a história fica boa mesmo quando descobrimos que esse autor aparentemente não fala nem escreve escocês. Seus artigos são cópias das versões em inglês mudando algumas palavras e as escrevendo imitando foneticamente o sotaque escocês. :D

Algo que parece mais com uma esquete de humor de um filme de baixo orçamento, meu lado cético me faz acreditar ser apenas alguém aproveitando uma abertura da ferramenta para ganhar relevância como membro, ganhando poderes para fazer modificações sérias. De qualquer forma, esse caso tem um gancho interessante com inteligência artificial e viés dos dados.

A GPT-3, por exemplo, com todo o seu avanço, precisa ser alimentada com dados. E uma das fontes para estes dados foi justamente a Wikipedia. Ainda que a Wikipedia não seja confiável pelo teor do conteúdo, seria (ou deveria ser) uma boa fonte de dados de linguagem.

Agora imagine quantos cenários parecidos de dados teoricamente confiáveis estão alimentando sistemas de inteligência artificial pelo mundo todo.

O viés não surge apenas por preconceito. Ainda que esta seja de longe a causa mais grave —por perpetuar ou até agravar o problema—, o viés pode acontecer em qualquer solução de IA, pois inteligência artificial nada mais é do que um modelo de software que é treinado com uma montanha de dados. Esses dados, em sua maioria, refletem o mundo real. E o mundo real, é repleto de viés e preconceito.

Quando não causa nenhum problema, o viés pode até ser cômico. Caso da companhia aérea que estava tão acostumada a receber reclamações que, ao receber um elogio no Twitter, seu robô pediu desculpas pela inconveniência e pediu para a pessoa reportar o problema em um formulário.

Um caso clássico e conhecido pela comunidade de IA é da ferramenta que foi treinada para diferenciar lobos de cachorros da raça husky siberiano. Apesar de bem treinada, os pesquisadores acharam estranho alguns resultados errados. Quando instruíram a ferramenta a mostrar qual parte das imagens estava levando em conta para definir o animal, descobriram que a IA estava usando a neve para fazer a escolha. Fotos com neve ou sem neve tinham uma importância maior na decisão. Um viés que os pesquisadores não haviam imaginado.

Em outra solução, para detectar câncer em radiografias, a tal "inteligência" começou a confundir com a doença uma pequena chapinha de metal colocada na roupa de alguns dos pacientes. Para um ser humano parece óbvio, mas este caso tem relevância pois demonstra um problema não nos dados em si, mas na forma como eles foram coletados. Se quem for usar a ferramenta não entender seu funcionamento, isso pode gerar uma nova onda de viés que não podemos prever.

O risco do viés é tão grande que uma das áreas mais quentes de inteligência artificial tem sido a chamada IA explicável (Explained AI), que nada mais é que um conjunto de técnicas para que humanos entendam os resultados cuspidos pelo algoritmo.

Isso porque a inteligência artificial é tão complexa e usa uma quantidade enorme de dados para achar padrões, que se torna praticamente impossível para um ser humano entender como ela chegou nessas conclusões.

Entender o porquê o IA concluiu algo também será uma ferramenta importante para reguladores e órgãos de defesa do consumidor.

O algoritmo já decide o que você lê na rede. Isso já é bastante sério visto a influência em eleições e outras frentes, mas a partir do momento que ele passa a definir quanto você paga em serviços e se você será preso ou qual seu tratamento médico, a coisa fica ainda mais séria.