Topo

OPINIÃO

IA prevendo ideologia? O problema da tecnologia resolvendo problema social

Thinkhubstudio/iStock
Imagem: Thinkhubstudio/iStock

Nina da Hora*

Especial para Tilt

27/06/2023 09h00Atualizada em 27/06/2023 10h20

O avanço da inteligência artificial e das técnicas de deep learning proporciona um grande potencial para diversas áreas, incluindo a análise de imagens. No entanto, quando se trata de prever a ideologia política a partir de fotografias faciais, surge um problema ético.

Nesse artigo, vou tratar desses desafios éticos do uso de deep learning para prever a ideologia política, conforme descrito no artigo "Using deep learning to predict ideology from facial photographs: expressions, beauty, and extra-facial information", publicado na revista Nature em março de 2023.

Primeiramente, é importante definir o que é deep learning, que, em tradução literal, quer dizer "aprendizado profundo".

É uma subárea da inteligência artificial que utiliza redes neurais artificiais profundas para aprender e extrair informações de conjuntos de dados complexos.

É uma abordagem computacional inspirada no funcionamento do cérebro humano, em que os sistemas de deep learning são compostos por múltiplas camadas de neurônios artificiais interconectados, conhecidos como redes neurais profundas.

Para exemplificar:

  • Imagine você aprendendo a reconhecer diferentes tipos de frutas.
  • Você tem um conjunto de imagens de frutas e deseja treinar um sistema para identificá-las corretamente.
  • Uma abordagem tradicional seria olhar para cada imagem e definir manualmente características específicas como formato, cor e textura, que distinguem as frutas umas das outras.
  • No entanto, isso exigiria um conhecimento detalhado sobre cada tipo de fruta e seria um processo demorado.
  • Aqui é onde o deep learning entra em cena: imagine que você tem uma rede de amigos, cada um especialista em diferentes frutas.
  • Você faz uma pergunta para cada amigo: "Como você sabe que essa é uma maçã?" ou "Quais características diferenciam uma laranja de uma banana?".
  • Você reúne as respostas de todos eles e as usa para construir um sistema que possa identificar frutas.
  • Essa rede representa uma rede neural artificial, e cada um dos amigos (neurônio) possui seu próprio conhecimento (pesos sinápticos) sobre as frutas.
  • Durante o treinamento, o sistema analisa um grande número de imagens de frutas e ajusta os pesos sinápticos para otimizar o desempenho na identificação correta das frutas.
  • Ao treinar o sistema com um grande conjunto de dados de frutas, ele aprende a reconhecer as características distintas de cada fruta, sem a necessidade de defini-las manualmente. -
  • Assim como você distingue uma maçã de uma laranja ao vê-las, o sistema de deep learning faz o mesmo ao analisar as imagens das frutas.

Um sistema de deep learning usa redes neurais artificiais para aprender a reconhecer padrões e extrair informações de dados complexos, como imagens, áudio ou texto, sem a necessidade de programação manual de características específicas.

Ao explorar os desafios éticos do uso de deep learning para prever a ideologia política a partir de fotografias faciais, é inevitável pensar em obras de ficção científica que abordam temas semelhantes. Um exemplo notável é "1984", de George Orwell. Na obra, o governo totalitário utiliza tecnologias de vigilância para monitorar cidadãos, incluindo suas crenças políticas.

Embora o livro tenha sido escrito décadas antes do surgimento do deep learning, a ideia de técnicas avançadas para prever a ideologia política das pessoas é uma clara reflexão dos perigos de uma sociedade em que a privacidade é violada e o pensamento divergente é suprimido.

Outra obra relevante é o filme "Minority Report", baseado no conto de Philip K. Dick. Nessa distopia futurista, um sistema chamado "Pré-Crime" prevê crimes antes de acontecerem.

Embora a previsão da ideologia política não seja o foco do enredo, o conceito de prever comportamentos e julgar indivíduos com base em características pessoais se assemelha ao uso de deep learning para prever a ideologia política a partir de fotografias faciais. O filme levanta questões éticas sobre a confiabilidade dessas previsões e o potencial para injustiças e discriminação.

Em um contexto democrático, é fundamental garantir a liberdade de expressão e o direito das pessoas de terem suas próprias crenças políticas sem sofrerem discriminação ou perseguição. Ao utilizar técnicas de deep learning para inferir a ideologia política, há o risco de criar um ambiente em que a dissidência e a diversidade de opiniões sejam reprimidas, minando os princípios fundamentais da democracia.

Além disso, o emprego indiscriminado dessas técnicas pode contribuir para a polarização política e a fragmentação da sociedade. Se as previsões de ideologia política baseadas em aparência facial forem amplamente adotadas, pode-se criar uma cultura em que as pessoas sejam estigmatizadas ou marginalizadas com base em suas crenças políticas. Isso pode levar à exclusão social, ao enfraquecimento do diálogo democrático e à erosão dos princípios de tolerância e respeito mútuo, essenciais para a manutenção de uma sociedade saudável e pluralista.

Não há como saber se a intenção dos autores do artigo tenha sido promover o eugenismo. Mas a aplicação que propõe pode ter implicações semelhantes. Surgida no final do século 19 e início do século 20, o eugenismo defendia a que a composição genética da população humana deveria ser escolhida por técnicas seletivas.

Muitas das práticas eugenistas foram baseadas em noções de superioridade racial, como a classificação de grupos raciais com base em conceitos pseudocientíficos, esterilização forçada de pessoas consideradas "inferiores" racialmente, restrições ao casamento interracial e políticas de imigração.

Essas ideias e práticas eugenistas contribuíram para perpetuar estereótipos, preconceitos e discriminação racial, alimentando uma visão distorcida da diversidade humana. O eugenismo foi usado para justificar políticas e ações racistas que causaram grande sofrimento e injustiça em várias partes do mundo.

O uso de deep learning para prever a ideologia política a partir de fotografias faciais apresenta desafios éticos complexos e importantes que merecem nossa atenção e reflexão. É evidente que a aparência física não é um indicador confiável das crenças políticas de alguém, e o uso dessa abordagem pode levar a resultados discriminatórios, injustos e polarizadores.

É fundamental reconhecer a importância da privacidade e do consentimento individual. A ideologia política é uma escolha pessoal e íntima, e usar deep learning para inferir essas crenças viola o direito das pessoas de manterem suas convicções privadas.

Devemos estar atentos aos riscos do viés racial e da discriminação algorítmica. O treinamento de modelos de deep learning em conjuntos de dados desequilibrados ou enviesados pode resultar em previsões políticas tendenciosas e injustas. É essencial estabelecer políticas regulatórias que protejam os indivíduos contra o uso indevido de suas informações pessoais e garantam a equidade e a justiça na aplicação de técnicas de deep learning.

À medida que avançamos no campo da inteligência artificial, é vital utilizarmos essas tecnologias com consciência ética e responsabilidade social. Devemos buscar abordagens que promovam a inclusão, a diversidade e o respeito pelos direitos humanos, evitando a instrumentalização da tecnologia para fins discriminatórios ou prejudiciais a sociedade.

*Cientista da computação, pesquisadora do Centro de Tecnologia e Sociedade (CTS-FGV), integrante do Conselho de Segurança do TikTok e o Conselho de Desenvolvimento Econômico Social Sustentável. Fundadora do instituto da Hora