Arte de Alvaro Seixas, capa da Amarello Erótica.
#48EróticaLiteratura

Inteligência artificial e preconceito real

Os ruídos começaram quando usuários da nova ferramenta de geração de imagens da Gemini, inteligência artificial da Google, notaram algumas coisas surpreendentes. Ao pedir para o programa gerar imagens históricas, eles receberam resultados que são impossíveis ou improváveis nos contextos solicitados. Papas católicos e cavaleiros medievais representados como mulheres asiáticas, hordas vikings compostas por homens negros. As imagens que mais causaram controvérsias vieram da experiencia de um usuário que pediu que o gerador criasse imagens de “soldados alemães em 1943”. O que Gemini gerou foi um homem negro, uma mulher asiática e uma mulher indígena vestindo o uniforme do exército nazista. Apenas uma imagem gerada foi de um homem branco.

Os ruídos viraram um dilúvio e logo vieram as acusações de que a Google havia passado dos limites, criando uma ferramenta que ignora a autenticidade histórica em prol de uma agenda política e social woke. O termo vem do vernáculo afro-americano e tem suas origens no ativismo racial nos Estados Unidos, que adotou a frase “stay woke” — fique acordado, com os olhos bem abertos ao que está acontecendo — para gerar consciência sobre justiça racial e social. A partir de 2014, após o movimento Black Lives Matter, o termo foi adotado mais amplamente, se tornando hoje bordão de causas socialmente liberais, como o feminismo, o ativismo LGBTQ+, a política de gênero e outras.

O bafafá com a Gemini revela uma verdade desconfortável. No começo da onda da inteligência artificial de código aberto, ou open source AI, com a explosão do ChatGPT e do dall-e, havia ainda uma crença de que o código, uma série numérica de zeros e uns, seria uma ferramenta objetiva. Porém, o que fica cada vez mais evidente é que ele contém as falhas dos humanos que os programam. Criamos um viés nos sistemas de IA que produzem resultados tendenciosos, que refletem e perpetuam os preconceitos humanos, incluindo a desigualdade social histórica e atual. O viés pode ser encontrado nos dados de treinamento inicial, no algoritmo ou nas previsões que o algoritmo produz. Em resumo, não escapamos dos nossos preconceitos e injustiças, apenas ensinamos a IA a repeti-los.

As imagens geradas pela Gemini foram fruto de uma tentativa, quiçá bem-intencionada, de corrigir problemas que haviam observado em suas rivais, que sofreram críticas por falta de inclusão e diversidade, além de racismo. Quando, por exemplo, usuários da OpenAI escreviam um prompt — a descrição da imagem que gostariam de ver — solicitando imagens de profissionais como médicos ou advogados, os resultados eram quase sempre de homens brancos. Em contrapartida, ao colocar o prompt “pouco profissional”, muitas vezes as imagens geradas eram de mulheres ou homens negros com penteados estilo “afro”. Mas, ao tentar evitar essas mesmas falhas, a Gemini, programada para a inclusão e diversidade, criou seus próprios problemas.

Um desses problemas é que, ao reescrever a história através de imagens fantasiosas, acabamos apagando verdades que deveríamos estar confrontando. Ou seja, ao artificialmente introduzir diversidade onde ela não existia, negamos a sua falta e cometemos uma injustiça contra todos os grupos que sofreram (e muitos ainda sofrem) exclusão por cor de pele, gênero, preferência sexual, crença religiosa, e assim por diante. Apagamos deles não apenas uma história de dor e de vitimização, mas também de resiliência, sobrevivência, beleza e superação.

Outro problema é que o debate sobre o preconceito artificial fica tomado por um conflito ideológico — você é ou não é woke? —, e nisso acabamos ofuscando as consequências reais de uma inteligência artificial preconceituosa. A IA, hoje, se encontra em muitos âmbitos de nossas vidas, mas esse é apenas um começo. Logo ela estará presente em praticamente todos os cantos. Existe, portanto, urgência em encontrar uma solução para a inclusão e diversidade nesses sistemas. Digo não a imagens de mulheres como Papa até termos uma mulher como Papa. Não devemos reescrever a história como ela nunca foi. Mas isso não quer dizer que podemos deixar de corrigir preconceitos enraizados nas ferramentas de IA. Não faltam exemplos desse preconceito, desde ferramentas diagnósticas que não conseguem identificar lesões em pele negra porque foram treinadas exclusivamente com imagens de pele branca ou jovens presos equivocadamente porque as tecnologias de reconhecimento facial, treinadas para reconhecer expressões e traços em rostos brancos, têm dificuldades em distinguir traços negros.

Para encontrarmos uma solução viável, teremos que, primeiramente, admitir, e não negar, que as máquinas que programamos carregam nossas falências e nossos preconceitos. E teremos que usar uma inteligência real e humana para reconhecer que ainda temos um longo caminho de tentativa e erro antes de poder esperar que a IA corrija todas as falhas da humanidade.