Disciplina inédita discute limites morais e responsabilidades humanas diante da tecnologia

Professora Sandra Avila
Uma disciplina de pós-graduação oferecida pela primeira vez no Instituto de Computação (IC) da Unicamp propõe um debate sobre ética e desigualdades sociais, raciais e de gênero presentes na ciência de dados, na programação de máquinas e na inteligência artificial (IA). Feminismo de Dados foi oferecida pela professora do IC Sandra Avila no segundo semestre de 2025 e foi inspirada no livro Data Feminism (The MIT Press, 2020), publicado pelas pesquisadoras estadunidenses Catherine D’Ignazio e Lauren Klein. A primeira turma contou com cerca de 30 alunos.
Ao longo de sua trajetória científica, e após se deparar com a leitura do livro, Avila passou a fazer algumas perguntas fundamentais: por quem e como essas máquinas estão sendo programadas e treinadas, e com quais vieses? “A ciência não é neutra, e os dados também não”, afirma. Um exemplo é o caso emblemático da Amazon, que, durante anos, utilizou um sistema de IA para pré-selecionar currículos de candidatos a vagas de tecnologia. No entanto, ao aprender com dados históricos, o algoritmo passou a favorecer candidatos homens e a penalizar currículos de mulheres, reproduzindo um viés de gênero presente no próprio mercado. Como consequência, a ferramenta foi abandonada em 2017.
“Muitas vezes, as diferenças nos currículos refletem o papel que a mulher ocupa na sociedade. Então, o simples ato de balancear os dados ou ajustar uma métrica não corrige a desigualdade de origem”, explica. Ela lembra ainda que esse tipo de distorção não afeta apenas mulheres, mas também outros grupos historicamente desfavorecidos. “É preciso desafiar as matrizes de dominação, porque elas não incluem populações periféricas e pessoas marginalizadas. Modelos podem ser treinados para funcionar apenas para um determinado grupo, automatizando padrões sociais excludentes.”
Formação de profissionais

Estudos demonstram que desigualdades entre grupos sociais podem se refletir nos modelos de treinamento de IA
Outra razão que levou Avila a propor essa disciplina na Unicamp foi o seu incômodo, durante as suas aulas de aprendizado de máquina, com a forma “muito automática e sem questionamentos éticos” com que seus alunos lidavam com dados e algoritmos. As aulas apresentam questionamentos provocadores: como desafiar as estruturas de poder e a influência das grandes empresas de tecnologia, as chamadas big techs? A cada aula, os alunos também são convidados a refletir não apenas sobre os problemas, mas também sobre como podem agir para transformá-los. “Se temos um problema, precisamos pensar em como contribuir para a mudança”, afirma a docente.
Para Leonardo Rafael Pires, engenheiro de aprendizado de máquina e aluno especial da disciplina, durante os encontros foi possível compreender que a tecnologia e os dados não são neutros, mas produzidos dentro de contextos históricos, políticos e sociais marcados por desigualdades de gênero, raça e classe. “Em um mundo em que sistemas de reconhecimento facial, predições criminais, filtros automáticos de currículos e algoritmos de crédito moldam o cotidiano de bilhões de pessoas, percebemos que a ética não pode ser tratada como um adendo técnico. Ela precisa ser um eixo central da criação tecnológica”, afirma.
Pires também conta que, ao fazer a matrícula, ficou com receio de ser o único homem, mas foi surpreendido por uma turma diversa. “Logo percebi que o feminismo de dados não é um tema apenas ‘para algumas pessoas’, mas um campo que diz respeito a todos, especialmente àqueles que trabalham com tecnologia e ciência.”
Avila reforça que a disciplina não é voltada apenas para mulheres e que seu objetivo é desconstruir a visão limitada sobre o feminismo, entendendo-o como uma perspectiva que busca dar voz a grupos historicamente minorizados. “Os dados e modelos de IA carregam essas desigualdades”, ressalta.
Beatriz Cardoso Nascimento, doutoranda em Ciência da Computação no IC, já pesquisa a área de ética e inteligência artificial, mas avalia que a disciplina foi um “divisor de águas”. “Essa matéria propõe exatamente que você comece a prestar atenção em certas escolhas e decisões. E isso tem feito uma diferença gigantesca na minha carreira”, afirma. “Mudou totalmente a minha perspectiva sobre o aprendizado de máquina e sobre o meu dia a dia como cientista de dados.”
Um exemplo das lacunas apontadas na disciplina é a falta de informações sobre pessoas negras em modelos de IA utilizados para identificar lesões na pele com potencial de câncer. Uma pesquisa na Unicamp, liderada também por Avila, busca criar um banco de dados dermatológico inclusivo e representativo, que poderá subsidiar o aprendizado de máquina.
A docente estima que existem caminhos, ainda que sejam passos pequenos diante do enorme poder das big techs. Para ela, são fundamentais o letramento digital e em IA, além de regulação jurídica, com leis que orientem o desenvolvimento, uso e comercialização dessas ferramentas. “As empresas teriam condições técnicas de implementar essas mudanças; o problema não é falta de capacidade, mas falta de interesse do ponto de vista comercial”, opina.
COLABORAÇÃO COM INVESTIGAÇÕES POLICIAIS
O debate ético também tem sido realizado dentro do escopo do Projeto Araceli, uma rede de pesquisadores — da qual Avila faz parte — e instituições brasileiras e internacionais que atuam no combate ao abuso contra crianças e adolescentes. A iniciativa conta com a participação de peritos que participam da investigação de crimes digitais, ligados à Polícia Federal e à Polícia Técnico-Científica do Estado de São Paulo. As reuniões semanais do grupo têm dado destaque às questões éticas envolvendo o uso de IA.
João Macedo é perito criminal da Polícia Federal, doutorando na Universidade Federal de Minas Gerais (UFMG) e integrante do Projeto Araceli. Ele tem trabalhado no desenvolvimento de ferramentas de IA que ajudam a acelerar e otimizar a análise de imagens, documentos e textos digitais apreendidos pela polícia.
Para ele, é preciso ter um posicionamento de responsabilidade no trabalho com IA e conhecer os limites da ferramenta. “Por mais que elas ajudem no processo, é necessário que exista um humano validando os resultados gerados pela inteligência artificial, já que uma investigação é complexa e envolve os direitos de muitas pessoas — possíveis vítimas e acusados — e suas famílias.”
A disciplina Feminismo de Dados será oferecida novamente no segundo semestre de 2026 para estudantes de pós-graduação da Unicamp ou para alunos especiais que tenham matrícula na Universidade.