Tecnicamente, é possível. Eticamente, é complicado
O aumento no uso de IA intensifica a demanda por um programa de Harvard que examina as consequências sociais do trabalho em ciência da computação.

“Basicamente, os alunos estão tendo uma experiência de educação humanística dentro de seus cursos de ciência da computação”, disse Matthew Kopec, diretor de programa da Embedded EthiCS. Stephanie Mitchell/Fotógrafa da Equipe de Harvard
Uma pedestre de São Francisco ficou gravemente ferida em 2023 quando um motorista a atropelou, arremessando-a na frente de um carro autônomo que a arrastou por seis metros enquanto tentava parar. Diante das complexas circunstâncias e das consequências legais do acidente , educadores viram uma oportunidade de aprendizado para que futuros engenheiros lidassem com os desafios éticos das tecnologias emergentes.
“Enquadramos o caso como um alerta e um desafio para aprimorar o projeto em situações onde colisões são inevitáveis”, disse Michael Pope , que liderou uma discussão sobre o acidente para os alunos da disciplina “Planejamento e Métodos de Aprendizagem em IA”, da Escola de Engenharia e Ciências Aplicadas John A. Paulson. “Como devemos projetar sistemas para esses tipos de cenários imprevisíveis? Como devemos pensar sobre o regime de treinamento e os modelos de aprendizagem que estamos usando nesses sistemas?”
Pope é pesquisador de pós-doutorado no Embedded EthiCS , um programa lançado em 2017 que leva acadêmicos da área de filosofia para salas de aula de ciência da computação, a fim de ajudar os alunos a lidar com as implicações éticas e sociais de seu trabalho. Este ano, o programa dá nova ênfase à ética da IA.
“Os alunos estão basicamente tendo uma experiência de educação humanística dentro de seus cursos de ciência da computação”, disse Matthew Kopec , diretor de programa da Embedded EthiCS. “Ter conversas na sala de aula de ciência da computação sobre esses tópicos que se ancoram em seus valores fundamentais, onde eles podem realmente conversar uns com os outros, aprender que indivíduos diferentes têm valores diferentes e defender os seus. Isso não é algo que normalmente acontece em uma sala de aula de ciência da computação.”
'Estou apenas construindo um robô aqui'
Os cursos abordam uma variedade de temas. Um módulo de ética da disciplina “Introdução à Linguística Computacional e ao Processamento de Linguagem Natural” levou os alunos a discutir as responsabilidades das empresas que criam chatbots com IA. Em “Introdução à Robótica”, eles debateram o futuro do trabalho com a automação e a IA substituindo certas funções. No curso “Visão Computacional Avançada”, do ano passado, os alunos examinaram os deepfakes e como a mesma tecnologia de IA usada para criar desinformação online também poderia ser usada para autenticar conteúdo e restaurar a confiança digital.
Na disciplina “CS50: Introdução à Ciência da Computação”, onde discussões em grupo são difíceis devido ao tamanho da turma, filósofos trabalharam com a equipe docente para inserir breves explicações sobre ética e questões de reflexão nas listas de exercícios. Uma das listas pedia aos alunos que criassem um site com um texto sobre acessibilidade de acordo com a Lei de Acessibilidade para Pessoas com Deficiência (ADA). Outra lista, sobre filtragem e recuperação de dados de arquivos, continha uma questão sobre por que seria necessário desfocar imagens; em seguida, os alunos eram solicitados a descrever um cenário em que a recuperação de dados poderia violar a privacidade de alguém e como esse trabalho poderia ser feito de forma responsável.
“Desde coisas simples como a criação de emojis até grandes modelos de linguagem, carros autônomos e sistemas de armas autônomas, o que você imaginar, nós vamos abordar as implicações sociais e éticas.”
Huzeyfe Demirtas
David Malan , que leciona o popular curso introdutório, disse que sua motivação para incorporar conteúdo de ética foi fazer com que os alunos refletissem sobre se o fato de poderem fazer certas coisas, tecnologicamente, significa que deveriam fazê-las.
“Com muita frequência, nossos alunos, mesmo depois de formados e inseridos no mercado de trabalho, se deparam com situações em que são solicitados a fazer algo por seus gerentes ou pela empresa, e não se sentem necessariamente em posição de questionar ou contestar a tarefa”, disse Malan. “O que queríamos fazer na disciplina era criar um ambiente em que os alunos fossem incentivados a pensar com bastante antecedência sobre como e se devem resolver certos problemas, agora que possuem o conhecimento técnico necessário para isso.”
Huzeyfe Demirtas , um pós-doutorando em filosofia no programa Embedded EthiCS, afirmou que muitos de seus alunos de ciência da computação estão entusiasmados em se envolver com o currículo de filosofia. No entanto, alguns ainda veem a ciência da computação como algo separado da ética ou da responsabilidade social. São esses alunos que ele tem particular interesse em alcançar.
“Não é incomum ouvirmos coisas como: 'Bem, eu só estou programando' ou 'Eu só estou construindo um robô aqui'”, disse Demirtas, cuja própria pesquisa se concentra em questões de responsabilidade moral, livre arbítrio e a metafísica da causalidade. “Isso é um pouco equivocado. Desde coisas simples como criar emojis até grandes modelos de linguagem, carros autônomos e sistemas de armas autônomas, o que você imaginar, sempre encontraremos implicações sociais e éticas.”
Demirtas ministrou um módulo de ética neste mês para o curso de ciência da computação "Segurança de Sistemas", no qual os alunos discutiram como uma empresa deve responder a um ataque ao seu sistema por parte de um hacker externo. É moralmente aceitável sabotar seus próprios dados com um bug que destruiria o mainframe de um hacker? Quais são os princípios éticos de hackear o hacker para recuperar dados roubados?
A demanda explode com o uso do ChatGPT
Kopec afirmou que o interesse pelo programa Embedded EthiCS disparou entre os professores de ciência da computação. Nos primórdios do programa, as cofundadoras Barbara Grosz e Alison Simmons tiveram que se esforçar bastante para convencer os professores de ciência da computação a adicionar um módulo de filosofia aos seus currículos já sobrecarregados, disse ele. Agora, a demanda supera a capacidade do Embedded EthiCS de ministrá-los.
“Não encontrei mais nenhum professor de Ciência da Computação que não acredite que a ciência da computação tenha implicações éticas”, disse Kopec. “Por causa da rápida mudança com o ChatGPT e como isso impactou a vida de todos, agora todos estão convencidos de que precisamos nos apressar para desenvolver mais habilidades de raciocínio ético e mais reflexão ética entre os alunos, especialmente aqueles que estão aprendendo Ciência da Computação. Agora a questão é: 'Como fazer isso e como fazer isso rapidamente?'”
“Devido à rápida mudança proporcionada pelo ChatGPT… todos agora estão convencidos de que precisamos nos apressar para incorporar mais habilidades de raciocínio ético e mais reflexão ética à população estudantil.”
Mateus Kopec
Essa é uma questão que outras faculdades e universidades também estão considerando. O Embedded EthiCS ajudou outras instituições, incluindo a Universidade Stanford, a Universidade de Toronto, o Technion – Instituto de Tecnologia de Israel e a Universidade de Nebraska-Lincoln, a lançar programas de computação responsável. Com financiamento da Fundação Nacional de Ciência (NSF), Harvard também ajudou nove membros da Aliança de Computação de Instituições de Ensino Superior com Atendimento a Estudantes Hispânicos (Computing Alliance of Hispanic-Serving Institutions), incluindo dois campi da Universidade Estadual da Califórnia e a Universidade Estadual do Novo México, a implementar programas-piloto de ética focados em IA.
Kopec recomenda o modelo de inserção de módulos de ética em currículos de ciência da computação já existentes, pois ele pode ser implementado rapidamente para acompanhar o desenvolvimento da IA sem a necessidade de aguardar a contratação de professores, a elaboração do currículo ou o processo de aprovação de disciplinas.
“Ao longo de uma semana, conseguimos reunir todas essas equipes, treiná-las rapidamente sobre o que é uma abordagem como a nossa, e então elas podem sair com todas as ferramentas necessárias para implementar um programa semelhante em suas próprias instituições”, disse ele.
Embora o programa ofereça aos estudantes de ciência da computação uma nova perspectiva, ele também proporciona aos pesquisadores de filosofia a oportunidade de descobrir novas áreas de interesse. O artigo de Demirtas, ainda a ser publicado, examina o chamado problema da "IA Explicável": muitas vezes não sabemos como sistemas complexos de IA tomam decisões, então quais são as implicações éticas quando essas enigmáticas "caixas-pretas" são usadas para tomar decisões policiais ou de saúde?
“Acho que é definitivamente uma via de mão dupla. A pesquisa em ética tecnológica está melhorando de forma geral. A pesquisa em filosofia está definitivamente melhorando à medida que interagimos mais com cientistas da computação”, disse Kopec. “Também acho que várias áreas da pesquisa em ciência da computação serão mais bem informadas, porque esses cientistas da computação estão interagindo com filósofos quando estão realizando a pesquisa.”