A automação das decisões, tanto no ambiente de negócios quanto no setor público, levanta indagações cada vez mais urgentes sobre os limites éticos do uso da inteligência artificial (IA). No mundo contemporâneo, nossos relacionamentos, padrões de consumo e inclinações políticas são moldados por sugestões geradas a partir do aprendizado de máquina, que processa dados sobre nossos comportamentos anteriores.
Ao automatizar decisões como, por exemplo, qual conteúdo deve ser exibido a determinado indivíduo com base em suas preferências, retira-se o componente decisório humano. A escolha é influenciada por algoritmos — instruções matemáticas complexas que, embora emulem o pensamento humano por meio de redes neurais, não possuem consciência ou discernimento ético. A máquina decide, mas não pondera sobre a justiça de suas decisões.
Esse aparente vácuo ético já motivou questionamentos judiciais. Um dos casos mais emblemáticos chegou à Suprema Corte dos Estados Unidos, no processo em que o pai de Nohemi González — jovem americana morta no atentado ao clube Bataclan, em Paris — acusou o YouTube de contribuir para a radicalização dos terroristas, por meio da sugestão de conteúdos extremistas. Embora a Corte tenha decidido pela imunidade da plataforma com base na ausência de regulamentação legal específica, o caso plantou a semente de um debate que não pode mais ser adiado.
No campo da filosofia moral, duas abordagens se destacam para pensar os limites da IA: a ética deontológica e a ética utilitarista. Michael Sandel[1], professor de Harvard, reinterpreta Immanuel Kant ao afirmar que nenhum ser humano deve ser tratado como meio, mas sempre como um fim em si mesmo — princípio que colide frontalmente com decisões automatizadas que classificam, ranqueiam e segregam usuários com base em métricas de engajamento.
Por outro lado, o utilitarismo de Jeremy Bentham e John Stuart Mill sugere que a correção moral de uma ação depende de sua capacidade de gerar o maior benefício para o maior número de pessoas. Mas como avaliar a “felicidade geral” quando decisões algorítmicas, muitas vezes opacas, impactam negativamente grupos inteiros, mesmo sem intenção humana direta?
A dificuldade maior está no fato de que muitas dessas decisões não são mais passíveis de controle pelo agente que disponibiliza o serviço. A autonomia da IA, embora ainda limitada em muitos aspectos, já alcança decisões financeiras, preferências afetivas e opções eleitorais.
Já é uma realidade o questionamento pelo CPF no momento da aquisição de medicamentos para que através de convênios com entidades de classes ou seguradoras possa haver descontos. Entretanto, estes dados, os quais consentimos o uso pode incorporar em cálculos atuariais para futuros aumentos de planos de saúde, ou até negativa de cobertura em determinadas situações. Tudo isso sem a chancela de um ser humano, sob a suposta imparcialidade da máquina aprendiz[2].
Como submeter máquinas aprendizes a critérios éticos? Como responsabilizá-las — ou aos seus desenvolvedores — quando sistemas discriminam usuários com base em raça, religião ou gênero em redes sociais ou plataformas de relacionamento?
Destacamos que a Justiça Criminal Americana desde 2016 vem sendo acusada de ter um viés racista na análise da possibilidade de reincidência, tendo em vista a adoção do sistema de informática COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) baseado em algoritmos.
Ainda, os principais desenvolvedores de sistema de IA demonstram sua preocupação, sendo a tecnologia comparada com a fissão nuclear para fins militares por Elon Musk[3].
A verdade é que ainda não temos nem as perguntas certas, muito menos as respostas definitivas. Entregar a nossa capacidade cultural de produzir textos, vídeos, e outros meios de transmissão de mensagens as máquinas, bem como a possibilidade de decisões sobre aspectos cruciais da vida dos cidadãos exigem um arcabouço regulatório claro e bem definido, o que ainda inexiste em nosso sistema jurídico, bem como em todo o mundo.
[1] SANDEL, Michael J.. Justiça: o que é fazer a coisa certa: 2021.
[2] https://exame.com/negocios/cvs-health-compra-aetna-por-us-69-bi-em-maior-aquisicao-do-ano/
[3] https://www.theguardian.com/technology/2023/mar/17/openai-sam-altman-artificial-intelligence-warning-gpt4
A Editora OAB/PE Digital não se responsabiliza pelas opiniões e informações dos artigos, que são responsabilidade dos autores.
Envie seu artigo, a fim de que seja publicado em uma das várias seções do portal após conformidade editorial.