6 dilemas éticos da inteligência artificial 

O campo da Filosofia que reflete sobre a ética não é novo. Aristóteles já arriscava bons palpites sobre o assunto no século 16 a.C., e desde então a discussão ganhou mais musculatura. As perguntas são relativamente as mesmas, mas as respostas variam drasticamente, já que o desenvolvimento das ideias e da tecnologia se transformou. Um exemplo é a inteligência artificial (IA).  

Sob certo sentido, a IA não é totalmente nova: é uma construção que organiza em sistemas computacionais uma estrutura de gestão da informação baseada nas redes neurais da vida humana comum. Ela fala mais do seu criador do que de si mesma, e seus potenciais e limites apresentam o quadro atual da civilização. 

Por outro, ela tira do sujeito a tomada de decisão imediata e o processo de subjetivação que é próprio da racionalização do mundo. Exemplo: pede-se que a sua redação no Exame Nacional do Ensino Médio (Enem) respeite os direitos humanos porque você é capaz de fazê-lo ativa e reflexivamente, sendo chamado a construir uma proposta de intervenção justa. Já as máquinas operam segundo um script anterior, sem a possibilidade de intervir no mundo segundo um traço de inventividade que é genuinamente humano. 

É aí que entram dilemas éticos interessantes, que podem cair no vestibular. Confira seis pontos sensíveis que a IA apresenta em termos éticos, e que merecem sua atenção. 

Veja também: 3 carreiras para trabalhar com inteligência artificial

1) A inteligência artificial repete, mas não reflete 

Conteúdos gerados por inteligência artificial se baseiam no que já foi produzido pela humanidade. E se esses conteúdos têm cunho sexista ou racista, por exemplo, a IA tende a reproduzi-los, sem filtro nem reflexão. O aprimoramento do debate público não pode contar com a IA, pela simples razão de que ela não produz posições éticas. 

Aliás, é possível que textos, vídeos e fotos produzidos pela IA reforcem os preconceitos do tempo atual. E se o futuro julgar antiético ele sugerir uma receita com carne, pois a humanidade interrompeu o abate de animais? Essas questões passam despercebidas pela IA, que só apresenta o acúmulo deste período histórico. 

2) Substituição de postos de trabalho 

Bom, mas se a IA não gera transformação no modo de ver a vida, os seres humanos que o façam, certo? Pois é, mas entre seus efeitos, ela é capaz de afastar as pessoas, em vez de incluí-las no debate e na tomada de decisão. A começar pelos empregos. Um relatório da Goldman Sachs aponta que as ferramentas de inteligência artificial podem acabar com até 300 milhões de postos de trabalho. 

Esse é um ponto ético relevante porque outras transformações tecnológicas foram capazes de satisfazer demandas humanas, mas não indicaram o que fazer com as pessoas que cumpriam as tarefas agora informatizadas.  

O desemprego coloca contingentes enormes de trabalhadores em situação de vulnerabilidade socioeconômica, abrindo um horizonte de questionamento sobre quão razoável é adotar a IA em detrimento do trabalho humanizado. Trata-se, em última análise, de uma decisão profundamente humana. 

Além disso, não está nítido quanto se está disposto a entregar de autonomia para as máquinas na hora de tomar decisão. Elas podem decidir quais funcionários promover em uma empresa a partir dos dados do sistema interno de produtividade? E se isso significar promover apenas homens, que se responsabilizam menos com o cuidado com a família? Como entregar essa nuance a um algoritmo que não pesa a desigualdade de gênero? Questões assim podem aparecer no Exame Nacional do Ensino Médio. 

Entenda questões que desafiam a aplicação da IA e a repercussão ética das decisões no setor. (fonte: getty images)

3) Comprometimento da autoria de diversos materiais 

Outro ponto crítico para a ética é o limite sobre a autoria. Se você pedir para uma plataforma de IA desenhar uma sereia, ele não inventará tal imagem, exatamente. Ele tomará como referência os desenhos já pré-existentes, feitos por pessoas que usaram tempo e talento para mover esforços nesse sentido. Então, a questão da propriedade sobre a elaboração se dilui. 

Segundo a Lei 9.610/98, o direito de autoria se refere apenas a pessoas físicas. Mas, independentemente do que trata a legislação brasileira atual, fica difícil diferenciar inspiração e cópia quando o processo de formulação da IA é uma síntese constante de produtos humanos. 

4) Privacidade e governança de dados 

A rigor, os sistemas de IA precisam ter princípios de governança como transparência, respeito à dignidade humana, consentimento e responsabilização dos atores. No entanto, o enriquecimento de dados feito por plataformas pode envolver bancos que não respeitam tal decisão. Esse é outro nó ético importante na dinâmica da inteligência artificial. 

A Europa foi palco desse debate recentemente. O conjunto da União Europeia desenvolveu a Proposta de Regulamentação AI Act, com papel do Estado na definição da regra do jogo. Já França, Alemanha e Itália preferiram deixar a cargo das empresas e entidades da sociedade civil a tarefa de se autorregular, informando a sociedade sobre os rumos do desenvolvimento dos sistemas. 

Nesse aspecto, recupera-se um debate clássico da Ética Política: o Estado é capaz de garantir o interesse público? As empresas que lideram o setor de IA têm isenção para se autorregular? A sociedade topa dar esse cheque em branco ao setor para não depender da burocracia governamental? Esses desdobramentos podem ser aprofundados no Enem. 

5) Responsabilização por resultados errados ou de má fé 

Você pergunta para a IA a capital do Brasil e ela diz Buenos Aires. E aí, o que fazer? O compromisso com a veracidade é um dos princípios que regem o debate público, mas fica difícil ter quem responsabilizar se as plataformas em última análise cruzam dados online e sintetizam respostas externas. Esse é um ponto que o Direito Civil ainda debate e que atravessa cenários éticos sensíveis. 

Isso se agrava, por exemplo, no uso de informações equivocadas (intencionalmente ou não) e no caso de softwares que permitem gerar deepfake, como gerar vídeos de pessoas públicas defendendo posições constrangedoras. Os usos disso em período eleitoral, por exemplo, podem ser definidores no pleito. 

6) Neutralidade no uso de informações 

Outro debate ético relevante tem sido gerado a partir do uso de IA em ferramentas de reconhecimento facial. No planejamento urbano isso já ocorre e há aspectos problemáticos a considerar. O principal deles é ler pessoas com traços negros como mais ameaçadoras ou potencialmente criminosas, por conta do racismo estrutural.  

No Brasil, esse fenômeno veio à tona em 2023, quando o Tribunal de Justiça do estado de São Paulo determinou a suspensão da aquisição de milhares de câmeras de segurança alegando esse problema. 

Nesse caso, parece que a reflexão se instaura em dois aspectos: ou se entende que as ferramentas de IA precisam ser aprimoradas para serem neutras, e isso abre um debate sobre como exercitar a estrutura de governança de dados para que ela não reproduza as iniquidades sociais; ou se aceita que a tecnologia não será neutra, e debate-se quais os critérios são aceitáveis na gestão dos problemas sociais.  

Seja como for, a Inteligência Artificial é um tema que ano após ano tem boas chances de ser apresentado no Enem. Ele mescla atualidades com reflexões críticas e politizadas, tal como o exame gosta de cobrar. Por isso, vale a pena se manter a par desses debates aqui em nosso site. 

—- 

Inscreva-se no vestibular do Mackenzie!

81820cookie-check6 dilemas éticos da inteligência artificial