Os impasses éticos e morais do uso de Inteligência Artificial
Enviada em 31/07/2025
“O problema real não é se as máquinas pensam, mas se os homens o fazem.” A frase de B. F. Skinner, psicólogo e pesquisador da ciência do comportamento, propõe uma reflexão essencial sobre os limites da tecnologia. Na era da Inteligência Artificial (IA), em que algoritmos assumem funções humanas cada vez mais complexas, surgem dilemas éticos e morais quanto à transparência, ao controle e às desigualdades ampliadas por essas tecnologias. Nesse contexto, destacam-se dois entraves: a ausência de regulamentação efetiva e o risco de perpetuação de vieses sociais.
Em primeiro plano, o avanço acelerado da IA tem superado a capacidade dos Estados de criar normas que garantam seu uso ético e responsável. De acordo com relatório da UNESCO de 2021, apenas 10% dos países possuem políticas nacionais voltadas à regulação da IA. Essa ausência de controle normativo permite que empresas manipulem dados sensíveis sem transparência, ameaçando a privacidade e gerando insegurança digital. Como resultado, o uso da IA sem diretrizes pode servir a interesses privados, afastando-se de seu potencial humanitário.
Além disso, algoritmos alimentados com dados humanos podem reproduzir e amplificar preconceitos sociais. A cientista de dados Cathy O’Neil, em sua obra Armas de destruição matemática, mostra como sistemas de IA já foram responsáveis por decisões enviesadas em áreas como segurança pública, crédito bancário e recrutamento. Isso ocorre porque os dados usados refletem desigualdades estruturais. Sem fiscalização e correção, a tecnologia pode deixar de ser ferramenta de progresso e se tornar instrumento de exclusão.
Diante disso, o Ministério da Ciência, Tecnologia e Inovação, em parceria com universidades e institutos de pesquisa, deve implementar um programa nacional para o uso ético da Inteligência Artificial. Para isso, é necessário criar um comitê de avaliação algorítmica, formado por especialistas em ética, tecnologia e direitos humanos, responsável por validar modelos antes de sua aplicação. Essa medida busca garantir a equidade digital, proteger direitos fundamentais e alinhar o progresso tecnológico ao bem-estar coletivo.