Os impasses éticos e morais do uso de Inteligência Artificial

Enviada em 01/08/2025

Segundo reportagem do Washington Post (2025), erros de IA em reconhecimento facial levaram à prisão de inocentes, principalmente pessoas negras, evidenciando que algoritmos não são isentos de falhas e preconceitos ao identificar certos algoritimos e imagens em situações críticas.

Neste caso, se vê que a falta de precisão e neutralidade desse algoritmos representa um grave problema ético ocorrendo porque as inteligências artificiais são alimentadas por bancos de dados criados por seres humanos, os quais refletem preconceitos históricos e sociais. O resultado: ferramentas de identificação, ao invés de promover a “justiça cega”, podem reforçar discriminações raciais ou sociais, como nos casos em que pessoas negras foram presas injustamente por supostas coincidências faciais. Essa realidade evidencia outro risco moral: transferir decisões cruciais, como a aplicação da lei, para sistemas não-humanos sem mecanismos eficientes de supervisão.

Além disso, o ocorrido aponta para a ausência de regulamentação clara e de responsabilidade definida no uso da IA. Quando erros como prisões indevidas ocorrem, surge o dilema: quem deve responder pelo dano? o programador, a empresa fornecedora do software ou a instituição que o aplicou? Essa lacuna jurídica fragiliza os direitos individuais e permite que tecnologias potencialmente falhem e sejam aplicadas em situações de alto impacto social, como processos criminais, sem garantias mínimas de justiça e equidade.

Portanto, as discussões éticas e morais do uso da Inteligência Artificial vão além da esfera técnica, alcançando o campo dos direitos humanos e justiça social. Para suavizar tais problemas, o Ministério da Justiça, em parceria com órgãos internacionais de tecnologia e direitos humanos, devem criar leis de regulação da IA voltadas para segurança pública, exigindo testes rigorosos de precisão e supervisão humana obrigatória em decisões legais e responsabilização jurídica para casos de uso indevido, por meio de auditorias independentes e fiscalizações temporárias. Desta forma, será possível utilizar a tecnologia de forma que evite que erros dos algorítmicos continuem a comprometer vidas inocentes.