Os impasses éticos e morais do uso de Inteligência Artificial

Enviada em 01/08/2025

O artigo 5º da Constituição Federal de 1988 determina que “a dignidade da pessoa humana” é direito de todos e dever do Estado. Posto isso, ao analisar o cenário brasileiro, nota-se que o uso indiscriminado da Inteligência Artificial constitui um problema que fere os princípios da Carta Magna, visto que a ética e a privacidade dos cidadãos são frequentemente prejudicadas. Com isso, entende-se a ausência de regulamentação adequada e a falta de conscientização digital como causas desse empecilho.

Sob esse viés, é crucial reconhecer a ausência de leis específicas e atualizadas como um fator impulsionador para a persistência dessa problemática. A Inteligência Artificial, quando usada sem limites, pode gerar discriminação algorítmica, vigilância excessiva e manipulação de dados pessoais, afetando diretamente os direitos individuais. Dessa forma, é intolerável que o desenvolvimento tecnológico avance sem que haja um debate ético e jurídico sólido para acompanhá-lo.

Ademais, vale ressaltar a desinformação da população como um importante agente que dificulta o uso consciente e ético dessas ferramentas. Muitos usuários não compreendem como seus dados são coletados e utilizados, tornando-se alvos fáceis de manipulações e abusos por empresas ou pelo próprio Estado. Dessa maneira, é inadmissível que a tecnologia continue sendo inserida no cotidiano social sem uma base educativa que prepare os cidadãos para lidar com seus impactos.

Portanto, cabe ao Governo Federal, órgão de maior poder público, em conjunto com o Ministério da Educação e o Ministério da Ciência, Tecnologia e Inovações, implementar medidas que visem ampliar a ética no uso da Inteligência Artificial. Isso deve ser feito por meio da introdução de programas educativos nas escolas que abordem a importância do uso responsável da tecnologia e da proteção de dados, com o objetivo de formar cidadãos críticos e conscientes. Com isso, os princípios da Carta Magna poderão ser assegurados.