Os impasses éticos e morais do uso de Inteligência Artificial

Enviada em 31/07/2025

Apartir da criação da primeira ferramente no período Pré-Histórico, a criação de novas tecnologias pelo homem se tornou algo inevitável para o desenvolvimento humano. A tecnologia surge com fins de ajudar o homem, porém, para cada avanço surgem desafios. A partir dessas observações, o tema sobre as Inteligências Artificiais (IA) e seus impactos éticos na sociedade se tornam um tema relevante. Tal problemática se deve a substituição de decisões humanas por robôs e na utilização da IA para fins de ameaça, como a manipulação de informações.

Diante disso, afirmar que a substituição dos humanos por algoritimos nas tomadas de decisões podem ser alarmantes, devido ao fato de não terem emoções e só terem base em suas programações. Em 1983, um radar soviético anunciou um alarme falso de míssil americano, que foi considerado falso por Stanislav Petrov por falta de evidências. Desse modo, caso o centro de comando fosse controlado por uma IA, ela retaliaria ao ataque, pois foi programada para a defesa do país e causaria um grande impacto global.

Além disso, o crescente avanço no desenvolvimento de vídeos e fotos criados por IAs também geram inseguranças na população, já que essas ferramentas podem acabar sendo usadas para difamar, ameaçar e manipular informações. Nesse contexto, vários golpistas que possuírem foto e áudio de alguém podem acabar com a reputação de alguém, ou conseguir uma transferência bancária, afirmando que sequestrou um ente querido de alguém, sendo que é um vídeo completamente feito por Inteligência Artificial.

Portanto, mediante ao problema apresentado, é mister que as impresas junto ao governo intervenham em busca de uma solução. Por isso cabe ao Ministério Legislativo criar normas e leis sobre a regulamentação de Inteligências Artificiais. Além das próprias empresas tomarem ações para que o uso não desrespeite, ou prejudique a sociedade. Feitos essas ações, é esperado que os impasse étinicos sobre o uso de IAS diminuam.