Os impasses éticos e morais do uso de Inteligência Artificial

Enviada em 21/10/2020

A série “Grey’s Anatomy” em um de seus núcleos narra a história de Cristina, uma cardiologista, que foi presenteada com um hospital no qual as cirurgias eram feitas por um sistema de computadores. Fora da ficção, compreende-se que a utilização de máquinas e novas tecnologias em exagero gera discursões conflitantes. Nesse sentido, é indubitável que os impasses éticos e morais do uso de inteligência artificial são a substituição do trabalho humano e a perda da saúde física e mental.

Em primeira análise, sabe-se que indivíduos são frequentemente trocados por um avanço tecnológico mais eficaz e barato. Séculos atrás, aconteceu a primeira Revolução Industrial em que milhares de operários perderam seus empregos para máquinas. De modo análogo, é visto que a inteligência artificial atua com maneiras de facilitar a vivência humana com a tecnologia. No entanto, esse artifício contribui com o desemprego de milhares de pessoas, o que faz muitas pessoas viverem em situação de miséria, fora da moral e direitos humanos de um cidadão.

Outrossim, destaca-se as inovações tecnológicas como impulsionadora do isolamento do ser humano e doenças advindas desse processo. Desde a última constituição de 1988, os indivíduos têm direito a educação, lazer e saúde de qualidade. Seguindo essa linha de raciocínio, infere-se que a inteligência artificial faz pessoas se desconectarem da vida social e se conectarem ao que é mais prático. Logo, infelizmente, o corpo cobra esse isolamento social através de doenças psíquicas e físicas, o que vai contra as leis regidas no estado-nação.

Entende-se, portanto, que medidas são necessárias para diminuir os impasses éticos e morais do uso de inteligência artificial, Para atenuar a problemática, o governo, como protetor da população, deve promover a inovação tecnológica, por meio do desenvolvimento profissional dos indivíduos, a fim de que nenhum dos lados fique desfalcado e os direitos humanos sejam seguidos efetivamente.