Os impasses éticos e morais do uso de Inteligência Artificial

Enviada em 13/02/2022

Na série norte-americana Black Mirror, é abordada em diversos episódios a temática da Inteligência Artificial (I.A.) onde é mostrado um cenário futurista, porém pessimista, sobre a evolução dessa tecnologia. Trazendo para a realidade, é muito discutida na sociedade a questão ética e moral da I.A. com enfoque em dois pontos: a consequência das decisões tomadas por I.A. e quais são os limites para o avanço dessa tecnologia.

Nos últimos anos, o magnata Elon Musk chamou a atenção da mídia com a sua empresa TESLA, que vende carros com direção automática, o que nos fez refletir sobre como decisões erradas feitas por I.A. podem ser trágicas, Sendo assim, um erro ocasionado por uma falha dessa tecnologia coloca em risco vidas humanas. O próprio Elon Musk compara o ato de criar I.A. com “invocar o demônio”, ou seja, as consequências da I.A. podem ser perigosas.

Ademais, a falta de regularização e legislação para a implementação da I.A. é algo preocupante, visto que essa inteligência tem o poder de se auto-aprimorar, podendo chegar a níveis complexos, até mesmo para a mente humana. O astrofísico Stephen Hawking diz que I.A. pode ser um grande evento da história, mas precisamos aprender a evitar riscos, pois a I.A. não tem o poder de fazer julgamentos morais como a mente humana, o que pode influenciar na tomada de decisões irresponsáveis.

Dessa forma, é necessária a criação de uma legislação para controlar e regularizar o avanço da I.A., realizada de maneira conjunta pelo Congresso Nacional e o Ministério da Ciência, Tecnologia, Inovações e Comunicação. Por meio de leis que exijam uma avaliação detalhada, realizada por profissionais especializados na área, antes da impementação de uma I.A que possa malparar a vida humana, para que possamos mapear e definir o avanço dessa tecnologia de forma ética, moral e benéfica para o ser humano de forma que o cenário pessimista desse avanço tecnológico, abordado na série Black Mirror, não se concretize.