Os impasses éticos e morais do uso de Inteligência Artificial
Enviada em 08/10/2020
Muito tem se discutido sobre os desafios éticos e morais da Inteligencia Artificial (IA), devido a sua relevância na sociedade atual. Em tal ótica, o Brasil ainda representa um país que não possui uma diretriz clara sobre o assunto, o que é preocupante, pois, desde o início da substituição de pessoas por máquinas, até a existência do compartilhamento de dados, aumentou-se a presença destes no cotidiano da vida contemporânea, sem mecanismos para mitigá-los.
As maiores fontes de preocupação com o uso prático da IA estão relacionadas à possibilidade de as máquinas falharem nas tarefas das quais são encarregadas. Como por exemplo, quando a IA é encarregada de dirigir um carro ou pilotar um avião que transporta 500 passageiros.
Além disso, de acordo com o filósofo sueco Nick Bostrom, essas máquinas serão indiferentes a nós. Formas de I.A indiferentes à humanidade ou com estratégias incompreensíveis por nós poderiam causar destruição física e caos social ao controlar bancos de dados, mercados financeiros, infraestrutura, redes de distribuição e sistemas de armamentos.
Atualmente poucas leis são direcionadas para a tecnologia da Inteligencia Artificial e sua maneira de atuação quanto ao compartilhamento de dados e até onde está tecnologia é capaz de substituir a mão de obra humana, o que possibilita o aumento do desemprego e a exclusão social.
Diante dos fatos supracitados, é evidente, portanto, a necessidade por meio de legislações eficientes que o Estado fiscalize a implementação da tecnologia de Inteligência Artificial e de seus desenvolvedores, visando selecionar os dados na qual este sistema capta sua informações. Além disso, faz-se necessário campanhas por meio de veículos midiáticos e dentro das escolas a fim de conscientizar usuários sobre como utilizar de maneira adequada esta tecnologia. Desta forma, a utilização consciente será um meio eficiente de conseguirmos progressos em diversas áreas no âmbito social e ciêntifico no mundo.