Os impasses éticos e morais do uso de Inteligência Artificial

Enviada em 19/07/2021

Inteligência artificial, ou apenas IA, é um conjunto de algoritmos capaz de de aprender e tomar decisões por si só. Esta capacidade de “pensar” lhe confere um determinada autonomia para exercer desde as mais simples até as mais complexas atividades do cotidiano, como resolver equações matemáticas extensas e manter diálogos como pessoas reais. Porém, devem haver limites éticos e morais durante o desenvolvimento das IA’s para que a integridade humana e ambiental não seja violada.

Ademais, já existem três leis fundemantais na robótica que estipulam limites éticos para os fins da tecnologia. Essas leis são definidas pela preservação humana, obediência aos humanos e autopreservação. A existência desses limites é extremamente importante, dado que no século XX, muitas invenções foram usadas durante as guerras para causar destruição e milhões de mortes. Caso as IA’s sejam projetadas com propósitos semelhantes, muito mais vidas podem ser perdidas numa escala inimaginável.

Entretanto, nem sempre essas regras são seguidas, como ilustra o filme TAU, em que após ser sequestrada, a protagonista se torna prisioneira de uma máquina. As IA’s ainda são ferramentas que podem ser alteradas e desenvolvidas segundo a vontade de seu programador e, mesmo com as três leis fundamentais da robótica, podem ser criadas com a finalidade de se tornarem armas. Estes desvios de funcionalidade colocam em risco a segurança e o bem estar de toda a humanidade.

Portanto, para a proteção da integridade humana e o uso devido das IA’s, as grandes distribuidoras de softwares, tais como Google e Samsung, devem inserir no código fonte de suas IA’s de código aberto as três regras fundamentais da robótica. Estes comandos serão adicionados fundamentalmente ao kernel das IA’s, um núcleo de dados indispensável para a funcionalidade do algorítmo, o que impedirá sua remoção e diminuirá os riscos para desenvolvedores e consumidores finais.