HOME FEEDBACK

Sistemas de Armas Autônomas e a necessidade ética de regulamentação

A crescente implementação de Sistemas de Armas Autônomas gera dilemas éticos e jurídicos complexos em um cenário de tensão global. Pesquisadores e governos buscam compreender como essas tecnologias impactam a guerra moderna e suas consequências para a sociedade.

O início da década apresentou desafios significativos relacionados à deterioração das instituições multilaterais e ao aumento da animosidade entre nações. Desde a criação da bomba atômica em 1945, a corrida armamentista evoluiu, destacando o uso de dissuasão na política de defesa.

Recentemente, o avanço da inteligência artificial trouxe à tona os Sistemas de Armas Autônomas (AWS), que podem agir sem intervenção humana. Isso gerou questões éticas e jurídicas sobre o uso dessas tecnologias na guerra. O primeiro caso documentado de um drone que tomou decisões letais ocorreu na Líbia, em 2020, envolvendo o drone Kargu-2.

No mesmo ano, em Nagorno-Karabakh, foram utilizados sistemas semiautônomos. A guerra entre Ucrânia e Rússia também levantou preocupações éticas sobre a integração de IA. Com novos conflitos surgindo, o aumento do uso de AWS exige uma análise profunda de suas implicações no Direito Internacional Humanitário e na política externa.

A falta de consenso nas discussões da ONU sobre AWS destaca a dificuldade em estabelecer soluções viáveis. Os Estados Unidos e a China têm papéis importantes no desenvolvimento da IA militar, enquanto a Rússia utiliza AWS em conflitos recentes.

O cenário geopolítico é complexo, com a União Europeia planejando um rearmamento significativo. Outras potências regionais, como Irã e Índia, também estão envolvidas, aumentando a corrida armamentista.

É fundamental que haja uma análise completa e regulamentação rigorosa sobre o uso militar da IA para evitar tragédias causadas por "soldados algorítmicos".

Esse texto não reflete, necessariamente, a opinião da Jovem Pan.

Leia mais em jovem-pan