Inteligência Artificial: a máquina mortal em Gaza. Por Fernando Gabeira
By Chumbo Gordo 7 meses agoJá se passaram seis meses de guerra na Faixa de Gaza, e há um perigo grande de esquecermos as mortes e sofrimento vividos no front, tomando-os como algo cotidiano, como a aurora e o crepúsculo. Novos dados podem reativar nossa atenção. A tão famosa e celebrada inteligência artificial (IA) aparece ali como o principal instrumento na liquidação em massa dos palestinos, mulheres e crianças, em primeiro lugar.
Essa participação da inteligência artificial foi denunciada pela revista +972 e pelo site Local Call, ambos de Israel. Repercutiu na imprensa do mundo inteiro, e por meio dela ficamos sabendo que essa máquina mortal foi idealizada há algum tempo. Ela aparece no livro “Equipe humano-máquina”, de autoria de um homem que assina brigadeiro-general Y. S. O jornal L’Humanité afirma que, na realidade, o livro foi escrito por um chefe de serviço de inteligência de Israel.
O problema central que o texto procura enunciar é a concepção de uma máquina capaz de tratar uma quantidade maciça de dados e gerar alvos potenciais, no fogo da ação. A denúncia dos órgãos alternativos de Israel afirma que essa máquina existe, na forma de um programa chamado Lavender. Ele teve papel central nos bombardeios, e os resultados da devastação provocada são tratados como se fossem produto de decisões humanas.
Os alvos inicialmente eram os dirigentes do Hamas, mas se ampliaram para muitos palestinos que tinham participação secundária. Fala-se em 37 mil alvos, processados e definidos no ataque com espaços de 20 segundos. O Lavender resolvia o que o livro definia como ponto de estrangulamento da ação destrutiva, quando levada apenas pelo cérebro humano: encontrar alvos rapidamente e tomar a decisão de alvejá-los.
Nesse momento em que se fala tanto de IA, e os grandes nomes do mundo tecnológico, como Elon Musk, são saudados aos gritos modernos de “Caramuru, Caramuru”, é importante parar para pensar. Regular a IA na sociedade já é muito difícil, quanto mais sua aplicação bélica, que foge completamente a nosso controle.
Mas há perguntas pertinentes que podem ser levadas para a própria discussão sobre os limites da guerra. Uma delas é esta: é eticamente defensável que a máquina defina alvos e realize execuções em massa, sem passar pelo crivo humano?
Quando se discute tecnologia, o senso comum é que ela é apenas um instrumento para atingirmos nossos objetivos. Os mais pessimistas, como Martin Heidegger, lembraram que ela poderia moldar o ser humano, que dificilmente seria o mesmo depois dessa revolução.
As denúncias surgidas após os primeiros seis meses de guerra ajudam a explicar por que morrem tantas crianças e mulheres. Muito possivelmente, os alvos não são mais apenas instalações militares ou prédios estratégicos, mas apenas pessoas. Pessoas, de um modo geral, são casadas, criam filhos, cuidam dos mais velhos que vivem em casa. É aterrador pensar que, de 20 em 20 segundos, uma família inteira irá para o espaço apenas porque o Lavender, processando os dados, apontou para elas.
No momento, o debate no Brasil se concentra nas redes sociais. O pressuposto é que palavras têm consequências e podem ser letais. A entrada da IA em cena significa muito mais. Decisões letais podem ser tomadas sem a interferência direta do juízo humano.
Nem todas as grandes promessas se cumpriram na plenitude. O Iluminismo, com sua fé na razão, acabou levando a uma desastrada tentativa de controlar a natureza. As redes sociais prometiam mais democracia, e hoje vive nelas um grande perigo para o sistema. A IA promete um mundo novo de possibilidades, mas para as crianças de Gaza é apenas o anjo da morte.