Filosofia do longo prazo molda debate sobre Inteligência Artificial
A filosofia do longo prazo, principal ideologia do Vale do Silício, centraliza os debates sobre o papel da Inteligência Artificial (IA) na extinção da humanidade. No entanto, seus críticos alertam que ela não abrange os problemas associados a esta nova tecnologia, como os roubos de dados e o enviesamento dos algoritmos.
O bilionário Elon Musk e o diretor-executivo da OpenAI, Sam Altman, surpreenderam quando alertaram em uma carta aberta que a IA representava um risco de extinção para a humanidade.
Seus críticos consideraram, entretanto, que os empresários fizeram o pronunciamento com a intenção de afirmar que somente seus projetos poderiam apresentar uma salvação.
As ideologias associadas à filosofia do longo prazo, como o transumanismo - a crença de que os seres humanos podem ser transformados com a tecnologia - ou o altruísmo eficaz (criar o máximo de bem-estar possível) já exercem uma influência considerável nas universidades anglo-saxônicas e no setor tecnológico.
Peter Thiel e Marc Andreessen são dois dos grandes investidores que começaram a financiar empresas que procuram prolongar a vida humana.
Simultaneamente, cresce o número de críticos destas correntes, que, em termos gerais, se concentram na melhoria do bem-estar da humanidade a longo prazo, em vez de focar nos indivíduos de hoje. Para estes opositores, a ameaça é clara: ela exerce muita influência nos debates públicos e pode ser perigosa.
- Alertas -
O escritor e historiador Emile Torres abraçou esta corrente ideológica no passado, mas agora é um de seus maiores críticos.
Em uma entrevista à AFP, alertou que a filosofia do longo prazo tem como base os mesmos princípios que justificaram assassinatos em massa e genocídios no passado.
Os defensores desta ideologia se projetam em um futuro distante em que milhões de pessoas viajarão ao espaço para colonizar novos planetas. Também acreditam que se deve ter o mesmo dever com cada um destes futuros humanos, assim como com qualquer um dos que vivem hoje. E como são tantos, eles têm muito mais peso que a humanidade atual.
Para Torres, este raciocínio torna o longo prazo "verdadeiramente perigoso".
"Quando você tem uma visão utópica do futuro" e "as combina com uma moral utilitarista que diz que o fim pode justificar os meios, é perigoso", explica o autor do livro "Human Extinction: A History of the Science and Ethics of Annihilation" (Extinção humana: História da Ciência e a Ética da Aniquilação, em tradução livre).
Assim como outros especialistas, Torres busca redirecionar o debate para os problemas reais causados pela IA, como os direitos autorais, os preconceitos cognitivos ou a concentração de riqueza por um grupo de empresas.
Mas esse discurso, no entanto, esbarra nas opiniões cada vez mais alarmantes sobre o futuro, diz o autor.
"Falar sobre a extinção da humanidade, de um acontecimento verdadeiramente apocalíptico em que todos morrem, é muito mais emocionante do que falar sobre trabalhadores quenianos que recebem US$ 1,32 (cerca de R$ 7, na cotação atual) por hora" para moderar o conteúdo do IA, ressalta o historiador.
- Eugenia? -
A filosofia do longo prazo surgiu do trabalho do filósofo sueco Nick Bostrom sobre o risco existencial e o transumanismo nas décadas de 1990 e 2000.
De acordo com a pesquisadora Timnit Gebru, ex-membro da equipe de pesquisa sobre ética e IA do Google – que foi demitida – o transumanismo tem sido vinculado à eugenia (tentativa de "melhorar" a humanidade por meio da seleção genética) desde o seu início.
O biólogo britânico Julian Huxley, que assinou o termo, também era um teórico da eugenia. Bostrom também foi, por muito tempo, acusado de apoiar este movimento.
O filósofo, que atualmente é presidente do Instituto para o Futuro da Humanidade da Universidade de Oxford, pediu desculpas em janeiro após admitir ter escrito publicações racistas na internet na década de 1990.
"Sou a favor da eugenia? Não, não no sentido em que o termo é geralmente entendido", disse ele na época.
(Y.Berger--BBZ)