A luta por uma ideologia ‘perigosa’ que molda o debate sobre IA
LarLar > blog > A luta por uma ideologia ‘perigosa’ que molda o debate sobre IA

A luta por uma ideologia ‘perigosa’ que molda o debate sobre IA

Feb 15, 2024

Paris (AFP) – A filosofia favorita do Vale do Silício, o longo prazo, ajudou a enquadrar o debate sobre a inteligência artificial em torno da ideia da extinção humana.

Emitido em: 28/08/2023 - 11h13

Mas os críticos cada vez mais veementes alertam que a filosofia é perigosa e que a obsessão pela extinção desvia a atenção dos problemas reais associados à IA, como o roubo de dados e algoritmos tendenciosos.

O autor Emile Torres, um antigo defensor de longo prazo que se tornou crítico do movimento, disse à AFP que a filosofia se baseava no tipo de princípios usados ​​no passado para justificar o assassinato em massa e o genocídio.

No entanto, o movimento e as ideologias interligadas, como o transumanismo e o altruísmo eficaz, têm enorme influência nas universidades, de Oxford a Stanford, e em todo o sector tecnológico.

Capitalistas de risco como Peter Thiel e Marc Andreessen investiram em empresas de extensão de vida e noutros projectos de estimação ligados ao movimento.

Elon Musk e Sam Altman, da OpenAI, assinaram cartas abertas alertando que a IA poderia extinguir a humanidade - embora eles possam se beneficiar argumentando que apenas seus produtos podem nos salvar.

Em última análise, os críticos dizem que este movimento marginal tem demasiada influência nos debates públicos sobre o futuro da humanidade.

Os a longo prazo acreditam que temos o dever de tentar produzir os melhores resultados para o maior número de seres humanos.

Isto não é diferente de muitos liberais do século XIX, mas os defensores do longo prazo têm em mente um cronograma muito mais longo.

Eles olham para um futuro distante e veem trilhões e trilhões de humanos flutuando pelo espaço, colonizando novos mundos.

Eles argumentam que devemos para com cada um desses futuros humanos o mesmo dever que temos para com qualquer pessoa viva hoje.

E porque são tantos, eles carregam muito mais peso do que os exemplares atuais.

Este tipo de pensamento torna a ideologia “realmente perigosa”, disse Torres, autor de “Extinção Humana: Uma História da Ciência e Ética da Aniquilação”.

“Sempre que você tiver uma visão utópica do futuro marcada por quantidades quase infinitas de valor, e combinar isso com uma espécie de modo utilitário de pensamento moral onde os fins podem justificar os meios, será perigoso”, disse Torres.

Se uma máquina superinteligente estiver prestes a ganhar vida com o potencial de destruir a humanidade, os defensores do longo prazo serão obrigados a opor-se a ela, independentemente das consequências.

Quando questionado em março por um usuário do Twitter, a plataforma agora conhecida como X, quantas pessoas poderiam morrer para impedir que isso acontecesse, o ideólogo de longo prazo Eliezer Yudkowsky respondeu que só precisava haver pessoas suficientes "para formar uma população reprodutiva viável".

“Enquanto isso for verdade, ainda há uma chance de alcançar as estrelas algum dia”, escreveu ele, embora mais tarde tenha excluído a mensagem.

O longtermismo surgiu do trabalho realizado pelo filósofo sueco Nick Bostrom nas décadas de 1990 e 2000 em torno do risco existencial e do transumanismo – a ideia de que os humanos podem ser melhorados pela tecnologia.

O académico Timnit Gebru salientou que o transumanismo estava ligado à eugenia desde o início.

O biólogo britânico Julian Huxley, que cunhou o termo transumanismo, também foi presidente da Sociedade Britânica de Eugenia nas décadas de 1950 e 1960.

“O longo prazo é eugenia com um nome diferente”, escreveu Gebru no X no ano passado.

Bostrom há muito enfrenta acusações de apoiar a eugenia depois de listar como um risco existencial as "pressões disgênicas", essencialmente pessoas menos inteligentes procriando mais rápido do que seus pares mais inteligentes.

O filósofo, que dirige o Instituto do Futuro da Humanidade na Universidade de Oxford, pediu desculpas em janeiro depois de admitir ter escrito posts racistas num fórum da Internet na década de 1990.

"Apoio a eugenia? Não, não como o termo é comumente entendido", escreveu ele no seu pedido de desculpas, salientando que o termo foi usado para justificar "algumas das atrocidades mais horríveis do século passado".

Apesar desses problemas, defensores de longa data como Yudkowsky, que abandonou o ensino médio e é conhecido por escrever fanfics de Harry Potter e promover o poliamor, continuam a ser festejados.