Longoprazismo – Wikipédia, a enciclopédia livre

Comparando o número de vidas humanas no passado e no presente
Ilustrando o número potencial de futuras vidas humanas

O Longoprazismo ou longotermismo (do inglês, longtermism) é uma posição ética que prioriza a melhoria do futuro a longo prazo. É um conceito importante no altruísmo eficaz e serve como motivação primária para os esforços para reduzir os riscos existenciais para a humanidade.[1]

Sigal Samuel da Vox resume o argumento chave para o longoprazismo da seguinte forma: "as pessoas do futuro importam moralmente tanto quanto as pessoas vivas hoje; (...) pode muito bem existir mais pessoas vivas no futuro do que existe no presente ou que houve no passado; e (...) nós podemos afetar positivamente a vida das pessoas do futuro."[2] Essas três ideias juntas sugerem, para aqueles que defendem o longoprazismo, que é responsabilidade daqueles que vivem agora garantir que as gerações futuras sobrevivam e floresçam.[3]

Definição[editar | editar código-fonte]

O filósofo William MacAskill define o longoprazismo no seu livro What We Owe the Future como "a visão de que influenciar positivamente o futuro a longo prazo é uma prioridade moral fundamental do nosso tempo".[4](p4) Ele o distingue do longoprazismo forte (do inglês, strong longtermism), "a visão de que influenciar positivamente o futuro de longo prazo é a principal prioridade moral do nosso tempo".[5]

No seu livro The Precipice: Existential Risk and the Future of Humanity, o filósofo Toby Ord descreve o longoprazismo da seguinte forma: "longoprazismo (...) está especialmente preocupado com os impactos das nossas ações sobre o futuro de longo prazo. Leva a sério o facto de que a nossa própria geração é apenas uma página numa história muito mais longa, e que o nosso papel mais importante pode ser como moldamos – ou deixamos de moldar – essa história. Trabalhar para salvaguardar o potencial da humanidade é um caminho para um impacto tão duradouro e pode haver outros também."[6](52-53) Além disso, Ord observa que "o longoprazismo é animado por uma reorientação moral em direção ao vasto futuro que os riscos existenciais ameaçam encerrar".[6](52-53)

Como geralmente é inviável usar técnicas de investigação tradicionais, como ensaios clínicos aleatorizados para analisar riscos existenciais, investigadores como Nick Bostrom usaram métodos como a obtenção da opinião de especialistas para estimar a sua importância.[7] Ord ofereceu estimativas de probabilidade para vários riscos existenciais no seu livro de 2020 The Precipice.[6](p167)

História[editar | editar código-fonte]

O termo "longtermism" ("longoprazismo") foi cunhado por volta de 2017 pelos filósofos de Oxford William MacAskill e Toby Ord, e a visão inspira-se no trabalho de Nick Bostrom, Nick Beckstead e outros.[5]

No entanto, embora a sua cunhagem seja relativamente nova, alguns aspetos do longoprazismo foram pensados há séculos. A constituição oral da Confederação Iroquois, a Gayanashagowa, encoraja todas as tomadas de decisão a “ter sempre em vista não apenas o presente, mas também as gerações vindouras”.[8] Isso tem sido interpretado no sentido de que as decisões devem ser tomadas de modo a beneficiar a sétima geração no futuro.[9]

Estas ideias ressurgiram no pensamento contemporâneo com pensadores como Derek Parfit no seu livro Reasons and Persons, de 1984, e Jonathan Schell, no seu livro The Fate of the Earth, de 1982.

Comunidade[editar | editar código-fonte]

Ideias de longoprazismo deram origem a uma comunidade de indivíduos e organizações que trabalham para proteger os interesses das gerações futuras.[10] As organizações que trabalham em tópicos de longoprazismo incluem o Centre for the Study of Existencial Risk da Universidade de Cambridge, [11] o Future of Humanity Institute da Universidade de Oxford[12] e o Global Priorities Institute, 80.000 Hours,[13] Open Philanthropy,[14] o Future of Life Institute, [15] The Forethought Foundation[16] e outros.

Implicações para a ação[editar | editar código-fonte]

Investigadores que estudam o longoprazismo acreditam que podemos melhorar o futuro a longo prazo de duas formas: "evitando catástrofes permanentes, garantindo assim a sobrevivência da civilização; ou mudando a trajetória da civilização para torná-la melhor enquanto dura... Em termos gerais, garantir a sobrevivência aumenta a quantidade de vida futura; mudanças de trajetória aumentam a sua qualidade".[17](35-36)[18]

Riscos existenciais[editar | editar código-fonte]

Um risco existencial é "um risco que ameaça a destruição do potencial de longo prazo da humanidade",[6] (p59) incluindo riscos que causam extinção humana ou colapso social permanente. Exemplos desses riscos incluem guerra nuclear, pandemias naturais e projetadas, alterações climáticas extremas, totalitarismo global estável e tecnologias emergentes como inteligência artificial e nanotecnologia.[6](213-214) A redução de qualquer um desses riscos pode melhorar significativamente o futuro no longo prazo, aumentando o número e a qualidade das vidas futuras.[18][19] Consequentemente, os defensores do longoprazismo argumentam que a humanidade está num momento crucial da sua história, onde as escolhas feitas neste século podem moldar todo o seu futuro.[6](3-4)

Os proponentes do longoprazismo apontaram que a humanidade gasta menos de 0,001% do produto bruto mundial anualmente em causas de longoprazismo (ou seja, atividades explicitamente destinadas a influenciar positivamente o futuro de longo prazo da humanidade).[20] Isto é menos de 5% do valor que é gasto anualmente em gelado nos EUA, levando Toby Ord a argumentar que a humanidade “começa a gastar mais para proteger o nosso futuro do que com gelado, e decide para onde ir a partir daí. ”.[6](p58, 63)

Mudanças de trajetória[editar | editar código-fonte]

Os riscos existenciais são exemplos extremos do que os investigadores chamam de "mudança de trajetória".[18] No entanto, pode existir outras formas de influenciar positivamente como o futuro se desenrolará. O economista Tyler Cowen argumenta que aumentar a taxa de crescimento económico é uma prioridade moral, porque tornará as gerações futuras mais ricas.[21] Outros investigadores pensam que melhorar instituições como governos nacionais e órgãos de governança internacionais pode trazer mudanças positivas na trajetória.[22]

Outra forma de provocar uma mudança de trajetória é alterando os valores sociais.[23] William MacAskill argumenta que a humanidade não deve esperar que alterações positivas de valor ocorram por predefinição.[24] Por exemplo, a maioria dos historiadores agora acredita que a abolição da escravidão não era moral ou economicamente inevitável.[25] Christopher Leslie Brown, em vez disso, argumenta no seu livro de 2006, Moral Capital, que uma revolução moral tornou a escravidão inaceitável num momento em que ainda era extremamente lucrativa.[25] MacAskill argumenta que a abolição pode ser um ponto de viragem em toda a história humana, com a prática improvável de retornar.[24] Por esta razão, trazer mudanças positivas de valor na sociedade pode ser uma forma pela qual a geração atual pode influenciar positivamente o futuro de longo prazo.

Vivendo num momento crucial[editar | editar código-fonte]

Os longoprazistas argumentam que vivemos num momento crucial na história humana. Derek Parfit escreveu que "vivemos durante a charneira da história"[26] e William MacAskill afirma que "o destino de longo prazo do mundo depende em parte das escolhas que fazemos nas nossas vidas"[27](p6) uma vez que "a sociedade ainda não se estabeleceu num estado estável, e somos capazes de influenciar em qual estado estável acabamos".[27](p28)

Durante a maior parte da história humana, não ficou claro como influenciar positivamente o futuro de muito longo prazo.[28] No entanto, dois desenvolvimentos relativamente recentes podem ter mudado isso. Desenvolvimentos em tecnologia, como armas nucleares, deram, pela primeira vez, à humanidade o poder de se aniquilar, o que impactaria o futuro de longo prazo, impedindo a existência e o florescimento de gerações futuras.[28] Ao mesmo tempo, o progresso feito nas ciências físicas e sociais deu à humanidade a capacidade de prever com mais precisão (pelo menos alguns) os efeitos de longo prazo das ações tomadas no presente.[28]

MacAskill também observa que o nosso tempo presente é altamente incomum, pois "vivemos numa era que envolve uma quantidade extraordinária de mudanças"[27](p26)— tanto em relação ao passado (onde as taxas de progresso económico e tecnológico foram muito lentas) quanto ao futuro (já que as taxas de crescimento atuais não podem continuar por muito tempo antes de atingir os limites físicos).[27](26-28)

Considerações teóricas[editar | editar código-fonte]

Teoria moral[editar | editar código-fonte]

O longoprazismo tem sido defendido apelando para várias teorias morais. O utilitarismo pode motivar o longoprazismo, dada a importância que atribui à busca do maior bem para o maior número, com a expectativa de que as gerações futuras sejam a grande maioria de todas as pessoas que já existiram.[29] As teorias morais consequencialistas – das quais o utilitarismo é apenas um exemplo – podem geralmente simpatizar com o longoprazismo, uma vez que, seja o que for que a teoria considere moralmente valioso, provavelmente haverá muito mais no futuro do que no presente.[30]

No entanto, outras estruturas morais não consequencialistas também podem inspirar o longoprazismo. Por exemplo, Toby Ord considera a responsabilidade que a geração atual tem para com as gerações futuras como baseada no trabalho árduo e nos sacrifícios feitos pelas gerações passadas.[6] Ele escreve:

“Como a flecha do tempo torna muito mais fácil ajudar as pessoas que vêm depois de você do que as pessoas que vêm antes, a melhor forma de entender a parceria das gerações pode ser assimétrica, com todos os deveres fluindo para à frente no tempo – pagando adiante. Nessa visão, os nossos deveres para com as gerações futuras podem ser fundamentados no trabalho que os nossos ancestrais fizeram por nós quando éramos gerações futuras.”[6](p42)

Avaliando os efeitos no futuro[editar | editar código-fonte]

No seu livro What We Owe the Future, William MacAskill discute como os indivíduos podem moldar o curso da história. Ele apresenta uma estrutura de três partes para pensar sobre os efeitos no futuro, que afirma que o valor a longo prazo de um resultado que podemos trazer depende da sua significância, persistência e contingência.[17](31-33) Ele explica que a significância "é o valor médio agregado pela realização de um determinado estado de coisas", a persistência significa "quanto tempo esse estado de coisas dura, uma vez ocorrido", e a contingência "refere-se à medida em que o estado das coisas depende da ação de um indivíduo".[17](p32) Além disso, MacAskill reconhece a incerteza generalizada, tanto moral quanto empírica, que envolve o longoprazismo e oferece quatro lições para ajudar a orientar as tentativas de melhorar o futuro a longo prazo: tomar ações robustas e boas, construir opções, aprender mais e evitar causar danos.[31]

Ética populacional[editar | editar código-fonte]

A ética populacional desempenha um papel importante no pensamento longoprazista. Muitos defensores do longo prazo aceitam a visão total da ética populacional, segundo a qual trazer mais pessoas felizes à existência é bom, todas as outras coisas sendo iguais.[3] Aceitar essa visão torna o argumento do longoprazismo particularmente forte porque o facto de que pode existir um grande número de pessoas no futuro significa que melhorar as suas vidas e, crucialmente, garantir que essas vidas aconteçam, tem um valor enorme.[3][32]

Outros seres sencientes[editar | editar código-fonte]

O longoprazismo é frequentemente discutido em relação aos interesses das futuras gerações de humanos. No entanto, alguns proponentes do longo prazo também atribuem alto valor moral aos interesses de seres não humanos.[33] A partir desta perspetiva, defender o bem-estar animal pode ser uma área de causa de longoprazismo extremamente importante, porque uma norma moral de se preocupar com o sofrimento da vida não humana pode persistir por muito tempo se for generalizada.[23]

Taxa de desconto[editar | editar código-fonte]

O longoprazismo implica que devemos usar uma taxa de desconto social relativamente pequena ao considerar o valor moral do futuro distante. No modelo padrão de Ramsey usado em economia, a taxa de desconto social É dada por:

Onde é a elasticidade da utilidade marginal do consumo, é a taxa de crescimento e é uma quantidade que combina a "taxa de catástrofe" (descontando o risco de que os benefícios futuros não ocorram) e a preferência temporal pura (valorizando os benefícios futuros intrinsecamente menos do que os presentes). Ord argumenta que a preferência temporal pura diferente de zero é ilegítima, uma vez que as gerações futuras importam moralmente tanto quanto a geração presente. Além disso, aplica-se apenas a benefícios monetários, não a benefícios morais, uma vez que se baseia na diminuição da utilidade marginal do consumo. Assim, o único fator que deve afetar a taxa de desconto é a taxa de catástrofe, ou o nível de fundo de risco existencial.[6](241-245)

Em contraste, Andreas Mogensen argumenta que uma taxa positiva de preferência temporal pura pode ser justificada com base no parentesco. Ou seja, a moralidade do senso comum permite-nos ser parciais com aqueles mais intimamente relacionados connosco, de modo que "podemos permissivelmente ponderar o bem-estar de cada geração sucessiva menos do que o da geração anterior".[34](p9) Essa visão é chamada de temporalismo e afirma que "a proximidade temporal (...) fortalece certos deveres morais, inclusive o dever de salvar".[35]

Críticas[editar | editar código-fonte]

Falta de noção[editar | editar código-fonte]

Uma objeção ao longoprazismo é que ele baseia-se em previsões dos efeitos das nossas ações em horizontes de tempo muito longos, o que é difícil na melhor das hipóteses e impossível na pior.[36] Em resposta a esse desafio, investigadores interessados no longoprazismo têm procurado identificar eventos de "bloqueio de valor" - eventos, como a extinção humana, que podemos influenciar no curto prazo, mas que terão efeitos futuros previsíveis e duradouros.[37]

Despriorização de questões imediatas[editar | editar código-fonte]

Outra preocupação é que o longoprazismo pode levar à despriorização de questões mais imediatas. Por exemplo, alguns críticos argumentam que considerar o futuro da humanidade em termos dos próximos 10.000 ou 10 milhões de anos pode levar a minimizar os efeitos económicos de curto prazo das alterações climáticas.[38] Eles também preocupam-se que, ao especificar o objetivo final do desenvolvimento humano como "maturidade tecnológica", ou a subjugação da natureza e a maximização da produtividade económica, a visão de mundo de longoprazismo possa agravar a crise ambiental e justificar atrocidades em nome de atingir quantidades "astronómicas" de valor futuro. O antropólogo Vincent Ialenti argumentou que evitar isso exigirá que as sociedades adotem um “longoprazismo mais texturizado, multifacetado e multidimensional que desafie os silos de informação insulares e as câmaras de eco disciplinares”.[39]

Os defensores do longoprazismo respondem que os tipos de ações que são boas para o futuro de longo prazo geralmente também são boas para o presente.[3] Um exemplo disso é a preparação para pandemias. Preparar-se para as piores pandemias – aquelas que podem ameaçar a sobrevivência da humanidade – também pode ajudar a melhorar a saúde pública no presente. Por exemplo, financiar investigações e inovações em antivirais, vacinas e equipamentos de proteção individual, bem como pressionar governos para se prepararem para pandemias, pode ajudar a prevenir ameaças à saúde de menor escala para as pessoas hoje.[40]

Confiança em pequenas probabilidades de grandes recompensas[editar | editar código-fonte]

Uma outra objeção ao longoprazismo é que ele baseia-se em aceitar apostas de baixa probabilidade de pagamentos extremamente grandes, em vez de apostas mais certas de pagamentos mais baixos (desde que o valor esperado seja maior).[41][42] De uma perspetiva de longoprazismo, parece que se a probabilidade de algum risco existencial for muito baixa e o valor do futuro for muito alto, trabalhar para reduzir o risco, mesmo que em pequenas quantidades, tem um valor esperado extremamente alto. Uma ilustração desse problema é o assalto de Pascal, que envolve a exploração de um maximizador de valor esperado por meio da sua disposição de aceitar apostas tão baixas de probabilidade de grandes recompensas.[43]

Os defensores do longoprazismo adotaram uma variedade de respostas a essa preocupação, variando de morder a bala,[41] até aqueles a argumentar que o longoprazismo não precisa de depender de probabilidades minúsculas, pois as probabilidades de riscos existenciais estão dentro da faixa normal de riscos que as pessoas procuram mitigar - por exemplo, usar cinto de segurança em caso de acidente de carro.[42]

Ver também[editar | editar código-fonte]

Referências

  1. Moorhouse, Fin (27 de janeiro de 2021). «Introduction to Longtermism». Effective Altruism. Consultado em 13 de novembro de 2021 
  2. Samuel, Sigal (3 de novembro de 2021). «Would you donate to a charity that won't pay out for centuries?». Vox. Consultado em 13 de novembro de 2021 
  3. a b c d Greaves, Hilary; MacAskill, William (2021). «The case for strong longtermism». Global Priorities Institute Working Paper. 5. Cópia arquivada em 9 de julho de 2022 
  4. MacAskill, William (2022). What We Owe the Future. New York: Basic Books. ISBN 978-1-5416-1862-6 
  5. a b MacAskill, William (25 de julho de 2019). «Longtermism». Effective Altruism Forum. Arquivado do original em 1 de abril de 2020 
  6. a b c d e f g h i j Ord, Toby (2020). The Precipice: Existential Risk and the Future of Humanity. London: Bloomsbury Publishing. ISBN 1-5266-0021-8. OCLC 1143365836 
  7. Rowe, Thomas; Beard, Simon (2018). «Probabilities, methodologies and the evidence base in existential risk assessments» (PDF). Working Paper, Centre for the Study of Existential Risk. Consultado em 26 de agosto de 2018. Cópia arquivada (PDF) em 27 de agosto de 2018 
  8. Constitution of the Iroquois Nations, 1910.
  9. Lyons, Oren (outubro de 2004). «The Ice is Melting». Center for New Economics. Arquivado do original em 11 de maio de 2022 
  10. Samuel, Sigal (2 de julho de 2021). «What we owe to future generations». Vox. Consultado em 27 de novembro de 2021 
  11. «Our Mission». www.cser.ac.uk. Consultado em 28 de novembro de 2021 
  12. «About Us: Future of Humanity Institute». The Future of Humanity Institute (em inglês). Consultado em 28 de novembro de 2021 [ligação inativa] 
  13. «About us: what do we do, and how can we help?». 80,000 Hours (em inglês). Consultado em 28 de novembro de 2021 
  14. «Global Catastrophic Risks». Open Philanthropy (em inglês). 2 de março de 2016. Consultado em 28 de novembro de 2021 
  15. «Team». Future of Life Institute (em inglês). Consultado em 28 de novembro de 2021 
  16. «About Us – Forethought Foundation». Forethought Foundation for Global Priorities Research. 2022 
  17. a b c MacAskill, William (2022). What We Owe the Future. New York: Basic Books. ISBN 978-1-5416-1862-6 
  18. a b c Beckstead, Nick (2013). «Chapter 1.1.2: How could we affect the far future?». On The Overwhelming Importance of Shaping the Far Future. [S.l.]: New Brunswick Rutgers, The State University of New Jersey 
  19. Bostrom, Nick (2013). «Existential Risk Prevention as Global Priority». Global Policy. 4 (1): 15-31 
  20. Moorhouse, Fin (2021). «Longtermism - Frequently Asked Questions: Is longtermism asking that we make enormous sacrifices for the future? Isn't that unreasonably demanding?». Longtermism.com. Arquivado do original em 14 de julho de 2022 
  21. Cowen, Tyler (2018). Stubborn Attachments: A Vision for a Society of Free, Prosperous, and Responsible Individuals. [S.l.]: Stripe Press. ISBN 978-1732265134 
  22. John, Tyler M.; MacAskill, William (2021). «Longtermist institutional reform». In: Cargill. The Long View (PDF). UK: FIRST Strategic Insight. ISBN 978-0-9957281-8-9 
  23. a b Reese, Jacy (20 de fevereiro de 2018). «Why I prioritize moral circle expansion over reducing extinction risk through artificial intelligence alignment». Effective Altruism Forum 
  24. a b MacAskill, William (23 de maio de 2022). «Will MacAskill on balancing frugality with ambition, whether you need longtermism, and mental health under pressure». 80,000 Hours 
  25. a b Leslie Brown, Christopher (2006). Moral Capital: Foundations of British Abolitionism. [S.l.]: UNC Press. ISBN 978-0-8078-5698-7 
  26. Parfit, Derek (2011). On What Matters, Volume 2. Oxford: Oxford University Press. 611 páginas 
  27. a b c d MacAskill, William (2022). What We Owe the Future. New York: Basic Books. ISBN 978-1-5416-1862-6 
  28. a b c Moorhouse, Fin (2021). «Longtermism - Frequently Asked Questions: Isn't much of longtermism obvious? Why are people only just realising all this?». Longtermism.com. Arquivado do original em 14 de julho de 2022 
  29. MacAskill, William; Meissner, Darius (2022). «Utilitarianism and Practical Ethics – Longtermism: Expanding the Moral Circle Across Time». An Introduction to Utilitarianism. Arquivado do original em 16 de junho de 2022 
  30. Todd, Benjamin (2017). «Longtermism: the moral significance of future generations». 80,000 Hours 
  31. MacAskill, William (2022). What We Owe the Future. New York: Basic Books. ISBN 978-1-5416-1862-6 
  32. Malde, Jack (9 de março de 2021). «Possible misconceptions about (strong) longtermism: "Longtermists must be total utilitarians"». Effective Altruism Forum 
  33. Baumann, Tobias (2020). «Longtermism and animal advocacy». Center for Reducing Suffering. Arquivado do original em 14 de julho de 2022 
  34. Mogensen, Andreas (outubro de 2019). «'The only ethical argument for positive 𝛿'?» (PDF). Global Priorities Institute. Consultado em 30 de dezembro de 2021 
  35. Lloyd, Harry (2021). «Time discounting, consistency and special obligations: a defence of Robust Temporalism». Global Priorities Institute Working Paper. 11 
  36. Tarsney, Christian (2019). «The epistemic challenge to longtermism». GPI Working Paper. No. 10-2019 
  37. MacAskill, William (2021). «Are we living at the hinge of history?». Oxford University Press. Ethics and Existence: The Legacy of Derek Parfit 
  38. Torres, Phil (19 de outubro de 2021). Dresser, ed. «Why longtermism is the world's most dangerous secular credo». Aeon (em inglês). Consultado em 2 de novembro de 2021 [ligação inativa] 
  39. «Deep Time Reckoning». MIT Press (em inglês). Consultado em 14 de agosto de 2022 
  40. Lewis, Gregory (2020). «Risks of catastrophic pandemics». 80,000 Hours 
  41. a b Wilkinson, Hayden (2020). «In defence of fanaticism». Global Priorities Institute Working Paper. 4 
  42. a b Kokotajlo, Daniel (2018). «Tiny Probabilities of Vast Utilities: Concluding Arguments». Effective Altruism Forum 
  43. Bostrom, Nick (2009). «Pascal's mugging» (PDF). Analysis. 69 (3). doi:10.1093/analys/anp062 

Leitura adicional[editar | editar código-fonte]

Ligações externas[editar | editar código-fonte]