Risco catastrófico global – Wikipédia, a enciclopédia livre

Impressão artística de um grande impacto de asteroide. Um asteroide com força de impacto de um bilhão de bombas atômicas pode ter causado a extinção dos dinossauros.[1]

Um risco catastrófico global é um evento futuro hipotético que pode danificar o bem-estar humano em escala global,[2] inclusive prejudicando ou destruindo a civilização moderna.[3] Um evento que poderia causar a extinção humana ou restringir permanentemente e drasticamente o potencial da humanidade é conhecido como um risco existencial.[4]

Os possíveis riscos catastróficos globais incluem riscos antropogênicos, causados por seres humanos (tecnologia, governança, mudanças climáticas) e riscos não antropogênicos ou externos.[3] Exemplos de riscos tecnológicos são inteligência artificial hostil e biotecnologia ou nanotecnologia destrutiva. Uma governança global insuficiente ou maligna cria riscos no domínio social e político, como uma guerra global, incluindo holocausto nuclear, bioterrorismo usando organismos geneticamente modificados, ciberterrorismo destruindo infraestruturas críticas como a rede elétrica; ou a falha em gerenciar uma pandemia natural. Problemas e riscos no domínio da governança do sistema terrestre incluem aquecimento global, degradação ambiental, incluindo extinção de espécies, fome como resultado de distribuição não equitativa de recursos, superpopulação humana, falhas de safra e agricultura não sustentável.

Exemplos de riscos não antropogênicos são um evento de impacto de asteroide, uma erupção supervulcânica, uma explosão letal de raios gama, uma tempestade geomagnética destruindo equipamentos eletrônicos, mudanças climáticas naturais a longo prazo, vida extraterrestre hostil ou o previsível Sol se transformando em um gigante vermelho estrela engolindo a terra.

Classificações[editar | editar código-fonte]

Grade de escopo/intensidade do artigo de Bostrom "Prevenção de riscos existenciais como prioridade global"[5]

Catastrófico global vs. existencial[editar | editar código-fonte]

Um "risco catastrófico global" é qualquer risco que tenha pelo menos um alcance "global" e que não seja subjetivamente "imperceptível" em intensidade. Aqueles que são pelo menos "transgeracionais" (afetando todas as gerações futuras) em escopo e "terminais"[necessário esclarecer] em intensidade são classificados como riscos existenciais. Embora um risco catastrófico global possa matar a grande maioria da vida na Terra, a humanidade ainda pode se recuperar potencialmente. Um risco existencial, por outro lado, é aquele que destrói a humanidade (e, presumivelmente, todas, exceto as espécies mais rudimentares de formas de vida não-humanas e/ou plantas), totalmente ou pelo menos impede qualquer chance de recuperação da civilização.[6]

Da mesma forma, em Catastrophe: Risk and Response, Richard Posner destaca e agrupa eventos que provocam "derrocada total ou ruína" em escala global, em vez de "local ou regional". Posner destaca esses eventos como dignos de atenção especial por razões de custo-benefício, porque eles poderiam comprometer direta ou indiretamente a sobrevivência da raça humana como um todo.[7] Os eventos de Posner incluem impactos de meteoros, aquecimento global descontrolado, gosma cinzenta, bioterrorismo e acidentes com aceleradores de partículas.

Os pesquisadores têm dificuldade em estudar diretamente perto da extinção humana, uma vez que a humanidade nunca foi destruída antes.[8] Embora isso não signifique que não será no futuro, dificulta a modelagem de riscos existenciais, devido em parte ao viés de sobrevivência. No entanto, civilizações desapareceram com bastante frequência na história humana.

Probabilidade[editar | editar código-fonte]

Alguns riscos são devidos a fenômenos que ocorreram no passado da Terra e deixaram um registro geológico. Juntamente com as observações contemporâneas, é possível fazer estimativas informadas da probabilidade de ocorrência desses eventos no futuro. Por exemplo, um evento de impacto de cometa ou asteroide no nível de extinção antes do ano 2100 foi estimado em um em um milhão.[9][10][necessário esclarecer] Supervulcões são outro exemplo. Existem vários supervulcões conhecidos, incluindo o Monte Toba, que alguns dizem quase exterminou a humanidade no momento de sua última erupção. Os registros geológicos sugerem que esse supervulcão em particular reaparece a cada 50.000 anos.[11][12][necessário esclarecer]

Sem o benefício de registros geológicos e observação direta, o perigo relativo representado por outras ameaças é muito mais difícil de calcular. Além disso, uma coisa é estimar a probabilidade de um evento ocorrer, outra coisa é avaliar a probabilidade de um evento causar extinção se ocorrer, e o mais difícil de tudo, o risco registrado pelos efeitos sinérgicos de vários eventos. simultaneamente.[carece de fontes?]

Dadas as limitações do cálculo e modelagem comuns, a elicitação de especialistas é frequentemente usada para obter estimativas de probabilidade.[13] Em 2008, uma pesquisa informal de especialistas sobre diferentes riscos catastróficos globais na Conferência Global de Riscos Catastróficos da Universidade de Oxford sugeriu uma chance de 19% de extinção humana até o ano 2100. O relatório da conferência adverte que os resultados devem ser tomados "com um grão de sal", os resultados não pretendiam capturar todos os grandes riscos e não incluíam coisas como as mudanças climáticas, e provavelmente refletem muitos preconceitos cognitivos dos participantes da conferência.[14]

Risco Probabilidade estimada

para extinção humana

antes de 2100

Probabilidade geral
19%
Armas de nanotecnologia molecular
5%
IA superinteligente
5%
Todas as guerras

(incluindo guerras civis)

4%
Pandemia projetada
2%
Guerra nuclear
1%
Acidente de nanotecnologia
0.5%
Pandemia natural
0.05%
Terrorismo nuclear
0.03%

Origem da tabela: Future of Humanity Institute, 2008.[15]

O relatório anual de 2016 da Global Challenges Foundation estima que um americano médio tem mais de cinco vezes mais chances de morrer durante um evento de extinção humana do que em um acidente de carro.[16][17]

Existem desafios metodológicos significativos na estimativa desses riscos com precisão. Foi dada muita atenção aos riscos para a civilização humana nos próximos 100 anos, mas a previsão para esse período de tempo é difícil. Os tipos de ameaças colocadas pela natureza têm sido relativamente constantes, embora isso tenha sido contestado[18] e novos riscos possam ser descobertos. Ameaças antropogênicas, no entanto, provavelmente mudarão drasticamente com o desenvolvimento de novas tecnologias; Embora os vulcões tenham sido uma ameaça ao longo da história, as armas nucleares têm sido um problema apenas desde o século XX. Historicamente, a capacidade dos especialistas em prever o futuro nesses prazos se mostrou muito limitada. Ameaças provocadas pelo homem, como guerra nuclear ou nanotecnologia, são mais difíceis de prever do que ameaças naturais, devido às dificuldades metodológicas inerentes às ciências sociais. Em geral, é difícil estimar a magnitude do risco desse ou de outros perigos, principalmente porque as relações internacionais e a tecnologia podem mudar rapidamente.

Os riscos existentes apresentam desafios únicos à previsão, ainda mais do que outros eventos de longo prazo, devido aos efeitos da seleção da observação. Ao contrário da maioria dos eventos, o fracasso de um evento completo de extinção ocorrer no passado não é uma evidência contra sua probabilidade no futuro, porque todo mundo que passou por esse evento de extinção não tem observadores; portanto, independentemente de sua frequência, nenhuma civilização observa. riscos existenciais em sua história.[8] Esses problemas antrópicos podem ser evitados observando evidências que não produzem efeitos de seleção, como crateras de impacto de asteroides na Lua ou avaliando diretamente o provável impacto de novas tecnologias.[5]

Além dos riscos conhecidos e tangíveis, podem ocorrer eventos imprevisíveis de extinção do cisne negro, apresentando um problema metodológico adicional.[19]

Importância moral do risco existencial[editar | editar código-fonte]

Alguns estudiosos são fortemente favoráveis à redução do risco existencial, alegando que ele beneficia muito as gerações futuras. Derek Parfit argumenta que a extinção seria uma grande perda, porque nossos descendentes poderiam sobreviver por quatro bilhões de anos antes que a expansão do Sol torne a Terra inabitável.[20][21] Nick Bostrom argumenta que existe um potencial ainda maior na colonização do espaço. Se os futuros seres humanos colonizarem o espaço, eles poderão suportar um número muito grande de pessoas em outros planetas, com duração potencial de trilhões de anos.[6] Portanto, reduzir o risco existencial em até uma pequena quantidade teria um impacto muito significativo no número esperado de pessoas que existirão no futuro.

O desconto exponencial pode tornar esses benefícios futuros muito menos significativos. No entanto, Jason Matheny argumentou que esse desconto é inadequado ao avaliar o valor da redução de risco existencial.[9]

Alguns economistas discutiram a importância dos riscos catastróficos globais, embora não existenciais. Martin Weitzman argumenta que a maioria dos danos econômicos esperados das mudanças climáticas pode vir da pequena chance de que o aquecimento exceda muito as expectativas de médio alcance, resultando em danos catastróficos.[22] Richard Posner argumentou que estamos fazendo muito pouco, em geral, sobre riscos pequenos e difíceis de estimar de catástrofes em larga escala.[23]

Inúmeros desvios cognitivos podem influenciar o julgamento das pessoas sobre a importância dos riscos existenciais, incluindo insensibilidade ao escopo, desconto hiperbólico, heurística de disponibilidade, falácia da conjunção, heurística de afetação e efeito de excesso de confiança.[24]

A insensibilidade do escopo influencia o quão ruim as pessoas consideram a extinção da raça humana. Por exemplo, quando as pessoas são motivadas a doar dinheiro para causas altruístas, a quantidade que estão dispostas a dar não aumenta linearmente com a magnitude da questão: as pessoas ficam tão preocupadas com cerca de 200.000 pássaros que ficam presos no petróleo quanto com 2.000.[25] Da mesma forma, as pessoas geralmente estão mais preocupadas com ameaças a indivíduos do que a grupos maiores.[24]

Existem razões econômicas que podem explicar por que tão pouco esforço está sendo gasto na redução de riscos existenciais. É um bem global; portanto, mesmo que uma nação grande o diminua, essa nação terá apenas uma pequena fração do benefício de fazê-lo. Além disso, a grande maioria dos benefícios pode ser desfrutada por gerações futuras muito distintas, e embora esses quatrilhões de pessoas futuras estariam, em teoria, talvez dispostos a pagar quantias massivas pela redução existencial de riscos, não existe mecanismo para essa transação.[5]

Fontes potenciais de risco[editar | editar código-fonte]

Algumas fontes de risco catastrófico são naturais, como impactos de meteoros ou supervulcões. Alguns deles causaram extinções em massa no passado. Por outro lado, alguns riscos são causados pelo homem, como aquecimento global,[26] degradação ambiental, pandemias projetadas e guerra nuclear.[27]

Antropogênico[editar | editar código-fonte]

O Projeto Cambridge da Universidade de Cambridge afirma que as "maiores ameaças" à espécie humana são criadas pelo homem; eles são inteligência artificial, aquecimento global, guerra nuclear e biotecnologia desonesta.[28] O Instituto Futuro da Humanidade também afirma que a extinção humana é mais provável de resultar de causas antropogênicas do que causas naturais.[5][29]

Inteligência artificial[editar | editar código-fonte]

Foi sugerido que o aprendizado de computadores que rapidamente se tornam superinteligentes pode executar ações imprevistas ou que os robôs superariam a humanidade (um cenário de singularidade tecnológica).[30] Devido à sua excepcional capacidade de programação e organização e à variedade de novas tecnologias que ele poderia desenvolver, é possível que a primeira superinteligência da Terra a surgir se torne rapidamente incomparável e sem rival: é concebível que seja capaz de produzir quase qualquer resultado possível e ser capaz de frustrar virtualmente qualquer tentativa que ameaçava impedi-lo de atingir seus objetivos.[31] Poderia eliminar, eliminando se escolhesse, qualquer outro intelecto rival desafiador; alternativamente, pode manipulá-los ou persuadi-los a mudar seu comportamento em relação aos seus próprios interesses, ou pode apenas obstruir suas tentativas de interferência.[31] Nesse sentido, a pesquisa no alinhamento da inteligência artificial aborda a necessidade de direcionar os sistemas de IA aos objetivos e interesses humanos. No livro de Nick Bostrom Superintelligence: Paths, Dangers, Strategies, o autor define isso como o problema de controle.[32] físico Stephen Hawking, Bill Gates, fundador da Microsoft, e Elon Musk, da SpaceX, ecoaram essas preocupações, com Hawking teorizando que essa IA poderia "significar o fim da raça humana".[33]

Em 2009, a Associação para o Avanço da Inteligência Artificial (AAAI) organizou uma conferência para discutir se computadores e robôs podem adquirir algum tipo de autonomia e quanto essas habilidades podem representar uma ameaça ou perigo. Eles observaram que alguns robôs adquiriram várias formas de semi-autonomia, incluindo a capacidade de encontrar fontes de energia por conta própria e a capacidade de escolher independentemente alvos para atacar com armas. Eles também observaram que alguns vírus de computador podem evitar a eliminação e alcançaram "inteligência de barata". Eles observaram que a autoconsciência retratada na ficção científica provavelmente é improvável, mas que havia outros perigos e armadilhas em potencial.[34] Várias fontes de mídia e grupos científicos observaram tendências separadas em diferentes áreas, que juntas podem resultar em maior funcionalidade e autonomia robótica e que apresentam algumas preocupações inerentes.[35][36]

Uma pesquisa com especialistas em IA estimou que a chance de o aprendizado de máquina no nível humano ter um efeito de longo prazo "extremamente ruim (por exemplo, extinção humana)" sobre a humanidade é de 5%.[37] Uma pesquisa de 2008 do Instituto Futuro da Humanidade estimou uma probabilidade de 5% de extinção por superinteligência em 2100.[14] Eliezer Yudkowsky acredita que os riscos da inteligência artificial são mais difíceis de prever do que quaisquer outros riscos conhecidos devido ao viés do antropomorfismo. Como as pessoas baseiam seus julgamentos de inteligência artificial em suas próprias experiências, ele afirma que subestimam o poder potencial da IA.[38]

Biotecnologia[editar | editar código-fonte]

A biotecnologia pode representar um risco catastrófico global na forma de organismos de engenharia biológica (vírus, bactérias, fungos, plantas ou animais). Em muitos casos, o organismo será um patógeno de seres humanos, gado, culturas ou outros organismos dos quais dependemos (por exemplo, polinizadores ou bactérias intestinais). No entanto, qualquer organismo capaz de perturbar catastroficamente as funções do ecossistema, por exemplo, ervas daninhas altamente competitivas, superando as culturas essenciais, apresenta um risco de biotecnologia.

Uma catástrofe biotecnológica pode ser causada pela liberação acidental de um organismo geneticamente modificado de ambientes controlados, pela liberação planejada de um organismo que acaba por ter interações imprevistas e catastróficas com agroecossistemas naturais ou naturais, ou pelo uso intencional de agentes biológicos em guerra biológica ou ataques de bioterrorismo.[39] Os patógenos podem ser modificados geneticamente intencionalmente ou não para alterar a virulência e outras características.[39] Por exemplo, um grupo de pesquisadores australianos alterou involuntariamente as características do vírus da varíola do rato enquanto tentava desenvolver um vírus para esterilizar roedores.[39] O vírus modificado tornou-se altamente letal, mesmo em camundongos vacinados e naturalmente resistentes.[40][41] É provável que os meios tecnológicos para modificar geneticamente as características do vírus se tornem mais amplamente disponíveis no futuro, se não forem adequadamente regulamentados.[39]

As aplicações terroristas da biotecnologia têm sido historicamente pouco frequentes. Até que ponto isso se deve à falta de capacidade ou motivação não é resolvido.[39] No entanto, dado o desenvolvimento atual, é esperado um maior risco de novos patógenos projetados no futuro.[39] O crescimento exponencial foi observado no setor de biotecnologia, e Noun e Chyba prevêem que isso levará a grandes aumentos nas capacidades biotecnológicas nas próximas décadas.[39] Eles argumentam que os riscos da guerra biológica e do bioterrorismo são distintos das ameaças nucleares e químicas, porque os patógenos biológicos são mais fáceis de produzir em massa e sua produção é difícil de controlar (especialmente porque as capacidades tecnológicas estão se tornando disponíveis mesmo para usuários individuais).[39] Em 2008, uma pesquisa do Instituto Futuro da Humanidade estimou uma probabilidade de 2% de extinção de pandemias projetadas até 2100.[14]

Noun e Chyba propõem três categorias de medidas para reduzir os riscos da biotecnologia e das pandemias naturais: regulamentação ou prevenção de pesquisas potencialmente perigosas, melhor reconhecimento de surtos e desenvolvimento de instalações para mitigar surtos de doenças (por exemplo, vacinas melhores e/ou mais amplamente distribuídas).[39]

Ataque cibernético[editar | editar código-fonte]

Ver artigo principal: Ciberterrorismo

Os ataques cibernéticos têm o potencial de destruir tudo, de dados pessoais a redes elétricas. Christine Peterson, cofundadora e ex-presidente do Foresight Institute, acredita que um ataque cibernético em redes elétricas tem o potencial de ser um risco catastrófico.[42]

Desastre ambiental[editar | editar código-fonte]

Um desastre ambiental ou ecológico, como a quebra da safra mundial e o colapso dos serviços ecossistêmicos, pode ser induzido pelas tendências atuais de superpopulação, desenvolvimento econômico[43] e agricultura não sustentável. A maioria dos cenários ambientais envolve um ou mais dos seguintes: evento de extinção do holoceno,[44] escassez de água que poderia levar a aproximadamente metade da população da Terra a não ter água potável, declínio de polinizadores, pesca excessiva, desmatamento em massa, desertificação, mudança climática, ou episódios maciços de poluição da água. Detectada no início do século XXI, uma ameaça nessa direção é o distúrbio do colapso das colônias,[45] um fenômeno que pode prever a extinção iminente[46] da abelha ocidental. Como a abelha desempenha um papel vital na polinização, sua extinção prejudicaria severamente a cadeia alimentar.

Um relatório de outubro de 2017 publicado no The Lancet afirmou que o ar, a água, os solos e os locais de trabalho tóxicos eram coletivamente responsáveis por 9 milhões de mortes em todo o mundo em 2015, principalmente devido à poluição do ar que estava ligada a mortes pelo aumento da suscetibilidade a doenças não infecciosas, como doença cardíaca, derrame e câncer de pulmão.[47] O relatório alertou que a crise da poluição estava excedendo "o envelope com a quantidade de poluição que a Terra pode carregar" e "ameaça a sobrevivência contínua das sociedades humanas".[47]

Acidente de tecnologia experimental[editar | editar código-fonte]

Nick Bostrom sugeriu que, na busca do conhecimento, a humanidade poderia criar inadvertidamente um dispositivo que poderia destruir a Terra e o Sistema Solar.[48] Investigações em física nuclear e de alta energia podem criar condições incomuns com consequências catastróficas. Por exemplo, os cientistas temiam que o primeiro teste nuclear pudesse inflamar a atmosfera.[49][50] Outros temiam que o RHIC[51] ou o Large Hadron Collider pudesse iniciar um desastre global de reação em cadeia envolvendo buracos negros, strangelets ou estados de vácuo falso. Essas preocupações específicas foram refutadas,[52][53][54][55] mas a preocupação geral permanece.

A biotecnologia pode levar à criação de uma guerra química pandêmica, pode ser levada ao extremo, a nanotecnologia pode levar a uma gosma cinzenta, na qual robôs auto-replicantes fora de controle consomem toda a matéria viva da Terra enquanto constroem mais de si mesmos - em ambos. deliberadamente ou por acidente.[56]

Aquecimento global[editar | editar código-fonte]

O aquecimento global refere-se ao aquecimento causado pela tecnologia humana desde o século XIX ou anterior. Projeções de mudanças climáticas futuras sugerem mais aquecimento global, aumento do nível do mar e aumento na frequência e gravidade de alguns eventos climáticos extremos e desastres relacionados ao clima. Os efeitos do aquecimento global incluem perda de biodiversidade, estresse nos sistemas de produção de alimentos existentes, aumento da disseminação de doenças infecciosas conhecidas como a malária e rápida mutação de microorganismos. Em novembro de 2017, uma declaração de 15.364 cientistas de 184 países indicou que os níveis crescentes de gases de efeito estufa decorrentes do uso de combustíveis fósseis, crescimento da população humana, desmatamento e uso excessivo de terra para produção agrícola, particularmente na agricultura de ruminantes para consumo de carne, estão em alta. maneiras que prevêem um aumento na miséria humana nas próximas décadas.[3]

Esgotamento de recursos minerais[editar | editar código-fonte]

O economista norte-americano romeno Nicholas Georgescu-Roegen, um progenitor em economia e fundador do paradigma da economia ecológica, argumentou que a capacidade de suporte da Terra - ou seja, a capacidade da Terra de sustentar populações humanas e níveis de consumo - deverá diminuir em algum momento no futuro como o estoque finito de recursos minerais da Terra está sendo atualmente extraído e colocado em uso; e conseqüentemente, que a economia mundial como um todo está caminhando para um colapso futuro inevitável, levando ao fim da própria civilização humana.[57]:303f economista ecológico e teórico do estado estacionário Herman Daly, estudante de Georgescu-Roegen, propôs o mesmo argumento afirmando que "...tudo o que podemos fazer é evitar desperdiçar a capacidade limitada da criação de apoiar os presentes e vida futura [na Terra]".[58]:370

Desde que Georgescu-Roegen e Daly publicaram essas opiniões, vários estudiosos da área discutem a impossibilidade existencial de alocar o estoque finito de recursos minerais da Terra igualmente entre um número desconhecido de gerações presentes e futuras. É provável que esse número de gerações permaneça desconhecido para nós, pois não há maneira - ou apenas uma maneira - de saber antecipadamente se ou quando a humanidade acabará enfrentando a extinção. De fato, qualquer alocação intertemporal concebível das ações inevitavelmente terminará em declínio econômico universal em algum momento futuro.[59]:253–256[60]:165[61]:168–171[62]:150–153[63]:106–109[64]:546–549[65]

Nanotecnologia[editar | editar código-fonte]

Muitas tecnologias em nanoescala estão em desenvolvimento ou atualmente em uso.[66] O único que parece representar um risco catastrófico global significativo é a fabricação molecular, uma técnica que tornaria possível a construção de estruturas complexas com precisão atômica.[67] A fabricação molecular requer avanços significativos na nanotecnologia, mas uma vez alcançada, poderia produzir produtos altamente avançados a baixos custos e em grandes quantidades em nanofábricas de proporções de mesa.[66][67] Quando as nanofábricas ganham a capacidade de produzir outras nanofábricas, a produção pode ser limitada apenas por fatores relativamente abundantes, como materiais de entrada, energia e software.[66]

A fabricação molecular poderia ser usada para produzir, entre muitos outros produtos, armas baratas e altamente avançadas e duráveis.[66] Ao serem equipados com computadores e motores compactos, eles podem ser cada vez mais autônomos e ter uma grande variedade de recursos.[66]

Chris Phoenix e Treder classificam os riscos catastróficos impostos pela nanotecnologia em três categorias:

  1. De aumentar o desenvolvimento de outras tecnologias, como IA e biotecnologia.
  2. Ao permitir a produção em massa de produtos potencialmente perigosos que causam dinâmica de risco (como corridas de armas), dependendo de como são usados.
  3. De processos auto-perpetuados não controlados com efeitos destrutivos.

Vários pesquisadores afirmam que a maior parte do risco da nanotecnologia vem do potencial de levar à guerra, à corrida armamentista e ao governo global destrutivo.[40][66][68] Várias razões foram sugeridas pelas quais a disponibilidade de armamento de nanotecnologia pode, com probabilidade significativa, levar a corridas instáveis de armas (em comparação com, por exemplo, corridas nucleares):

  1. Um grande número de jogadores pode ficar tentado a entrar na corrida, já que o limiar para isso é baixo;[66]
  2. A capacidade de fabricar armas com fabricação molecular será barata e fácil de esconder;[66]
  3. Portanto, a falta de conhecimento das capacidades das outras partes pode tentar os jogadores a se precaverem ou a fazer ataques preventivos;[66][69]
  4. A fabricação molecular pode reduzir a dependência do comércio internacional,[66] um potencial fator de promoção da paz;
  5. As guerras de agressão podem representar uma ameaça econômica menor para o agressor, uma vez que a fabricação é barata e os humanos podem não ser necessários no campo de batalha.[66]

Como a auto-regulação de todos os atores estatais e não estatais parece difícil de alcançar,[70] medidas para mitigar riscos relacionados à guerra foram propostas principalmente na área de cooperação internacional.[66][71] A infraestrutura internacional pode ser expandida, dando mais soberania ao nível internacional. Isso poderia ajudar a coordenar os esforços para o controle de armas. Instituições internacionais dedicadas especificamente à nanotecnologia (talvez analogamente à Agência Internacional de Energia Atômica AIEA) ou ao controle geral de armas também podem ser projetadas.[71] Pode-se também fazer progressos tecnológicos diferenciados em tecnologias defensivas, uma política que os jogadores geralmente devem favorecer.[66] O Centro de Nanotecnologia Responsável também sugere algumas restrições técnicas.[72] Maior transparência em relação às capacidades tecnológicas pode ser outro importante facilitador do controle de armas.

A gosma cinzenta é outro cenário catastrófico, proposto por Eric Drexler em seu livro de 1986, Engines of Creation[73] e tem sido um tema na grande mídia e ficção.[74][75] Esse cenário envolve pequenos robôs auto-replicantes que consomem toda a biosfera, usando-a como fonte de energia e componentes. Atualmente, no entanto, especialistas em nanotecnologia - incluindo Drexler - desacreditam o cenário. Segundo Phoenix, "a chamada gosma cinzenta só poderia ser o produto de um processo de engenharia deliberado e difícil, não um acidente".[76]

Guerra e destruição em massa[editar | editar código-fonte]

O pôster Liberty Bond de Joseph Pennell de 1918 evoca a imagem pictórica de uma Nova Iorque invadida e em chamas.

Os cenários que foram explorados com mais frequência são a guerra nuclear e os dispositivos do dia do juízo final. O lançamento errado de um ataque nuclear em resposta a um alarme falso é um cenário possível; isso quase aconteceu durante o incidente soviético de alarme falso nuclear de 1983. Embora a probabilidade de uma guerra nuclear por ano seja pequena, o professor Martin Hellman a descreve como inevitável a longo prazo; a menos que a probabilidade chegue a zero, inevitavelmente chegará o dia em que a sorte da civilização se esgotará.[77] Durante a crise dos mísseis cubanos, o presidente dos EUA, John F. Kennedy, estimou as chances de uma guerra nuclear em "algo entre um em cada três e até mesmo".[78] Os Estados Unidos e a Rússia têm um arsenal combinado de 14.700 armas nucleares,[79] e há um total estimado de 15.700 armas nucleares em todo o mundo.[79] Além da nuclear, outras ameaças militares à humanidade incluem a guerra biológica (BW). Por outro lado, é improvável que a guerra química, apesar de capaz de criar múltiplas catástrofes locais, crie uma global.

A guerra nuclear poderia gerar mortes sem precedentes em humanos e destruição de habitats. A detonação de um grande número de armas nucleares teria efeitos imediatos, de curto e de longo prazo no clima, causando clima frio e redução da luz solar e da fotossíntese[80] que podem gerar agitação significativa em civilizações avançadas.[81] No entanto, embora a percepção popular às vezes leve a guerra nuclear como "o fim do mundo", os especialistas atribuem baixa probabilidade à extinção humana da guerra nuclear.[82][83] Em 1982, Brian Martin estimou que uma troca nuclear EUA-Soviética poderia matar de 400 a 450 milhões diretamente, principalmente nos Estados Unidos, Europa e Rússia, e talvez centenas de milhões a mais por consequências subsequentes naquelas mesmas áreas.[82] Em 2008, uma pesquisa do Instituto Futuro da Humanidade estimou uma probabilidade de 4% de extinção da guerra em 2100, com 1% de chance de extinção da guerra nuclear.[14]

População mundial e crise agrícola[editar | editar código-fonte]

Ver também : Superpopulação

O século XX viu um rápido aumento da população humana devido a desenvolvimentos médicos e aumentos maciços na produtividade agrícola,[84] como a Revolução Verde.[85] Entre 1950 e 1984, quando a Revolução Verde transformou a agricultura em todo o mundo, a produção mundial de grãos aumentou 250%. A Revolução Verde na agricultura ajudou a produção de alimentos a acompanhar o crescimento da população mundial ou, de fato, permitir o crescimento da população. A energia para a Revolução Verde foi fornecida por combustíveis fósseis na forma de fertilizantes (gás natural), pesticidas (óleo) e irrigação por hidrocarbonetos.[86] David Pimentel, professor de ecologia e agricultura na Universidade de Cornell, e Mario Giampietro, pesquisador sênior do Instituto Nacional de Pesquisa sobre Alimentação e Nutrição (INRAN), definem em seu estudo de 1994 Alimentos, Terras, População e Economia dos EUA que o máximo de pessoas nos EUA para uma economia sustentável seja de 200 milhões. Para alcançar uma economia sustentável e evitar desastres, os Estados Unidos devem reduzir sua população em pelo menos um terço, e a população mundial terá que ser reduzida em dois terços, diz o estudo.[87]

Os autores deste estudo acreditam que a crise agrícola mencionada começará a afetar o mundo a partir de 2020 e se tornará crítica a partir de 2050. O geólogo Dale Allen Pfeiffer afirma que as próximas décadas poderão ver a espiral dos preços dos alimentos sem alívio e fome maciça. nível global como nunca experimentado antes.[88][89]

O trigo é o terceiro cereal mais produzido da humanidade. Infecções fúngicas existentes como Ug99[90] (um tipo de ferrugem do caule) podem causar 100% de perda de safra na maioria das variedades modernas. É possível pouco ou nenhum tratamento e a infecção se espalha pelo vento. Se as grandes áreas produtoras de grãos do mundo forem infectadas, a crise subsequente na disponibilidade de trigo levaria a picos de preços e escassez de outros produtos alimentícios.[91]

Não antropogênico[editar | editar código-fonte]

Impacto asteroide[editar | editar código-fonte]

Vários asteroides colidiram com a Terra na história geológica recente. O asteroide Chicxulub, por exemplo, tinha cerca de 10 quilômetros de diâmetro e, teoricamente, causou a extinção de dinossauros não aviários há 66 milhões de anos no final do Cretáceo. Atualmente, nenhum asteroide suficientemente grande existe em uma órbita de travessia da Terra; no entanto, um cometa de tamanho suficiente para causar a extinção humana pode impactar a Terra, embora a probabilidade anual possa ser inferior a 10-8.[92] geocientista Brian Toon estima que, embora algumas pessoas, como "alguns pescadores da Costa Rica", possam sobreviver de maneira plausível a um meteorito de 10 quilômetros, um meteorito de 160 quilômetros seria grande o suficiente para "incinerar todo mundo".[93] Asteroides com cerca de 1 km de diâmetro impactam a Terra em média uma vez a cada 500.000 anos; estes são provavelmente pequenos demais para representar um risco de extinção, mas podem matar bilhões de pessoas.[92][94] Asteroides maiores são menos comuns. Pequenos asteroides próximos à Terra são observados regularmente e podem impactar em qualquer lugar da Terra, prejudicando as populações locais.[95] Desde 2013, o Spaceguard estima ter identificado 95% de todos os NEOs ao longo de 1 km em tamanho.[96]

Em abril de 2018, a Fundação B612 informou: "É 100% certo de que seremos atingidos [por um asteroide devastador], mas não temos 100% de certeza de quando".[97][98] Também em 2018, o físico Stephen Hawking, em seu livro final Breves respostas às grandes perguntas, considerou uma colisão de asteroides a maior ameaça ao planeta.[99][100][101] Em junho de 2018, o Conselho Nacional de Ciência e Tecnologia dos EUA alertou que os EUA não estão preparados para um evento de impacto de asteroides e desenvolveu e lançou o "Plano de Ação da Estratégia Nacional de Preparação para Objetos Próximo à Terra" para melhor preparar.[102][103][104][105][106] De acordo com testemunhos de especialistas no Congresso dos Estados Unidos em 2013, a NASA exigiria pelo menos cinco anos de preparação antes que uma missão para interceptar um asteroide pudesse ser lançada.[107]

Ameaças cósmicas[editar | editar código-fonte]

Várias ameaças astronômicas foram identificadas. Objetos maciços, por exemplo, uma estrela, grande planeta ou buraco negro, podem ser catastróficos se ocorrer um encontro próximo no Sistema Solar. Em abril de 2008, foi anunciado que duas simulações de movimento planetário de longo prazo, uma no Observatório de Paris e outra na Universidade da Califórnia, Santa Cruz, indicam uma chance de 1% de que a órbita de Mercúrio possa ser instável pela força gravitacional de Júpiter. em algum momento durante a vida útil do sol. Se isso acontecesse, as simulações sugerem que uma colisão com a Terra poderia ser um dos quatro possíveis resultados (os outros sendo Mercúrio colidindo com o Sol, colidindo com Vênus ou sendo totalmente expulso do Sistema Solar). Se Mercúrio colidisse com a Terra, toda a vida na Terra poderia ser completamente obliterada: acredita-se que um asteroide de 15 km de largura tenha causado a extinção dos dinossauros não aviários, enquanto Mercúrio tem 4.879 km de diâmetro.[108]

Outra ameaça cósmica é uma explosão de raios gama, normalmente produzida por uma supernova quando uma estrela entra em colapso para dentro de si mesma e depois "salta" para fora em uma explosão maciça. Sob certas circunstâncias, acredita-se que esses eventos produzam explosões maciças de radiação gama emanando para fora do eixo de rotação da estrela. Se um evento desse tipo ocorrer orientado para a Terra, grandes quantidades de radiação gama podem afetar significativamente a atmosfera da Terra e representar uma ameaça existencial para toda a vida. Tal explosão de raios gama pode ter sido a causa dos eventos de extinção do Ordoviciano-Siluriano. Nem este cenário nem a desestabilização da órbita de Mercúrio são prováveis no futuro próximo.[109]

Uma forte erupção solar ou tempestade solar, que é uma diminuição ou aumento drástico e incomum na produção de energia solar, pode ter graves consequências para a vida na Terra.[110][111]

Se o nosso universo estiver dentro de um vácuo falso, uma bolha de vácuo de energia mais baixa pode vir a existir por acaso ou de outra forma em nosso universo, e catalisar a conversão do nosso universo para um estado de energia mais baixo em um volume que se expande quase à velocidade da luz, destruindo tudo o que sabemos sem aviso prévio. Tal ocorrência é chamada decaimento a vácuo.[112][113]

O resultado mais previsível para o futuro da Terra é a expansão do Sol em uma estrela gigante vermelha. O Sol terá cerca de 12 bilhões de anos e se expandirá para engolir Mercúrio e Vênus, atingindo um raio máximo de 1,2 unidades astronômicas (180.000.000 km). A Terra irá interagir de forma ordenada com a atmosfera externa do Sol, o que serviria para diminuir o raio orbital da Terra. O arrasto da cromosfera do Sol também reduziria a órbita da Terra. Esses efeitos agirão para contrabalançar o efeito da perda de massa pelo Sol, e a Terra provavelmente será tragada pelo Sol.[114]

Invasão extraterrestre[editar | editar código-fonte]

Ver artigo principal: Invasão alienígena

A vida extraterrestre inteligente, se existente, poderia invadir a Terra[115] para exterminar e suplantar a vida humana, escravizá-la sob um sistema colonial, roubar os recursos do planeta ou destruir o planeta completamente.

Embora a evidência de vida alienígena nunca tenha sido comprovada, cientistas como Carl Sagan postularam que a existência de vida extraterrestre é muito provável. Em 1969, a "Lei de Exposição Extra-Terrestre" foi adicionada ao Código de Regulamentos Federais dos Estados Unidos (Título 14, Seção 1211) em resposta à possibilidade de contaminação biológica resultante do Programa Espacial Apollo dos EUA. Foi removido em 1991.[116] Os cientistas consideram esse cenário tecnicamente possível, mas improvável.[117]

Um artigo do The New York Times discutiu as possíveis ameaças para a humanidade de enviar intencionalmente mensagens destinadas à vida extraterrestre no cosmos no contexto dos esforços do SETI. Várias figuras públicas de renome, como Stephen Hawking e Elon Musk, argumentaram contra o envio de tais mensagens, alegando que civilizações extraterrestres com tecnologia provavelmente são muito mais avançadas que a humanidade e podem representar uma ameaça existencial para a humanidade.[118]

Pandemia global[editar | editar código-fonte]

Numerosos exemplos históricos de pandemias[119] tiveram um efeito devastador em um grande número de pessoas. A atual escala e velocidade sem precedentes do movimento humano tornam mais difícil do que nunca conter uma epidemia por meio de quarentenas locais, e outras fontes de incerteza e a natureza evolutiva do risco significam que as pandemias naturais podem representar uma ameaça realista à civilização humana.[18]

Existem várias classes de argumento sobre a probabilidade de pandemias. Uma classe de argumento sobre probabilidade deriva da história das pandemias, onde o tamanho limitado das pandemias históricas é uma evidência de que pandemias maiores são improváveis. Este argumento foi contestado por vários motivos, incluindo o risco de mudança devido à mudança de padrões populacionais e comportamentais entre os seres humanos, o registro histórico limitado e a existência de um viés antrópico.[18]

Outro argumento sobre a probabilidade de pandemias é baseado em um modelo evolutivo que prevê que patógenos em evolução natural acabarão por desenvolver um limite superior à sua virulência.[120] Isso ocorre porque patógenos com virulência alta o suficiente matam rapidamente seus hospedeiros e reduzem suas chances de espalhar a infecção para novos hospedeiros ou portadores.[121] Este modelo tem limites, no entanto, porque a vantagem de uma virulência limitada é principalmente uma função de um número limitado de hospedeiros. Qualquer patógeno com alta virulência, alta taxa de transmissão e longo tempo de incubação já pode ter causado uma pandemia catastrófica antes que a virulência seja limitada por seleção natural. Além disso, um patógeno que infecta seres humanos como hospedeiro secundário e infecta principalmente outras espécies (uma zoonose) não possui restrições quanto à sua virulência nas pessoas, uma vez que as infecções secundárias acidentais não afetam sua evolução.[122] Por último, em modelos onde o nível de virulência e taxa de transmissão são ligadas, altos níveis de virulência pode evoluir.[123] virulência é limitada pela existência de populações complexas de hospedeiros com diferentes suscetibilidades à infecção ou por alguns hospedeiros serem geograficamente isolados.[120] O tamanho da população hospedeira e a competição entre diferentes cepas de patógenos também podem alterar a virulência.[124]

Nenhum desses argumentos é aplicável aos patógenos da bioengenharia, e isso representa riscos totalmente diferentes de pandemias. Os especialistas concluíram que "os desenvolvimentos em ciência e tecnologia podem facilitar significativamente o desenvolvimento e o uso de armas biológicas de alta consequência", e esses "patógenos de engenharia biológica altamente virulentos e altamente transmissíveis representam novas ameaças potenciais à pandemia".[125]

Mudança climática natural[editar | editar código-fonte]

Mudança climática refere-se a uma mudança duradoura no clima da Terra. O clima variou de eras glaciais a períodos mais quentes, quando as palmeiras cresceram na Antártica. Foi postulado que houve também um período chamado "bola de neve da Terra", quando todos os oceanos estavam cobertos por uma camada de gelo. Essas mudanças climáticas globais ocorreram lentamente, antes da ascensão da civilização humana cerca de 10 mil anos atrás, perto do final da última Era do Gelo Maior, quando o clima se tornou mais estável. No entanto, mudanças climáticas abruptas na escala da década ocorreram regionalmente. Como a civilização se originou durante um período de clima estável, uma variação natural em um novo regime climático (mais frio ou mais quente) poderia representar uma ameaça para a civilização.[126][127]

Na história da Terra, sabe-se que muitas eras glaciais ocorreram. Uma era glacial teria um sério impacto na civilização, porque vastas áreas de terra (principalmente na América do Norte, Europa e Ásia) poderiam se tornar inabitáveis. Atualmente, o mundo está em um período interglacial dentro de um evento glacial muito mais antigo. A última expansão glacial terminou cerca de 10.000 anos atrás, e todas as civilizações evoluíram depois disso. Os cientistas não preveem que uma era glacial natural ocorrerá tão cedo.[carece de fontes?]A quantidade de gases captadores de calor emitidos nos oceanos e na atmosfera da Terra impedirá a próxima era glacial, que de outra forma começaria em cerca de 50.000 anos e provavelmente mais ciclos glaciais.[128][129]

Vulcanismo[editar | editar código-fonte]

Um evento geológico como basalto maciço de inundação, vulcanismo ou erupção de um supervulcão[130] pode levar ao chamado inverno vulcânico, semelhante ao inverno nuclear. Um desses eventos, a erupção de Toba,[131] ocorreu na Indonésia há cerca de 71.500 anos atrás. De acordo com a teoria da catástrofe de Toba,[132] o evento pode ter reduzido as populações humanas para apenas algumas dezenas de milhares de indivíduos. A Caldera de Yellowstone é outro supervulcão, tendo sofrido 142 ou mais erupções na caldeira nos últimos 17 milhões de anos.[133] Uma erupção maciça do vulcão lançaria volumes extraordinários de poeira vulcânica, gases tóxicos e de efeito estufa na atmosfera, com sérios efeitos no clima global (em direção ao resfriamento global extremo: inverno vulcânico se for de curto prazo e idade do gelo se de longo prazo) ou aquecimento global (se os gases de efeito estufa prevalecerem).

Quando o supervulcão de Yellowstone entrou em erupção pela última vez, há 640.000 anos, as camadas mais finas das cinzas ejetadas da caldeira se espalharam pela maior parte dos Estados Unidos, a oeste do rio Mississippi e parte do nordeste do México. O magma cobriu grande parte do que é hoje o Parque Nacional de Yellowstone e se estendeu para além, cobrindo grande parte do solo desde o rio Yellowstone no leste até as quedas de Idaho no oeste, com alguns dos fluxos se estendendo para o norte além de Mammoth Springs.[134]

De acordo com um estudo recente, se a caldeira de Yellowstone entrar em erupção novamente como um supervulcão, uma camada de cinza de um a três milímetros de espessura poderá ser depositada em lugares tão distantes quanto Nova York, o suficiente para "reduzir a tração nas estradas e pistas, diminuir transformadores elétricos e causar Problemas respiratórios". Haveria centímetros de espessura em grande parte do centro-oeste dos EUA, o suficiente para atrapalhar as plantações e o gado, especialmente se isso acontecesse em um momento crítico da estação de crescimento. A cidade mais afetada provavelmente seria 109.000 habitantes em Billings, Montana, que o modelo previa que seriam cobertos com cinzas estimadas entre 1,03 e 1,8 metros de espessura.[135]

O principal efeito a longo prazo é a mudança climática global, que reduz a temperatura globalmente em cerca de 5 a 15 ºC por uma década, juntamente com os efeitos diretos dos depósitos de cinzas em suas culturas. Um grande supervulcão como Toba depositaria um ou dois metros de espessura de cinzas em uma área de vários milhões de quilômetros quadrados (1000 quilômetros cúbicos é equivalente a uma espessura de um metro de cinzas espalhadas por um milhão de quilômetros quadrados). Se isso acontecesse em alguma área agrícola densamente povoada, como a Índia, poderia destruir uma ou duas estações de cultivo para dois bilhões de pessoas.[136]

No entanto, Yellowstone não mostra sinais de supererupção no momento, e não é certo que uma supererupção futura ocorra lá.[137][138]

Pesquisa publicada em 2011 encontra evidências de que erupções vulcânicas maciças causaram combustão maciça de carvão, apoiando modelos para geração significativa de gases de efeito estufa. Pesquisadores sugeriram que erupções vulcânicas maciças através de leitos de carvão na Sibéria gerariam gases de efeito estufa significativos e causariam um efeito estufa descontrolado.[139] Erupções maciças também podem lançar detritos piroclásticos e outros materiais suficientes na atmosfera para bloquear parcialmente o sol e causar um inverno vulcânico, como aconteceu em menor escala em 1816 após a erupção do Monte Tambora, o chamado Ano Sem Verão. Tal erupção pode causar a morte imediata de milhões de pessoas a centenas de quilômetros da erupção, e talvez bilhões de mortes em todo o mundo, devido ao fracasso das monções,[140] resultando em grandes falhas de safra, causando fome em escala profunda.[140]

Um conceito muito mais especulativo é o verneshot: uma erupção vulcânica hipotética causada pelo acúmulo de gás nas profundezas de um craton. Tal evento pode ser forte o suficiente para lançar uma quantidade extrema de material da crosta e manto em uma trajetória sub-orbital.

Mitigação proposta[editar | editar código-fonte]

O gerenciamento planetário e o respeito aos limites planetários têm sido propostos como abordagens para a prevenção de catástrofes ecológicas. Dentro do escopo dessas abordagens, o campo da geoengenharia abrange a engenharia e manipulação deliberada em larga escala do ambiente planetário para combater ou neutralizar mudanças antropogênicas na química atmosférica. A colonização espacial é uma alternativa proposta para melhorar as chances de sobreviver a um cenário de extinção.[141] soluções deste escopo podem exigir engenharia em escala mega. O armazenamento de alimentos foi proposto globalmente, mas o custo monetário seria alto. Além disso, provavelmente contribuiria para os atuais milhões de mortes por ano devido à desnutrição.[142]

Alguns sobreviventes provêm retiros de sobrevivência com suprimentos alimentares de vários anos.

O Svalbard Global Seed Vault está enterrado a 400 pés (120 m) dentro de uma montanha em uma ilha no Ártico. Ele foi projetado para armazenar 2,5 bilhões de sementes de mais de 100 países como uma precaução para preservar as colheitas do mundo. A rocha circundante é −6 °C (21,2 °F) (a partir de 2015), mas o cofre é mantido em −18 °C (−0,4  °F) por refrigeradores alimentados a carvão local.[143][144]

Mais especulativamente, se a sociedade continuar funcionando e se a biosfera permanecer habitável, as necessidades calóricas para a população humana atual poderão, em teoria, ser atendidas durante uma ausência prolongada de luz solar, mediante planejamento prévio suficiente. As soluções conjeturadas incluem o cultivo de cogumelos na biomassa da planta morta deixada após a catástrofe, a conversão de celulose em açúcar ou a alimentação de gás natural a bactérias que digerem metano.[145][146]

Riscos catastróficos globais e governança global[editar | editar código-fonte]

Uma governança global insuficiente cria riscos no domínio social e político, mas os mecanismos de governança se desenvolvem mais lentamente do que as mudanças tecnológicas e sociais. Existem preocupações dos governos, do setor privado e do público em geral sobre a falta de mecanismos de governança para lidar eficientemente com riscos, negociar e julgar entre interesses diversos e conflitantes. Isso é ainda mais sublinhado pelo entendimento da interconectividade dos riscos sistêmicos globais.[147] Na ausência ou antecipação da governança global, os governos nacionais podem agir individualmente para melhor entender, mitigar e preparar as catástrofes globais.[148]

Planos de emergência climática[editar | editar código-fonte]

Em 2018, o Clube de Roma apresentou um plano ao Parlamento Europeu, exortando a enfrentar a ameaça existencial das mudanças climáticas com mais força, exigindo uma ação climática colaborativa.[149]

Organizações[editar | editar código-fonte]

O Boletim dos Cientistas Atômicos (est. 1945) é uma das mais antigas organizações de risco global, fundada depois que o público ficou alarmado com o potencial da guerra atômica após a Segunda Guerra Mundial. Ele estuda os riscos associados à guerra e energia nuclear e mantém o famoso Relógio do Dia do Juízo Final, criado em 1947. O Foresight Institute (est. 1986) examina os riscos da nanotecnologia e seus benefícios. Foi uma das primeiras organizações a estudar as consequências não intencionais de outras tecnologias inofensivas enlouquecidas em escala global. Foi fundada por K. Eric Drexler, que postulou "gosma cinzenta".[150][151]

A partir de 2000, um número crescente de cientistas, filósofos e bilionários da tecnologia criou organizações dedicadas ao estudo dos riscos globais, tanto dentro como fora da academia.[152]

As organizações não-governamentais independentes (ONGs) incluem o Machine Intelligence Research Institute (est. 2000), que visa reduzir o risco de uma catástrofe causada pela inteligência artificial,[153] com doadores como Peter Thiel e Jed McCaleb.[154] A Iniciativa de Ameaças Nucleares (est. 2001) procura reduzir as ameaças globais de ameaças nucleares, biológicas e químicas e a contenção de danos após um evento.[155] Mantém um índice de segurança de material nuclear.[156] A Lifeboat Foundation (est. 2009) financia pesquisas para prevenir uma catástrofe tecnológica.[157] A maioria dos fundos de pesquisa financia projetos em universidades.[158] O Global Catastrophic Risk Institute (est. 2011) é um grupo de reflexão para riscos catastróficos. É financiado pela ONG Empresários Sociais e Ambientais. A Global Challenges Foundation (est. 2012), com sede em Estocolmo e fundada por Laszlo Szombatfalvy, lança um relatório anual sobre o estado dos riscos globais.[16][17] O Instituto Future of Life (est. 2014) visa apoiar pesquisas e iniciativas para salvaguardar a vida, considerando novas tecnologias e desafios que a humanidade enfrenta.[159] Elon Musk é um dos seus maiores doadores.[160]

As organizações baseadas na universidade incluem o Instituto Futuro da Humanidade (est. 2005), que pesquisa as questões do futuro da humanidade a longo prazo, particularmente os riscos existenciais. Foi fundada por Nick Bostrom e está sediada na Universidade de Oxford. O Center for the Study of Existential Risk (est. 2012) é uma organização baseada em Cambridge que estuda quatro grandes riscos tecnológicos: inteligência artificial, biotecnologia, aquecimento global e guerra. Todos são riscos criados pelo homem, como Huw Price explicou à agência de notícias AFP: "Parece uma previsão razoável de que algum tempo neste ou no próximo século a inteligência escapará das restrições da biologia". Ele acrescentou que quando isso acontecer "não seremos mais as coisas mais inteligentes" e correrá o risco de ficar à mercê de "máquinas que não são maliciosas, mas de máquinas cujos interesses não nos incluem".[161] Stephen Hawking era um conselheiro interino. A Aliança do Milênio para a Humanidade e a Biosfera é uma organização da Universidade de Stanford, com foco em muitos assuntos relacionados à catástrofe global, reunindo membros de acadêmicos das ciências humanas.[162][163] Foi fundada por Paul Ehrlich, entre outros.[164] Universidade de Stanford também possui o Centro de Segurança e Cooperação Internacional, com foco na cooperação política para reduzir o risco catastrófico global.[165] O Centro de Segurança e Tecnologias Emergentes foi criado em janeiro de 2019 na Walsh School of Foreign Service de Georgetown e se concentrará na pesquisa de políticas de tecnologias emergentes, com ênfase inicial na inteligência artificial.[166] Eles receberam uma concessão de US$ 55 milhões da Good Ventures, conforme sugerido pelo Open Philanthropy Project.[166]

Outros grupos de avaliação de risco são baseados ou fazem parte de organizações governamentais. A Organização Mundial da Saúde (OMS) inclui uma divisão chamada Alerta e Resposta Global (GAR), que monitora e responde à crise epidêmica global.[167] GAR ajuda os Estados membros com treinamento e coordenação de resposta a epidemias.[168] A Agência dos Estados Unidos para o Desenvolvimento Internacional (USAID) tem seu Programa de Ameaças Pandêmicas Emergentes, que visa prevenir e conter pandemias geradas naturalmente em sua fonte.[169] O Laboratório Nacional Lawrence Livermore possui uma divisão chamada Diretoria Principal de Segurança Global, que pesquisa em nome do governo questões como biossegurança e contra-terrorismo.[170]

O longoprazismo - uma posição ética que prioriza a melhoria do futuro a longo prazo - é um conceito importante no altruísmo eficaz e serve como motivação para os esforços para reduzir os riscos existenciais para a humanidade.[171]

Ver também[editar | editar código-fonte]

Referências

  1. «The Chicxulub Asteroid Impact and Mass Extinction at the Cretaceous-Paleogene Boundary» (PDF). Science. 327: 1214–1218. Bibcode:2010Sci...327.1214S. PMID 20203042. doi:10.1126/science.1177265 
  2. Bostrom, Nick (2008). Global Catastrophic Risks (PDF). Oxford University Press. [S.l.: s.n.] 
  3. a b c Ripple WJ, Wolf C, Newsome TM, Galetti M, Alamgir M, Crist E, Mahmoud MI, Laurance WF. «World Scientists' Warning to Humanity: A Second Notice». BioScience. 67: 1026–1028. doi:10.1093/biosci/bix125 
  4. Bostrom. «Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards». Journal of Evolution and Technology. 9 
  5. a b c d Bostrom (2013). «Existential Risk Prevention as Global Priority» (PDF). Global Policy. 4: 15–3. doi:10.1111/1758-5899.12002 – via Existential Risk 
  6. a b Bostrom (2009). «Astronomical Waste: The opportunity cost of delayed technological development». Utilitas. 15: 308–314. doi:10.1017/s0953820800004076 
  7. Posner, Richard A. (2006). Catastrophe : risk and response. Oxford University Press. Oxford: [s.n.] ISBN 978-0195306477 , Introduction, "What is Catastrophe?"
  8. a b "Observation Selection Effects and Global Catastrophic Risks", Milan Cirkovic, 2008
  9. a b Matheny. «Reducing the Risk of Human Extinction» (PDF). Risk Analysis. 27: 1335–1344. PMID 18076500. doi:10.1111/j.1539-6924.2007.00960.x 
  10. «Earth in the cosmic shooting gallery» (PDF). The Observatory. 125: 319–322. 2005. Bibcode:2005Obs...125..319A 
  11. Ambrose 1998; Rampino & Ambrose 2000, pp. 71, 80.
  12. «Super eruptions as a threat to civilizations on Earth-like planets» (PDF). Icarus. 156: 562–569. 2002. Bibcode:2002Icar..156..562R. doi:10.1006/icar.2001.6808 
  13. «Probabilities, methodologies and the evidence base in existential risk assessments» (PDF). Working Paper, Centre for the Study of Existential Risk 
  14. a b c d Global Catastrophic Risks Survey, Technical Report, 2008, Future of Humanity Institute
  15. Global Catastrophic Risks Survey, Technical Report, 2008, Future of Humanity Institute
  16. a b Meyer, Robinson. «Human Extinction Isn't That Unlikely». Emerson Collective 
  17. a b «Global Challenges Foundation website». globalchallenges.org 
  18. a b c Manheim, David. «Questioning Estimates of Natural Pandemic Risk» 
  19. «Existential Risks: Exploring a Robust Risk Reduction Strategy» (PDF). Science and Engineering Ethics. 21: 541–54. PMID 24891130. doi:10.1007/s11948-014-9559-3 
  20. Parfit, Derek (1984). Reasons and Persons. Oxford University Press. [S.l.: s.n.] pp. 453–454 
  21. «Date set for desert Earth». BBC News Online 
  22. Weitzman. «On modeling and interpreting the economics of catastrophic climate change» (PDF). The Review of Economics and Statistics. 91: 1–19. doi:10.1162/rest.91.1.1 
  23. Posner, Richard (2004). Catastrophe: Risk and Response. Oxford University Press. [S.l.: s.n.] 
  24. a b «Cognitive Biases Potentially Affecting Judgment of Global Risks» (PDF). Global Catastrophic Risks: 91–119. Bibcode:2008gcr..book...86Y 
  25. Desvousges, W.H., Johnson, F.R., Dunford, R.W., Boyle, K.J., Hudson, S.P., and Wilson, N. 1993, Measuring natural resource damages with contingent valuation: tests of validity and reliability. In Hausman, J.A. (ed), Contingent Valuation:A Critical Assessment, pp. 91–159 (Amsterdam: North Holland).
  26. IPCC (11 November 2013): D. "Understanding the Climate System and its Recent Changes", in: Summary for Policymakers (finalized version) Arquivado em 2017-03-09 no Wayback Machine, in: IPCC AR5 WG1 2013, p. 13
  27. «Global Catastrophic Risks: a summary» 
  28. «'Terminator center' to open at Cambridge University». Fox News 
  29. «Frequently Asked Questions». Future of Humanity Institute 
  30. Bill Joy, Why the future doesn't need us. Wired magazine.
  31. a b Nick Bostrom 2002 "Ethical Issues in Advanced Artificial Intelligence"
  32. Bostrom, Nick. Superintelligence: Paths, Dangers, Strategies. [S.l.: s.n.] 
  33. «Microsoft's Bill Gates insists AI is a threat». BBC News 
  34. Scientists Worry Machines May Outsmart Man By JOHN MARKOFF, NY Times, July 26, 2009.
  35. Gaming the Robot Revolution: A military technology expert weighs in on Terminator: Salvation., By P. W. Singer, slate.com Thursday, May 21, 2009.
  36. robot page, engadget.com.
  37. «When Will AI Exceed Human Performance? Evidence from AI Experts». Journal of Artificial Intelligence Research. Bibcode:2017arXiv170508807G. arXiv:1705.08807Acessível livremente 
  38. Yudkowsky, Eliezer (2008). Artificial Intelligence as a Positive and Negative Factor in Global Risk. [S.l.: s.n.] Bibcode:2008gcr..book..303Y 
  39. a b c d e f g h i Ali Noun; Christopher F. Chyba (2008). «Chapter 20: Biotechnology and biosecurity». In: Bostrom; Cirkovic. Global Catastrophic Risks. Oxford University Press. [S.l.: s.n.] 
  40. a b «The five biggest threats to human existence». theconversation.com 
  41. «Expression of Mouse Interleukin-4 by a Recombinant Ectromelia Virus Suppresses Cytolytic Lymphocyte Responses and Overcomes Genetic Resistance to Mousepox». Journal of Virology. 75: 1205–1210. PMC 114026Acessível livremente. PMID 11152493. doi:10.1128/jvi.75.3.1205-1210.2001 
  42. UCLA Engineering. «Scholars assess threats to civilization, life on Earth». UCLA 
  43. Chiarelli. «Overpopulation and the Threat of Ecological Disaster: the Need for Global Bioethics». Mankind Quarterly. 39: 225–230 
  44. «Earth undergoing sixth 'mass extinction' as humans spur 'biological annihilation' of wildlife». The Telegraph 
  45. «Einstein was right - honey bee collapse threatens global food security». The Daily Telegraph 
  46. Lovgren, Stefan. "Mystery Bee Disappearances Sweeping U.S." National Geographic News. URL accessed March 10, 2007.
  47. a b «Global pollution kills 9m a year and threatens 'survival of human societies'». The Guardian 
  48. Bostrom 2002, section 4.8
  49. Richard Hamming (1998). «Mathematics on a Distant Planet». The American Mathematical Monthly. 105: 640–650. JSTOR 2589247. doi:10.1080/00029890.1998.12004938 
  50. «Report LA-602, Ignition of the Atmosphere With Nuclear Bombs» (PDF) 
  51. New Scientist, 28 August 1999: "A Black Hole Ate My Planet"
  52. Konopinski. «Ignition of the Atmosphere with Nuclear Bombs» (PDF) (Declassified February 1973) 
  53. "Statement by the Executive Committee of the DPF on the Safety of Collisions at the Large Hadron Collider." Arquivado em 2009-10-24 no Wayback Machine
  54. «Safety at the LHC». Cópia arquivada em 13 de maio de 2008 
  55. J. Blaizot et al., "Study of Potentially Dangerous Events During Heavy-Ion Collisions at the LHC", CERN library record CERN Yellow Reports Server (PDF)
  56. Eric Drexler, Engines of Creation, ISBN 0-385-19973-2, available online
  57. Georgescu-Roegen, Nicholas (1971). The Entropy Law and the Economic Process (Full book accessible in three parts at Scribd). Cambridge, Massachusetts: Harvard University Press. ISBN 978-0674257801.
  58. Daly, Herman E., ed. (1980). Economics, Ecology, Ethics. Essays Towards a Steady-State Economy (PDF contains only the introductory chapter of the book) (2nd ed.). San Francisco: W.H. Freeman and Company. ISBN 978-0716711780.
  59. Rifkin, Jeremy (1980). Entropy: A New World View (PDF). New York: The Viking Press. ISBN 978-0670297177. Archived from the original (PDF contains only the title and contents pages of the book) on 2016-10-18.
  60. Boulding, Kenneth E. (1981). Evolutionary Economics. Beverly Hills: Sage Publications. ISBN 978-0803916487.
  61. Martínez-Alier, Juan (1987). Ecological Economics: Energy, Environment and Society. Oxford: Basil Blackwell. ISBN 978-0631171461.
  62. Gowdy, John M.; Mesner, Susan (1998). "The Evolution of Georgescu-Roegen's Bioeconomics" (PDF). Review of Social Economy. 56 (2): 136–156. doi:10.1080/00346769800000016.
  63. Schmitz, John E.J. (2007). The Second Law of Life: Energy, Technology, and the Future of Earth As We Know It (Author's science blog, based on his textbook). Norwich: William Andrew Publishing. ISBN 978-0815515371.
  64. Kerschner, Christian (2010). "Economic de-growth vs. steady-state economy" (PDF). Journal of Cleaner Production. 18 (6): 544–551. doi:10.1016/j.jclepro.2009.10.019.
  65. Dirzo. «Defaunation in the Anthropocene» (PDF). Science. 345: 401–406. Bibcode:2014Sci...345..401D. doi:10.1126/science.1251817 
  66. a b c d e f g h i j k l m Chris Phoenix; Mike Treder (2008). «Chapter 21: Nanotechnology as global catastrophic risk». In: Bostrom; Cirkovic. Global catastrophic risks. Oxford University Press. Oxford: [s.n.] ISBN 978-0-19-857050-9 
  67. a b «Frequently Asked Questions - Molecular Manufacturing». foresight.org. Cópia arquivada em 26 de abril de 2014 
  68. «A Dialog on Dangers». foresight.org 
  69. «ENGINES OF DESTRUCTION (Chapter 11)». e-drexler.com 
  70. «Dangers of Molecular Manufacturing». crnano.org 
  71. a b «The Need for International Control». crnano.org 
  72. «Technical Restrictions May Make Nanotechnology Safer». crnano.org 
  73. Joseph, Lawrence E. (2007). Apocalypse 2012. Broadway. New York: [s.n.] ISBN 978-0-7679-2448-1 
  74. «Nanotech guru turns back on 'goo'». BBC News 
  75. Hapgood. «Nanotechnology: Molecular Machines that Mimic Life» (PDF). Omni 
  76. «Leading nanotech experts put 'grey goo' in perspective». crnano.org 
  77. «On the Probability of Nuclear War». Houston Post 
  78. Cohen, Avner; Lee, Steven (1986). Nuclear Weapons and the Future of Humanity: The Fundamental Questions. Rowman & Littlefield. Lanham, Maryland: [s.n.] ISBN 978-0847672585. gYmPp6lZqtMC 
  79. a b «Status of World Nuclear Forces». Federation of American Scientists 
  80. "Atmospheric effects and societal consequences of regional-scale nuclear conflicts and acts of individual nuclear terrorism", Atmospheric Chemistry and Physics
  81. Bostrom 2002, section 4.2.
  82. a b «Critique of nuclear extinction». Journal of Peace Research. 19: 287–300. doi:10.1177/002234338201900401 
  83. «Nuclear winter and human extinction: Q&A with Luke Oman». Overcoming Bias 
  84. «The end of India's green revolution?». BBC News 
  85. April 8th, 2000 by admin. «Food First/Institute for Food and Development Policy». Foodfirst.org 
  86. «How peak oil could lead to starvation» 
  87. «Eating Fossil Fuels». EnergyBulletin.net 
  88. The Oil Drum: Europe. «Agriculture Meets Peak Oil». Europe.theoildrum.com 
  89. "Drawing Momentum from the Crash" by Dale Allen Pfeiffer
  90. «Cereal Disease Laboratory : Ug99 an emerging virulent stem rust race». Ars.usda.gov 
  91. «Durable Rust Resistance in Wheat». Wheatrust.cornell.edu 
  92. a b Gehrels, Tom; Matthews, Mildred Shapley; Schumann, A. M. (1994). Hazards Due to Comets and Asteroids. University of Arizona Press (em inglês). [S.l.: s.n.] ISBN 9780816515059 
  93. «How Big Would A Meteorite Have To Be To Wipe Out All Human Life?». Popular Science (em inglês) 
  94. Bostrom 2002, section 4.10
  95. Rumpf, Clemens (20 de dezembro de 2016). Clemens Rumpf, Hugh Lewis. «Asteroid impact risk» (em inglês) 
  96. «Committee on Science, Space and Technology» (PDF). NASA 
  97. «Earth will be hit by asteroid with 100% CERTAINTY – space experts warn - EXPERTS have warned it is "100pc certain" Earth will be devastated by an asteroid as millions are hurling towards the planet undetected.». Daily Star 
  98. «Earth Will Be Hit By An Asteroid With 100 Percent Certainty, Says Space-Watching Group B612 - The group of scientists and former astronauts is devoted to defending the planet from a space apocalypse.». Inquisitr 
  99. «Stephen Hawking feared race of 'superhumans' able to manipulate their own DNA». The Washington Post 
  100. Haldevang, Max de. «Stephen Hawking left us bold predictions on AI, superhumans, and aliens». Quartz 
  101. «Comment - Better Way To Avoid Devastating Asteroids Needed?». The New York Times 
  102. Staff. «National Near-Earth Object Preparedness Strategy Action Plan» (PDF). White House 
  103. «America Isn't Ready to Handle a Catastrophic Asteroid Impact, New Report Warns». Gizmodo 
  104. Myhrvold. «An empirical examination of WISE/NEOWISE asteroid analysis and results». Icarus. 314: 64–97. Bibcode:2018Icar..314...64M. doi:10.1016/j.icarus.2018.05.004 
  105. «Asteroids and Adversaries: Challenging What NASA Knows About Space Rocks - Two years ago, NASA dismissed and mocked an amateur's criticisms of its asteroids database. Now Nathan Myhrvold is back, and his papers have passed peer review.». The New York Times 
  106. «Asteroids and Adversaries: Challenging What NASA Knows About Space Rocks - Relevant Comments». The New York Times 
  107. U.S.Congress. «Threats From Space: a Review of U.S. Government Efforts to Track and mitigate Asteroids and Meteors (Part I and Part II) – Hearing Before the Committee on Science, Space, and Technology House of Representatives One Hundred Thirteenth Congress First Session» (PDF). United States Congress 
  108. Ken Croswell, Will Mercury Hit Earth Someday?, Skyandtelescope.com April 24, 2008, accessed April 26, 2008
  109. Bostrom 2002, section 4.7
  110. Lassen (2013). «Is livestock production prepared for an electrically paralysed world?». J Sci Food Agric. 93: 2–4. PMID 23111940. doi:10.1002/jsfa.5939 
  111. «Gravitational effects on and of vacuum decay» (PDF). Physical Review D. D21 (12): 3305–3315. Bibcode:1980PhRvD..21.3305C. doi:10.1103/PhysRevD.21.3305 
  112. M.S. Turner. «Is our vacuum metastable?» (PDF). Nature. 298: 633–634. Bibcode:1982Natur.298..633T. doi:10.1038/298633a0 
  113. M. Tegmark. «Is a doomsday catastrophe likely?» (PDF). Nature. 438. 754 páginas. Bibcode:2005Natur.438..754T. PMID 16341005. doi:10.1038/438754a 
  114. «Evolution of low- and intermediate-mass stars to the end of the asymptotic giant branch with mass loss». The Astrophysical Journal. 413. 1993. Bibcode:1993ApJ...413..641V. doi:10.1086/173033 
  115. Twenty ways the world could end suddenly Arquivado em 2004-09-24 no Wayback Machine, Discover Magazine
  116. Urban Legends Reference Pages: Legal Affairs (E.T. Make Bail)
  117. Bostrom 2002, section 7.2
  118. «Greetings, E.T. (Please Don't Murder Us.)». The New York Times (em inglês). ISSN 0362-4331 
  119. «Near Apocalypse Causing Diseases, a Historical Look». postapocalypticsurvival.com 
  120. a b Frank SA. «Models of parasite virulence» (PDF). Q Rev Biol. 71: 37–78. PMID 8919665. doi:10.1086/419267 
  121. Brown NF, Wickham ME, Coombes BK, Finlay BB. «Crossing the Line: Selection and Evolution of Virulence Traits». PLoS Pathogens. 2: e42. PMC 1464392Acessível livremente. PMID 16733541. doi:10.1371/journal.ppat.0020042 
  122. Gandon S. «Evolution of multihost parasites». Evolution. 58: 455–69. PMID 15119430. doi:10.1111/j.0014-3820.2004.tb01669.x 
  123. Ebert D, Bull JJ. «Challenging the trade-off model for the evolution of virulence: is virulence management feasible?». Trends Microbiol. 11: 15–20. PMID 12526850. doi:10.1016/S0966-842X(02)00003-3 
  124. André JB, Hochberg ME. «Virulence evolution in emerging infectious diseases». Evolution. 59: 1406–12. PMID 16153027. doi:10.1554/05-111 
  125. [1] "Powerful actor, high impact bio-threats. Wilton Park. Wednesday 7 – Friday 9 November 2018"
  126. Haines. «Climate change and human health: Impacts, vulnerability and public health». Public Health (em English). 120: 585–596. ISSN 0033-3506. PMID 16542689. doi:10.1016/j.puhe.2006.01.002 
  127. Epstein. «Climate Change and Human Health». New England Journal of Medicine (em inglês). 353: 1433–1436. ISSN 0028-4793. PMC 2636266Acessível livremente. PMID 16207843. doi:10.1056/nejmp058079 
  128. «Global Warming Good News: No More Ice Ages». LiveScience. 2007 
  129. «Human-made climate change suppresses the next ice age». Potsdam Institute for Climate Impact Research in Germany. 2016 
  130. Kate Ravilious. «What a way to go». The Guardian 
  131. 2012 Admin. «Toba Supervolcano». 2012 Final Fantasy 
  132. Science Reference. «Toba Catastrophe Theory». Science Daily 
  133. Greg Breining (10 de novembro de 2007). «The Next Big Blast». Super Volcano: The Ticking Time Bomb Beneath Yellowstone National Park. MBI Publishing Company. [S.l.: s.n.] ISBN 978-1-61673-898-3 
  134. Greg Breining (10 de novembro de 2007). «Distant Death». Super Volcano: The Ticking Time Bomb Beneath Yellowstone National Park. MBI Publishing Company. [S.l.: s.n.] ISBN 978-1-61673-898-3 
  135. «Modeling the Ash Distribution of a Yellowstone Supereruption». USGS Volcanic Observatory 
  136. «Extreme Geohazards: Reducing the Disaster Risk and Increasing Resilience» (PDF). European Space Foundation 
  137. «Questions About Future Volcanic Activity at Yellowstone». USGA Volcanic Observatory FAQ 
  138. «Steam Explosions, Earthquakes, and Volcanic Eruptions—What's in Yellowstone's Future?». USGS Yellowstone Volcanic Observatory. O USGS coloca assim: "Se outra grande erupção formadora de caldeira ocorresse em Yellowstone, seus efeitos seriam mundiais. Depósitos de cinzas densos enterrariam vastas áreas dos Estados Unidos e injeção de grandes volumes de gases vulcânicos na atmosfera. poderia afetar drasticamente o clima global. Felizmente, o sistema vulcânico de Yellowstone não mostra sinais de que está caminhando para uma erupção desse tipo. A probabilidade de uma grande erupção de formação de caldeira nos próximos milhares de anos é extremamente baixa". 
  139. «World's biggest extinction event: Massive volcanic eruption, burning coal and accelerated greenhouse gas choked out life -- ScienceDaily». Https 
  140. a b Breining, Greg (2007). «The Next Big Blast». Super Volcano: The Ticking Time Bomb Beneath Yellowstone National Park. Voyageur Press. St. Paul, MN.: [s.n.] ISBN 978-0-7603-2925-2 
  141. «Mankind must abandon earth or face extinction: Hawking», physorg.com, 9 de agosto de 2010, consultado em 23 de janeiro de 2012 
  142. Smil, Vaclav (2003). The Earth's Biosphere: Evolution, Dynamics, and Change. MIT Press. [S.l.: s.n.] ISBN 978-0-262-69298-4 
  143. Lewis Smith. «Doomsday vault for world's seeds is opened under Arctic mountain». The Times Online 
  144. Suzanne Goldenberg. «The doomsday vault: the seeds that could save a post-apocalyptic world». The Guardian 
  145. «Here's how the world could end—and what we can do about it». Science | AAAS (em inglês) 
  146. «Feeding everyone: Solving the food crisis in event of global catastrophes that kill crops or obscure the sun». Futures. 72: 57–68. doi:10.1016/j.futures.2014.11.008 
  147. «Global Challenges Foundation | Understanding Global Systemic Risk». globalchallenges.org (em inglês) 
  148. «Global Catastrophic Risk Policy |». gcrpolicy.com (em inglês) 
  149. Club of Rome (2018). «The Club of Rome Launches Its Climate Emergency Plan At The European Parliament» 
  150. Fred Hapgood. «Nanotechnology: Molecular Machines that Mimic Life» (PDF). Omni 
  151. «Nanotech takes small step towards burying 'grey goo'». Nature. 429. 591 páginas. 2004. Bibcode:2004Natur.429..591G. PMID 15190320. doi:10.1038/429591b 
  152. Sophie McBain. «Apocalypse soon: the scientists preparing for the end times». New Statesman 
  153. «Reducing Long-Term Catastrophic Risks from Artificial Intelligence». Machine Intelligence Research Institute. The Machine Intelligence Research Institute aims to reduce the risk of a catastrophe, should such an event eventually occur. 
  154. Angela Chen. «Is Artificial Intelligence a Threat?». The Chronicle of Higher Education 
  155. «Nuclear Threat Initiative» 
  156. Alexander Sehmar. «Isis could obtain nuclear weapon from Pakistan, warns India». The Independent 
  157. «About the Lifeboat Foundation». The Lifeboat Foundation 
  158. Ashlee Vance. «The Lifeboat Foundation: Battling Asteroids, Nanobots and A.I.». New York Times 
  159. «The Future of Life Institute» 
  160. Nick Bilton. «Ava of 'Ex Machina' Is Just Sci-Fi (for Now)». New York Times 
  161. Hui, Sylvia. «Cambridge to study technology's risks to humans». Associated Press 
  162. Scott Barrett (2014). Environment and Development Economics: Essays in Honour of Sir Partha Dasgupta. Oxford University Press. [S.l.: s.n.] ISBN 9780199677856 
  163. «Millennium Alliance for Humanity & The Biosphere». Millennium Alliance for Humanity & The Biosphere 
  164. Guruprasad Madhavan (2012). Practicing Sustainability. Springer Science & Business Media. [S.l.: s.n.] ISBN 9781461443483 
  165. «Center for International Security and Cooperation». Center for International Security and Cooperation 
  166. a b https://www.facebook.com/profile.php?id=1216916378. «Georgetown launches think tank on security and emerging technology». Washington Post (em inglês) 
  167. «Global Alert and Response (GAR)». World Health Organization 
  168. Kelley Lee (2013). Historical Dictionary of the World Health Organization. Rowman & Littlefield. [S.l.: s.n.] ISBN 9780810878587 
  169. «USAID Emerging Pandemic Threats Program». USAID. Cópia arquivada em 22 de outubro de 2014 
  170. «Global Security». Lawrence Livermore National Laboratory 
  171. Panzer, Christian; MacAskill, William (14 de junho de 2021). «The case for strong longtermism». Global Priorities Institute (em inglês). Consultado em 23 de agosto de 2022 

Leitura adicional[editar | editar código-fonte]

  • Schuster, Joshua; Woods, Derek (2021). Calamity Theory: Three Critiques of Existential Risk (em inglês). [S.l.]: University of Minnesota Press 

Ligações externas[editar | editar código-fonte]