O Doomsday Argument é Válido?

Meu post sobre o Doomsday Argument gerou uma série de respostas que discutiam se o Doomsday argument é válido ou não. E se é verdadeiro ou não.
O post aqui
Proponho aqui uma formalização do argumento dividindo-o em premissas e conclusão, de maneira simplificada. Além dessas farei assunções, que não devem ser contestadas, mas assumidas. Aqueles que o consideram invalido são convidados a explicar porque a conclusão não segue das premissas. Aqueles que o consideram falso são convidados a pontuar quais das premissas não são verdade.

A1: A classe de referência do argumento será chamada de “seres humanos”
A2: O teorema de Bayes serve para estimar, dentre dois grupos hipotéticos e numerados de indivíduos, estimar de qual dos grupos vem um indivíduo, dado apenas o número do indivíduo e a informação de que ele foi selecionado aleatoriamente de um dos grupos.

P1: O Ranking aproximado de nascimento de um sujeito S1 vivendo no início do século 21 é 60 Bilhões. Ou seja, existiram 60 bilhões de pessoas antes do nascimento de S1.

P2: Não existe nenhuma razão, da perspectiva de S1 para que ele seja o 60 bilhões em oposição ao 12, ou ao 70 bilhões, etc… até onde ele pode avaliar, ele poderia muito bem ter sido o humano de qualquer outro ranking. Ou seja, ele é uma amostra aleatória, nem melhor nem pior do que o resto das pessoas que viveu e viverá.

P3: S1 pode, se quiser, se perguntar a respeito de quantos seres humanos haverá na história.

P4: S1 pode, se quiser, valer-se do dado de que ele é uma amostra aleatória do total de seres humanos que haverá na história para informar seu raciocínio.

P5: S1 pode se supor uma amostra aleatória para, através do uso do teorema de bayes, estimar quantas pessoas existirão ao longo da história.

C1: S1 pode estimar que a partir de uma probabilidade inicial igual de que haja poucos humanos e que haja muitos humanos, dado o seu ranking de nascimento, há maior chance de que haja poucos humanos do que que haja muitos. Se por exemplo S1 estimasse probabilidade inicial de 50% para 100 bilhões e 50% para 200 bilhões, após utilizar-se da informação de seu ranking de nascimento, a probabilidade de 100 bilhões aumentará e a probabilidade de 200 bilhões diminuirá. (esse argumento é válido para quaisquer dois números maiores do que 60 bilhões, ou para qualquer conjunto de números maiores que 60 bilhões, e portanto ele é considerado universalmente válido, mesmo que não tenhamos acesso empírico ao dado de quantos humanos haverá. )

C2: S1 deve portanto modificar sua crença a respeito de quantos humanos haverá ao todo para um número menor do que aquele do qual partiu, por causa da informação considerada (ranking).

P6: S1 sabe que novas pessoas são criadas (e.g. nascem) a cada ano, e assume que isso deve continuar acontecendo.

C3: S1 Conclui que deve re-situar a crença que tinha sobre o fim de sua espécie para um tempo mais próximo no futuro.

Que atire a primeira pedra aquele que acha inválido ou não verdadeiro o argumento do Juízo Final.

11 opiniões sobre “O Doomsday Argument é Válido?”

  1. Pelo menos uma das respostas da EDGE question desse ano foi sobre o Doomsday argument.

    ALEXANDER VILENKIN
    L. and J. Bernstein Professor in Evolutionary Science; Director, Institute of Cosmology, Tufts University; Author, Many Worlds in One

    AVOIDING DOOMSDAY

    The long-term prospects of our civilization here on Earth are very uncertain. We can be destroyed by an asteroid impact or a nearby supernova explosion, or we can self-destruct in a nuclear or bacteriological war. It is a matter of not if but when the disaster will strike, and the only sure way for humans to survive in the long run is to spread beyond the Earth and colonize the Galaxy. The problem is that our chances of doing that before we are wiped out by some sort of catastrophe appear to be rather bleak.

    The Doomsday argument

    The probability for a civilization to survive the existential challenges and colonize its galaxy may be small, but it is non-zero, and in a vast universe such civilizations should certainly exist. We shall call them large civilizations. There will also be small civilizations which die out before they spread much beyond their native planets.

    For the sake of argument, let us assume that small civilizations do not grow much larger than ours and die soon after they reach their maximum size. The total number of individuals who lived in such a civilization throughout its entire history is then comparable to the number of people who ever lived on Earth, which is about 400 billion people, 60 times the present Earth population.

    A large civilization contains a much greater number of individuals. A galaxy like ours has about 100 billion stars. We don’t know what fraction of stars have planets suitable for colonization, but with a conservative estimate of 0.01% we would still have about 10 million habitable planets per galaxy. Assuming that each planet will reach a population similar to that of the Earth, we get 4 million trillion individuals. (For definiteness, we focus on human-like civilizations, disregarding the planets inhabited by little green people with 1000 people per square inch.) The numbers can be much higher if the civilization spreads well beyond its galaxy. The crucial question is: what is the probability P for a civilization to become large?

    It takes 10 million (or more) small civilizations to provide the same number of individuals as a single large civilization. Thus, unless P is extremely small (less than one in 10 million), individuals live predominantly in large civilizations. That’s where we should expect to find ourselves if we are typical inhabitants of the universe. Furthermore, a typical member of a large civilization should expect to live at a time when the civilization is close to its maximum size, since that is when most of its inhabitants are going to live. These expectations are in a glaring conflict with what we actually observe: we either live in a small civilization or at the very beginning of a large civilization. With the assumption that P is not very small, both of these options are very unlikely – which indicates that the assumption is probably wrong.

    If indeed we are typical observers in the universe, then we have to conclude that the probability P for a civilization to survive long enough to become large must be very tiny. In our example, it cannot be much more than one in 10 million.

    This is the notorious “Doomsday argument”. First suggested by Brandon Carter about 35 years ago, it inspired much heated debate and has often been misinterpreted. In the form given here it was discussed by Ken Olum, Joshua Knobe, and me.

    Beating the odds

    The Doomsday argument is statistical in nature. It does not predict anything about our civilization in particular. All it says is that the odds for any given civilization to grow large are very low. At the same time, some rare civilizations do beat the odds.

    What distinguishes these exceptional civilizations? Apart from pure luck, civilizations that dedicate a substantial part of their resources to space colonization, start the colonization process early, and do not stop, stand a better chance of long-term survival.

    With many other diverse and pressing needs, this strategy may be difficult to implement, but this may be one of the reasons why large civilizations are so rare. And then, there is no guarantee. Only when the colonization is well underway, and the number of colonies grows faster than they are dying out, can one declare a victory. But if we ever reach this stage in colonization of our Galaxy, this would truly be a turning point in the history of our civilization.

    Where are they?

    One question that needs to be addressed is: why is our Galaxy not yet colonized? There are stars in the Galaxy that are billions of years older than our Sun, and it should take much less than a billion years to colonize the entire Galaxy. So, we are faced with Enrico Fermi’s famous question: Where are they? The most probable answer, in my view, is that we may be the only intelligent civilization in the entire observable universe.

    Our cosmic horizon is set by the distance that light has traveled since the big bang. It sets the absolute limit to space colonization, since no civilization can spread faster than the speed of light. There is a large number of habitable planets within our horizon, but are these planets actually inhabited? Evolution of life and intelligence require some extremely improbable events. Theoretical estimates (admittedly rather speculative) suggest that their probability is so low that the nearest planet with intelligent life may be far beyond the horizon. If this is really so, then we are responsible for a huge chunk of real estate, 80 billion light years in diameter. Our crossing the threshold to a space-colonizing civilization would then really change everything. It will make a difference between a “flicker” civilization that blinks in and out of existence and a civilization that spreads through much of the observable universe, and possibly transforms it.

  2. Vou ficar devendo um comentário mais substancial por agora, pois estou viajando. Se quiserem os outros podem comentar.
    Argumentando por cima, eu diria que o argumento não da nenhuma indicação de que a mudança que deve ser feita na nossa estimativa seja qualquer valor significante.

    Abraços

  3. Só para pontuar brevemente, se o João aceita que devamos fazer Alguma mudança na nossa estimativa, ele está aceitando o argumento. A questão do tamanho dessa mudança, e se ela é significativa ou não são questões secundárias. Mas aceitar uma mudança de estimativa, por menor que seja, apenas em função do seu ranking de nascimento já é, por definição, aceitar o argumento.

    A razão pela qual a mudança pode ter vários tamanhos é que podemos atribuir diversas prior probabilities para os conjuntos pequenos e grandes, e dependendo de nossa escolha (arbitrária) teremos uma modificação maior ou menor. Gott tentou uma formalização do argumento com uma Vague Prior Probability.

    Isso levou a seguinte resultado

    “The chance that the total number of humans that will ever be born (N) is greater than twenty times the total that have been is below 5%

    The use of a vague prior distribution seems well-motivated as it assumes as little knowledge as possible about N, given that any particular function must be chosen. It is equivalent to the assumption that the probability density of one’s fractional position remains uniformly distributed even after learning of one’s absolute position (n).

    Gott’s ‘reference class’ in his original 1993 paper was not the number of births, but the number of years ‘humans’ had existed as a species, which he put at 200,000. Also, Gott tried to give a 95% confidence interval between a minimum survival time and a maximum. Because of the 2.5% chance that he gives to underestimating the minimum he has only a 2.5% chance of overestimating the maximum. This equates to 97.5% confidence that extinction occurs before the upper boundary of his confidence interval.

    97.5% is one chance in forty, which can be used in the integral above with Z = 40n, and n = 200,000 years:

    P(N \leq 40[200000]) = \frac{39}{40}

    This is how Gott produces a 97.5% confidence of extinction within N ≤ 8,000,000 years.”

    Ainda assim, aceitarmos o resultado de Gott depende de outro fator arbitrário que é aceitar o início dos “humanos” há 200 mil anos. Ou seja, ele apenas reduz o número de “chutes” do uso do argumento e aumenta o número de “imprecisões”.

    Independentemente de tudo isso, o argumento continua valendo, ou seja, ele vale mesmo que as estimativas de Gott estejam erradas, mesmo que a mudança que devamos fazer seja “insignificante” segundo os critérios de Lourenço [2009 comment acima]. O argumento em si independe de sua relevância, se ele é relevante ( para o desenvolvimento do mundo, da bovespa ou da poli) ou não não está colocado em questão aqui.

  4. Já que o João concordou, vou postar um comentário.

    Poderíamos pensar tb que o ser humano tem uma linha de descendência ininterrupta com um ser que viveu há 3 bilhões de anos. A título de exemplo, é irrelevante quanto tempo o ser humano viveu como tal, pois no futuro ele pode mudar tanto ou mais quanto mudou no passado. Nesse caso os números seriam muito diferentes.

    Também não veria motivo para considerar a ordem de nascimento em vez do número de anos. Poderíamos considerar que o ser humano teve uma linha de descendência com 100 trilhões de antepassados, alguns discutivelmente com uma espectativa de vida de dias (no entanto, a espectativa de vida do ser humano futuro também poderá mudar logo), de forma que o número de anos parece um fator mais relevante que a ordem de nascimento. Então poderíamos calcular que o número mais provável a esperar que a descendência do ser humano sobreviva ainda é outros 3 bilhões de anos (mas se considerássemos a ordem de nascimento, poderíamos considerar um suposto número de mais 100 trilhões de descendentes, o que poderia se extender à eternidade com um aumento da expectativa de vida ou fim do envelhecimento).

  5. De uma maneira + ou – confusa o Jonatas pontua duas objeções interessantes, e válidas, a algumas consequências do Doomsday Argument (argumento em seguida que não afetam ele em sí)

    A primeira é o problema da classe de referência, se o ser humano tem uma linha ininterrupta de ascendência com um ser de 3 bilhões de anos de idade, isso sem dúvida deve mudar os cálculos do argumento. Entretanto, apenas se o tipo de observador do qual descendemos pertença a nossa classe de referência. Por exemplo, é bem estabelecido que descendemos de seres unicelulares, que estavam vivos há mais de 3 bilhões de anos, entretanto eles não são parte da nossa classe de referência, pois não queremos saber o dia do Doomsday dos protozoários, mas sim das “pessoas”. O Jonatas destaca o mesmo problema para o futuro, se um ser humano for modificado o suficiente, é possível que aquilo no que ele se tornou não seja parte da classe de referência, e portanto mesmo com o Doomsday das “pessoas” ainda sobrariam algum outro tipo de observador por aí. Nenhum desses pontos invalida ou machuca o argumento, mas ambos demonstram consequências possíveis de aceitá-lo. Em geral a razão pela qual não se aceita o argumento de que nos modificaremos muito é que a classe de referência é tomada como a dos seres inteligentes e conscientes, o que inclui qualquer forma mais “elevada” do que nós.

    A outra objeção, também válida, também inofensiva ao argumento é a de que a espectativa de vida pode aumentar e portanto o número de pessoas será bem baixo mesmo ao longo dos próximos 3 bilhões de anos. De fato, isso é possível (por exemplo com políticas de 2 filhos por mulher no máximo e expectativa de vida indefinida), ou seja ainda que o Doomsday seja válido e preveja claramente nossas probabilidades de passar um certo número, o que acontecerá não é uma destruição total, mas uma estabilidade total do número de individuos, isso é especialmente possível caso de fato não seja possível criar máquinas inteligentes e conscientes com tecido não biológico. Caso contrário, é difícil imaginar as razões pelas quais não criariamos 10¹⁰ pessoas assim que possível. (uma razão é que a Onu leia meu artigo e concorde comigo, mas talvez haja alguma mais realista….)
    🙂 abraços

  6. Eu não concordo com o doomsday argument e acho que seria meio chato e desdenhoso de minha parte não participar no tópico, mesmo sendo um assunto que eu ache chato.

    Minha crítica ao doomsday argument é estatística e acho que objeções de outra ordem não podem refutar o argumento, uma vez que ele é um argumento bem abstrato. Fundamentalmente acho que a inespecificidade do argumento, ie, o fato de o argumento não levar em conta nenhuma informação a respeito da natureza dos objetos tratados (no caso seres humanos, mas poderiam ser por exemplo, pares de sapato ou emoticons) poderia significar duas coisas, que o argumento é muito geral (como por exemplo o teorema central do limite), ou que toda a informação relevante a respeito dos objetos estará contida na distribuições a priori, que creio eu, seja este o caso.

    Minha objeção é sobre a suposição de que a distribuição a priori é uniforme, isto é, que a princípio a espécie em questão teria a mesma probabilidade de gerar 1, 10, 200 bilhões ou 200 trilhões de indivíduos ao longo de sua existência. Eu discordo, e acho que toda a informação a respeito da natureza dos objetos tratados (no caso seres humanos) entra justamente nesta distribuição a priori. É isto que distingue o doomsday argument de seres humanos do doomsday argument de átomos de hidrogênio (obviamente feito por um indivíduo de outra espécie). Supondo que seja razoável se falar de uma “distribuição de probabilidades do número máximo de indivíduos que uma civilização humana pode gerar”, de fato o doomsday argument seria válido utilizando esta tal distribuição, mas não creio que esta distribuição seja a distribuição uniforme, e não creio nem que a espécie humana tenha uma distribuição de probabilidades semelhante a de outros objetos, como outras espécies vivas por exemplo.

    Seria possível que a distribuição a priori dos seres humanos não importasse muito para a conclusão do argumento, isto é, mudaria apenas quantitativamente, mas não qualitativamente. Acho que se este for o caso falta ser demonstrado.
    A objeção da distribuição a priori consta no artigo da Wikipedia:
    http://en.wikipedia.org/wiki/Doomsday_argument#The_prior_N_distribution_may_make_n_very_uninformative

  7. Rend,
    O prior não é uniforme já que ele varia de observador para observador. A aposteriori tambem não é já que o DA tem de ter ao menos 1 individuo para entrar em funcionamento e ele sempre ira prever que o doosday vira na proxima geração e -da perspectiva deste primeiro individuo – a probabilidade de um individuo existir descresce assutadoramente conforme seu birth rank cresce. DA, errando desde Adão e Eva.

    Diego,
    Aceitar que é plausível adotar uma classe de referencia tão abrangente e diversa como a humanidade inteira leva inevitavelmente ao doomsday argument (DA). Entretanto leva também a outros absurdos como concluir que Adão formar a intenção de ter um filho caso uma gazela ferida não apareça fará a probabilidade de uma gazela ferida aparecer aumentar ou que um supercomputador adotar a decisão de produzir mais humanos caso raios gama ameacem aniquilar parte da humanidade fará a probabilidade dessa aniquilação acontecer diminuir (faço referencia, respectivamente ao Lazy Adam experiment, p10 e The UN++ gedanken p.18 citados neste artigo do Nick Bostrom: The Doomsday Argument, Adam & Eve, UN++, and Quantum Joe). A classe de referencia usada num raciocínio antropico é a classe que deve o mais rigorosamente possível corresponder aquela classe intuitiva de observadores que, tendo em mãos os mesmos fatos relevantes sobre o estado das coisas, são levados a tirar conclusões semelhantes a respeito do desencadeamento futuro dos eventos. O crescente avanço cientifico da humanidade – para não citar todas as outras radicais mudanças culturais – claramente mostra que é extremamente irrazoavel colocar a humanidade inteira na mesma classe de referencia no que diz respeito a prever a sua extinção. Isso seria afirmar que um homem do paleolítico acredita nos mesmos fatos acerca do mundo que o físico Roger Penrose ou o matemático Kurt Godel, por exemplo. Um observador pertence a mesma classe de referencia que outro se ele é subjetivamente indistinguível, nos aspectos relevantes ao problema em pauta, do primeiro. Se já é absurdo dizer que nas estimativas sobre a extinção da raça humana o homem das cavernas parte dos mesmos fatos que os fatos que Bostrom parte, imagina ainda quanto aburdo não é colocar uma futura superinteligencia artificial na mesma classe de referencia que a Tia Neusa.
    Me parece que o próprio Bostrom ve o DA mais como uma conclusão incomoda de formulações mal feitas da Self Sample Assumption do que propriamente um dado relavante: “I think that the doomsday argument is inconclusive” (. Anthropic Bias, p. 8 ) As razões para acreditar nisso eu acho que ele dá no decorrer do livro em vários momentos, por exemplo:

    “It should be pointed out that even if DA were basically correct, there would still be room for other interpretations of the result than that humankind is likely to go extinct soon. For example, one may think that:
    • The priors are so low that even after a substantial prohability shift in favor of earlier doom, we remain likely to survive for quite a while.
    • The size of the human population will decrease in the future; this reconciles DA with even extremely long survival of the human species.
    • Humans evolve (or we reengineer ourselves using advanced technology) into “posthumans”, who belong in a different ref-erence class than humans. Ali that DA would show in this case is that the posthuman transition is likely to happen before there have been vastly more humans than have lived to date.
    • There will be infinitely many humans, in which case it is unclear what DA amounts to. In some sense, each observer would be “infinitely early” if there are infinitely many.
    A better way of expressing what DA aims to show is therefore as a dis-junction of possibilities rather than as the simple statement “Doom will probably strike soon.” Of course, even this more ambiguous prediction would be a remarkable result from both a practical and a philosophical perspective.
    Bearing in mind that we understand by DA the general form of reasoning described in this chapter, one that is not necessarily wedded to the prediction that doomsday is impending, let us consider some objections from the recent literature.” (p. 107 )

    Ou ainda:

    “It pays to contrast this list of scientific applications with the various par-adoxical applications that we discussed in earlier chapters. Take the Doomsday argument. In order for it to work, one hás to assume that the beings who will exist in the distant future if humankind avoids going extinct soon will contain lots of observer-moments that are in the same reference class as one’s current observer-moment. If one thinks that far-future humans or human descendants will have quite different beliefs than we have, that they will be concerned with very different questions, and that their minds might even be implemented on some rather different (perhaps technologi-cally enhanced) neural or computational structures, then requiring that the observer-moments existing under such widely differing conditions are ali in the same reference class is to make a very strong assumption. The same can be said about the cases of Adam & Eve, UN*+, and Quantum Joe. These arguments will fail to persuade anybody who doesn’t use the particular kind of very inclusive reference class they rely on—indeed, reflecting on these arguments may well lead a reasonable person to adopt a more narrow reference class. Because they presuppose a very special shape of the indexical parts of one’s prior credence function, they are not scientifically rigorous. At best, they work as ad hominem arguments for those people who happen to accept the appropriate sort of reference class—but we are under no rational obligation to do so.” (p. 204 )

    Sem duvida é possível que o DA esteja certo e diga algo de relevante, mas dai é possível também a telecinese do Adão e do UN++, e isso é muito improvável, logo o DA é altamente improvável também.

    Abraços e boa vida eterna nos seios da super inteligencia.

  8. Obrigado pelos agradáveis desejos de vida eterna e superinteligência, que é sempre bem vinda.

    Separemos suas duas posições

    1 A classe de referência do Doomsday argument pode não ser a que imaginamos, mas ele está certo.

    2 O Doomsday argument leva a consequências absurdas, logo ele está errado.

    De início, é bom notar que essas objeções, ambas válidas, são incompatíveis entre si.

    Quanto a classe de referência, concordo ser uma questão em aberto, mas acho que você não entendeu o que é relevante, o Bostrom entendeu. Em particular, você não compreende que se eu retiro o homem do paleolítico da minha classe de referência isso PIORA o argumento. Noutras palavras, isso ajusta o Doomsday da minha classe de referência mais para perto.

    Você não entendeu, e insisto, o Bostrom entendeu, que o que interessa quando você estabelece a classe de referência não é nenhuma informação a respeito do mundo, mas sim quantas pessoas existem na sua classe. A informação que eu tenho sobre o mundo me serve para determinar a que classe de referência faço parte, mas uma vez que isso esteja determinado, a única coisa que interessa é quantos indivíduos há nessa classe de referência.

    As suposições do Bostrom de que ele pode ser válido e gerar coisas como imortais sem filhos, pós-humanos etc são soluções válidas, mas que não invalidam o argumento, são apenas uma consequência possível dele. Pessoalmente discordo que pós-humanos não estejam na classe de referência, salvo caso não sejam conscientes, concordo com as demais hipóteses.

    Quanto a segunda possibilidade, a saber:
    2 O Doomsday argument leva a consequências absurdas, logo ele está errado.

    Enviei minha resposta para isso para a revista Synthese, e acredito as consequências absurdas são do mundo que Bostrom postulou como possível, não do Doomsday.
    Ele alega:
    1 Que é absolutamente normal no mundo inventado ter filhos, simples como aqui na terra, na realidade, até mais fácil, sempre dá certo
    2 Que só existe Adão e Eva
    3 Que isso é normal, no sentido de que se pode considerar essa uma situação aleatória em relação as demais situações nesse mundo.

    Isso me parece absurdo. Sabemos, pelo Doomsday, que se você é um observador normal que se encontra num mundo com 2 pessoas, é improvável que esse mundo venha a ter muitas outras pessoas. Releia meu artigo e verá esse ponto com mais clareza.

  9. A classe de referencia estar errada é a razão pela qual o DA e os outros experimentos também dão errado. A classe de referencia abranger todos os humanos é a razão porque o Adão parece ter telecinese e é a razão de o UN++ parecer te causação anômala, pois nós nos botamos na mesma classe de referencia que o Adão e que o UN++, assim como também botamos o Adão apos ter filhos e ver que a gazela não passou também na mesma classe. Cade um desses constitui uma classe diferente, e assim cada um faz conclusões diversas e atribui probabilidades condicionais diversas.
    Se um birth rank existe, tem de existir o primeiro, logo Adão existe necessariamente.
    O cirterio de seleção da classe de referencia são as evidencias que um dado observador tem como dado sobre o mundo para atribuir uma certa probabilidade (isso o Bostrom fala repitidas vezes desda pagina 175 até o final do livro). Se o seu critério de conclusão for o mais geral possível, como é o caso do seu, você continua sem poder resolver problemas como o da big world cosmology (177-178). Ter ou não as mesmas evidencias relevantes sobre o mundo é o critério de seleção para entrar ou não na classe de referencia e é esse critério que determina quantos observadores pertencem ela.
    Se definirmos a classe de observadores de modo a separar observadores com diferentes evidencias sobre a extinção da sua classe (que não é mais a humanidade) o DA obtem total comprovação emprica uma vez que quanto mais estrita é a definição menor é a classe e mais provavel de ela ser extinta, o que é praticamente tautológico com o fato dela ter se tornado menor.
    Eu não disse o o que define a classe de referencia é uma informação do mundo, eu disse (e o Bostrom disse também) que o que define a classe de referencia são as informações relevantes que um observador tem (as informações podem até ser falsas, não importa) a cerca do mundo. Seja A o conjunto dos observadores da classe de referencia, h1, h2, h3,.. hn uma serie de hipóteses possíveis e E um conjunto de evidencias relevantes as hipóteses, x pertence a A se e somente se possui E como subconjunto da sua soma total de evidencias.

  10. Talvez, se eu estiver certo sobre o tempo não existir (senão como uma abstração cientificamente útil), Doomsday Argument, Self-sampling assumption, e similares não têm o poder de prever o futuro e a sua relação com o presente, pelo fato de não existir futuro. Logo, não poderíamos ser uma amostra aleatória de um conjunto que inclui o futuro.

    Poderíamos ser uma amostra aleatória de um conjunto restrito ao passado e ao presente? Essa é uma questão um pouco mais difícil. Como não existe tempo, não existe passado (o que talvez reduza a possibilidade de um tal cálculo estatístico ao presente apenas). A hora em que uma pergunta (como DA, SSA) é feita somente é possível num intervalo de tempo bem restrito, e só pode ser feita por um conjunto de observadores (classe de referência) bem restritos, tais como Nick Bostrom ou Diego Caleiro. Logo, quem faz a pergunta, e tenta calcular as chances de estar ali, é, de certa forma, parte de um conjunto bastante pequeno de observadores, e não poderia ser um dos outros observadores fora dessa classe, senão talvez teoricamente…

Deixe uma resposta

Preencha os seus dados abaixo ou clique em um ícone para log in:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair / Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair / Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair / Alterar )

Foto do Google+

Você está comentando utilizando sua conta Google+. Sair / Alterar )

Conectando a %s