Arquivo da categoria: Filosofia Analítica

Aos Bixos da Filosofia USP de 2010, 2011, e de todos os anos que virão

Essa é a versão escrita de uma pequena apresentação do grupo de filosofia analítica que fiz para os bixos 2010.

Uma perspectiva pessoal sobre a Filosofia Analítica: Quando entrei aqui na filosofia eu achava, aliás, tinha certeza, que todas as pessoas que entram na filosofia entram movidas por um profundo desejo de entender a natureza da realidade, de ter um contato profundo com o que se sabe de mais profundo e preciso sobre a natureza do mundo. Eu acreditava que o que eu encontraria aqui no departamento seriam as mais novas idéias tidas nos últimos 10 anos sobre o que é o mundo, como ele funciona, e como o nosso conhecimento pode ou não acessar isso.

Descobri, ao longo do primeiro ano, duas coisas. A primeira é que não é a maioria das pessoas que chega aqui que têm esse objetivo, aliás, os mais distintos objetivos trazem pessoas para a Filo USP.

A segunda é que existem outras faculdades em que, por alguma razão, era justamente aquilo que eu acreditava que era estudado. Nessas faculdades, os estudos eram sempre atualizados, as questões em pauta diziam respeito a natureza da realidade, do mundo, da mente, da ética etc…. E o foco era ensinar os alunos a pensar sobre essas questões eles mesmos, e a produzir seus próprios textos e livros sobre essas questões, ou seja, estavam formando filósofos de produção, não historiadores da filosofia. Os lugares que faziam isso eram chamados departamentos de filosofia Analítica.

Acho que a principal razão que me traz aqui hoje é o medo de que haja alguma outra pessoa perdida como eu estava naquele dia aqui hoje, e que ela tenha que enfrentar toda a dificuldade que eu enfrentei de entender a diferença entre o que ela esperava e o que, por acaso, por razões históricas, ocorre aqui. Imagino que aconteça o problema contrário em departamentos de analítica, um monte de alunos perplexos com aqueles textos de 2009 sobre filosofia da física, lógica, a natureza da matéria, a mente humana, e eles esperando uma reflexão mais aprofundada sobre Aristóteles, Spinoza, ou o comentário de Deleuze a Kant.

Meu convite pessoal então, apesar de válido para todos que quiserem conhecer a filosofia analítica, é principalmente para esses perdidos, que nem sabiam que aqui no Departamento se estuda história da filosofia.

Mas afinal, o que é a filosofia analítica: É mais fácil falar antes do que ela não é. Isto é filosofia continental.

Na wikipedia:

Filosofia continental é uma expressão criada originalmente pelos filósofos analíticos anglófonos, principalmente estadunidenses e britânicos, para descrever várias tradições filosóficas procedentes da Europa continental, principalmente da Alemanha e da França.

A expressão compreende, de maneira bastante vaga:

  • A fenomenologia de Edmund Husserl ou Maurice Merleau-Ponty
  • A ontologia fundamental de Martin Heidegger
  • A psicanálise de Sigmund Freud ou Jacques Lacan
  • O existencialismo de Jean-Paul Sartre
  • Diversas correntes do marxismo
  • O estruturalismo em ciências humanas inspirado por Claude Lévi-Strauss ou Michel Foucault
  • A semiologia de Algirdas Julien Greimas ou Roland Barthes
  • A hermenêutica de Hans-Georg Gadamer ou Paul Ricoeur
  • A desconstrução de Jacques Derrida
  • O feminismo
  • A teoria crítica da Escola de Frankfurt

O termo é utilizado sobretudo para descrever uma atividade filosófica por contraste com a filosofia analítica. É mais popular nas ciências sociais, estética, estudos culturais e filosofia do cinema do que nas ditas “ciências duras”.

A Filosofia analítica tem algumas propriedades gerais que a definem:

Caráter argumentativo, com papers e livros sendo escritos a favor e contra posições particulares e específicas.

Tentativa de ser o mais claro possível.

Análise da estrutura lógica dos argumentos utilizando-se de ferramentas da Lógica filosófica. Inclusive usando símbolos de lógica simbólica.

Contato muito próximo com as ciências duras, em particular a física, a biologia, e a psicologia.

Afinidade com pensamento de estrutura mais matemática.

Ter o objetivo de chegar a uma conclusão.

A pergunta: “ Mas se o autor X e o autor Y defendem posições opostas, quem está certo?” sempre tem uma resposta, mesmo que não saibamos qual ela é.

Por contraste, em geral os professores do departamento nunca discutirão se um autor está certo ou não, tentando apenas mostrar como o ponto de vista dele exibe coerência interna e se encaixa num debate histórico. Se esse é o tipo de coisa que te irritaria profundamente, você é um dos interessados no nosso grupo.

Os temas variam muito, Mente, Consciência, Física, Probabilidade, O que se deve fazer para promover a felicidade do mundo futuro, Mecânica Quântica, a direção do tempo, Semântica, Linguagem, Etica, Evolução, Significado. Tudo isso é estudado por autores analíticos.

Os encontros do grupo funcionam assim: Os encontros ocorrem toda semana. A cada 15, todos teremos lido um paper atual de analítica. E a cada quinze novos membros lêem um paper clássico e os que já leram o clássico lerão algum paper de ciência (no momento psicologia), e faremos discussões cruzadas entre os grupos.

Os encontros duram uma hora e meia, e os artigos devem ESTAR LIDOS ANTES da reunião. A reunião é para discutir, entender, contestar ou complementar as idéias do artigo.

Quase todos os artigos de filosofia analítica estão apenas disponíveis em inglês.

Anúncios

Uma Análise do Conceito de Racionalidade à Luz de Putnam

Uma Análise do Conceito de Racionalidade à Luz de Putnam

Em seu Reason, Truth, History, Putnam sugere que a dicotomia: “… ou cânones imutáveis e ahistóricos de racionalidade ou relativismo cultural é uma dicotomia […] ultrapassada”. Ao fazer isso, ele está pondo a prova um debate secular na filosofia, tentando descontruí-lo, de maneira quase derridiana. Este é o debate entre os relativistas culturais e os racionalistas universais, que acreditam que a razão seja uniforme no espaço-tempo.

Uma das características que separa Putnam dentre seus contemporâneos é sua afirmação de que a separação tradicional entre fato e valor não é total como muitos defendem. Como a racionalidade é definida em termos de objetivos, e meios para atingí-los, e os bons objetivos são determinados por valores do que é bom e ruim, as dicotomias racionalidade universal/relativismo, e fato/valor, estarão bastante relacionadas.

A razão pela qual ambas essas dicotomias podem surgir diz respeito a possibilidade de indeterminações. Isto é, se tudo no mundo fosse determinado, e nunca houvesse um grau de indeterminação entre algo e outra coisa, dificilmente estes pontos de contraste teriam surgido na história. Tudo seria, por assim dizer, preto no branco. Mas este não é o caso, existem vários graus de indeterminação na natureza, aqui, nos concentraremos na indeteminação intencional. Isto é, a indeteminação que existe entre um X que é a respeito de Y e o Y a respeito do qual ele é. Vários objetos do mundo são desse tipo, possuidores de intencionalidade, em maior ou menor grau. A palavra “John” quando escrita em uma folha por exemplo pode ser a respeito de John Lennon, ou de John Travolta, ou do apóstolo João, entre outras pessoas. Isto é, a capacidade de constrição que o termo que refere possui deixa espaço para várias interpretações possíveis. Isso sempre é o caso quando estamos tratando de uma linguagem formal, segundo o teorema de Lowenheim-Skölem, que diz que para qualquer formalização que se adequa a um modelo, existem infinitos modelos de cardinalidades superiores à este que também são modelos da mesma formalização. Ou seja, mesmo nos domínios mais abstratos do conhecimento humano, a indeterminação permanece. Não apenas para nomes numa folha (ou numa pedra), ou linguagens formais, vale a indeterminação. Também o vocabulário mentalista padece dessa fraqueza, por assim dizer, de não conseguir refererir unicamente a um único objeto jamais (Dennett 1980 Putnam 1981). Possuímos mundos nocionais que poderiam ser reflexo de infinitos mundos diferentes atuando sobre nosso sistema perceptivo, e não temos como descobrir em qual desses mundos estamos. Em termos Kantianos, existem infinitos mundos numenais que atendem as nossas representações fenomenais.

Não é de se espantar, se a indeterminação vale entre quaisquer duas linguagens, que uma questão que desde logo preocupou os filósofos da ciência é se o mesmo ocorreria com as teorias. Será que existem infinitos mundos compatíveis com qualquer teoria científica? Se sim, como sustentar um conceito de que a ciência nos diz a verdade sobre mundo, ou que ela é racional? Ao longo do tempo, algumas tentativas foram feitas na literatura para escapar do inescapável, e criar uma formalização filosófica de teorias que não possibilitasse o mesmo grau de indeterminação que Quine nos mostrou ter a linguagem natural (1960), Lowenheim-Skölem as linguagens formais e Dennett (1978) o vocabulário mentalista. A mais famosa é a tentativa de Carnap1, usando as sentenças de Ramsey, que tentou modelar a modificação de termos teóricos entre teorias subsequentes de maneira análoga a relação entre sistemas formais e seus modelos. O problema é que mesmo uma sequência de teorias com termos bem definidos ainda deixava bastante espaço para varias realizações possíveis daquela teoria. O problema é bem sumarizado em Lewis “How to Define Theoretical Terms” (1971) seja “T” uma teoria científica:

“There remains the case in which T is multiply realized. In this case, the Carnap sentence tells us that the T-terms name the components of some realization or other. But it does not tell us which; and there seems to be no nonarbitrary way to choose one of the realizations. So either the T-terms do not name anything, or they name the components of an arbitrarily chosen one of the realizations of T, Either of these alternatives concedes too much to the instrumentalist view of a theory as a mere formal abacus. Neither does justice to our naive impression that we understand the theoretical terms of a true theory, and without making any arbitrary choice among realizations. We should not accept Carnap’s treatment in this case if we can help it. Can we?

We might say instead that the theoretical terms of multiply realized theories do not name anything. If multiple realization is a defect that theorists can reasonably hope to avoid, then we can afford to treat multiply realized theories as failures: call them false, and call their theoretical terms denotationless. But if multiple realization is inevitable, we cannot afford to disdain multiply realized theories. We can have denotations arbitrarily chosen, or no denotations at all.

A uniquely realized theory is, other things being equal, certainly more satisfactory than a multiply realized theory. We should insist on unique realization as a standard of correctness unless it is a standard too high to be met. Is there any reason to think that we must settle for multiply realized theories? I know of nothing in the way scientists propose theories which suggests that they do not hope for unique realization. And I know of no good reason why they should not hope for unique realization.”

Essa esperança de Lewis ressoa nas intuições de muitos cientistas e de alguns filósofos, mas exemplos como os Gettier problems, que demonstram que sempre há uma nova forma de destruir o conceito de justificação, vão contra essa intuição de que há uma explicação única. Mais forte do que os Gettier problems são os argumentos de Putnam, Rorty, Kuhn, Foucault e outros a favor do papel forte da determinação parcialmente histórica de qual dentre as interpretações possíveis é a escolhida. Isso depende, de acordo com esses autores qual é a época na qual se está pensando sobre a realização daquela teoria.

Viemos examinando até aqui como uma única teoria pode representar vários mundos, sem fazer distinções entre eles. Para nossos propósitos entretanto, a observação contrária é mais interessante, um mesmo mundo pode ser modelado por diversas teorias, ou seja, existe indeterminação na “ida” e na “volta” do processo. Essa indeterminação de várias teorias para um único mundo é o que gera o problema da racionalidade discutido por Putnam. ¿Ora, como terei uma concepção deteminada do que é racional se existem várias maneiras de agir que são condizentes com o mesmo mundo? Várias teorias da ação racional são igualmente razoáveis como formas de conviver com o mundo, assim sendo, não faz sentido falar numa única racionalidade, que perpassa culturas e civilizações e que é a única que se adequa ao mundo.

Alguns filósofos, mas não muitos, tranformaram o conhecimento desse fato num oba-oba, ou seja, supuseram que, uma vez que existem várias maneiras de se ser racional no mundo, então vale-tudo, qualquer coisa está bom, ou tudo é relativo a uma pessoa ou a outra, suas concepções, suas crenças e seus valores particulares. Mas não é bem assim. Os filósofos mais sérios (que em seu livro curiosamente Putnam chama de mais “inteligentes”) não se submetiveram a uma visão tão ingênua dessa complexa problemática. Encontraram versões interessantes (como as epistemes de Foulcault, as indeterminações de tradução semânticas de Kuhn, as noções de época de Rorty etc…) de casos nos quais, com efeito, um grupo justifica uma racionalidade diferente da de outro grupo, que está em algum contexto diferente (social, histórico, semântico, científico). Ou seja, para eles a racionalidade não é mais uma noção que está fixada. Mas tampouco está a deriva, deixada a seu bel-prazer e sem direção. Temos aqui o nascimento da concepção que Putnam está defendo, a de uma racionalidade ancorada. Mas ancorada com uma âncora de cabo bastante longo e flexível. Ou seja, nem todo curso de ação, ou curso de raciocínio poderá ser considerado racional. Existirão constrições no espaço lógico do que é admissível como racional, constrições que, na nossa metáfora marinha, podem ser pensadas como a elasticidade do cabo, e seu comprimento. Existem lugares que simplesmente não podem ser alcançados pela racionalidade, segundo Putnam, por mais que ela se estique, enrosque e dê piruetas no ar.

Cabe então analisarmos aqui critérios de constrição do que é permissivelmente considerável como racionalidade, para vermos se de fato é o caso que podem haver racionalidades não totalmente maleáveis, e ao mesmo tempo não unas. Precisamos de critérios de constrição que não sejam critérios que deixem apenas um elemento final. Um desses critérios é a forma como Wittgenstein pensa a idéia de “sentido” de um termo. O sentido, para Wittgenstein, é deteminado pelo uso que se faz de um termo, por uma miríade de jogos de linguagem que se interpolam e determinam um espaço lógico de possibilidades que é o sentido daquele termo. O termo círculo significa as ações que ele causa nas pessoas. Pois bem, temos aqui um grau de restrição. Virão muitos outros. Um outro grau de restrição que se adequa a concepção de racionalidade é a restrição evolutiva, e este talvez tenha sido tomado como mais importante pelos filósofos da segunda metade do século XX. A evolução constringe o espaço acessível de mundos nocionais, na medida em que nos obriga a habitar um mundo nocional que nos permita sobreviver e ter filhos. Ou seja, nosso design, arquitetado cuidadosamente pela mãe natureza (cega, surda, deprivada de emoções etc…) é tal que nos faz só poder habitar uma certa quantidade de mundos nocionais, sob pena de morte, literalmente! A racionalidade humana é produto da evolução genética que configura nossas mentes, e também da evolução memética, que modifica, com algumas restrições, nossa cultura, nossas idéias etc…. Ambos estes processos darwinianos geram fortes constrições (sobrevivência do mais apto) no que podemos pensar, e na nossa visão do que é racional, e do que é bom. Nossa racionalidade é constrita por uma séries de outros sub produtos desses fatores evolutivos: Fatores deonticos, fatores emocionais, bias cognitivos (erros sistemáticos de cognição), fatores econômicos etc… Putnam enfatiza essa idéia, e insere também um inovativo e diferenciado tipo de fator para adentrar o grupo. Os valores morais.

Putnam pontua por exemplo que numa visão de mundo na qual conectamos fato e valor, torna-se verdadeiro dizer que “Os nazistas eram irracionais” na medida em que nossos critérios de racionalidade entraram numa interação promíscua com nossos valores. O ponto dele é que, além de todos os demais fatores (dos quais, é fato, ele apenas destaca o fator evolutivo) devemos também utilizar nossos valores morais como forma de constrição do que pode ser considerado razoável. Note que esse argumento não necessita de prova. Ele está sugerindo que, na falta de outros critérios para racionalidade, uma boa forma de constringirmos o espaço do que consideramos racional, isto é, de dimnuir o cabo que ancora a racionalidade, é inserir os nossos valores como critério legítimo de avaliação do que é racional. Evidente que não se segue disso que ele não tenha outros argumentos em favor da união entre fato e valor, mas estes não concernem o presente trabalho.

Então ao mesmo tempo que Putnam aceita que não estamos mais diante de uma noção fundacionista de racionalidade, ele oferece caminhos para evitar um relativismo total. Não se coloca dessa maneira de nenhum dos lados dessa dicotomia que por tanto tempo populou as mentes filosóficas. Não é necessário ter uma visão convergente de racionalidade, ou acerca da verdade, para que não se tenha uma visão de deriva divergente, em suma esse é o ponto de Putnam. É possível derivar numa raia única, ou num espaço circunscrito, contanto que haja coisas (como nossos valores e a evolução) que constrinjam nosso espaço possível de racionalidade.

Putnam encerra seu capítulo “Two Conceptions of Rationality” com as palavras:

“I will not discuss here the expectation aroused in some by Chomskian Linguistics that cognitive psychology will discover algorithms which define rationality. I myself think that this is an intellectual fashion which will be disappointed as the logical positivist hope for a symbolic inductive logic was disappointed.

All this suggests that part of the problem with present day philosophy is a scientism inherited from the nineteenth century – a problem that affects more that one intellectual field, I do not deny that logic is important. I do tend to think that they are rather peripheral to philosophy, and that as long as we are too much in the grip of formalization we can expect this kind of swinging back and forth between the two sorts of scientism I described. Both sorts of scientism are attempts to evade the issue of giving a sane and human description of the scope of reason. “

A revelia dos desejos dos tais psico-linguistas Chomskianos, a hipótese de Putnam tem se mostrado correta, na medida em que não encontramos algorítmos exatos que definem a racionalidade humana. Encontramos, com efeito, uma gramática universal que subjaz as linguagens humanas, encontramos também, como o psicólogo e nobel de Economia Daniel Kahneman (2002) mostrou, uma série de erros sistemáticos (cognitive bias) que estamos propensos a cometer, como se fossem “falhas” do nosso algoritmo com relação a nossa concepção de uma racionalidade ideal. Ou seja, existe desacordo entre o que consideramos racional, quando perguntados, e o que sabemos sobre como funciona a cognição humana, esses erros são chamados de bias cognitivos, ou viéses cognitivos. Segue que não encontramos um único e paradigmático conceito universal de racionalidade, e também que o lugar para procurar isso não seria na mente humana. A invenção durante o racionalismo do Homo Economicus, e do Homo Racionalis havia criado nas pessoas uma ilusão de que pudesse ser o caso que, se a racionalidade enquanto tal existe, o lugar para encontrá-la seria a mente humana. É interessante que, apesar de Putnam colocar nas mãos de Chomsky uma das últimas possíveis chaves para encontrar a racionalidade dentro de nós, haja sido justamente a ciência que surgiu a partir de Chomsky (ciência cognitiva) que nos deu a garantia, de uma vez por todas, que o Homo Economicus e o Homo Racionalis são apenas uma fantasia de época. 2

Mas haveria uma definição de racionalidade pura, independente dos humanos e seus algorítmos mentais? Uma tentativa interessante de defender a racionalidade vem de Yudkowsky (2007):

Optimization Process:

A physical system which hits small tagets in large search spaces to produce coherent real-world effects.

Notamos aqui em primeiro lugar um enfraquecimento da concepção de racionalidade para uma concepção de racionalide condicional. “O que é racional?” deixa de ser uma pergunta que faz sentido, e o que faz sentido passa a ser perguntar “O que é racional dado que meu objetivo é X”. Mas mesmo uma concepção como essa, enfraquecida, pode sofrer modificações ao longo da história, das mudanças das ações humanas, dos nossos objetivos, etc…

Talvez possamos dividir as concepções filosóficas a respeito da racionalidade entre aquelas que sugerem que racionalidade esteja acima do triângulo

 

Métodos Teorias e Objetivos
As flechas indicam influências e constrições ao longo do desenvolvimento da ciência.


e aqueles que acreditam que a racionalidade está subscrita a um desses aspectos da ciência. Nagel, por exemplo, almeja uma racionalidade acima e além dos vértices do triângulo, a concepção de Yudkowsky é enfraquecida justamente para poder se manter acima do triângulo, como um árbitro, definindo o que é ou não racional. Putnam está no outro time, ele insere a racionalidade no triângulo. Não apenas emaranhando-a com os valores, mas também compreendendo que existe numa medida uma concepção particular de racionalidade subjacente nos métodos e possivelmente nas teorias. A racionalidade, quando não está absolutizada, acima do triângulo, ela está dentro dele, e assim como ele se define por suas inter-relações, e pelas constrições que os elementos de um vértice exercem sobre os elementos do outro, se é assim, ela não pode variar indefinidamente, ela funciona como o cidadão da democracia, livre, mas com deveres.

Referências:

Dennett, D. 1978. Brainstorms: Philosophical Essays on Mind and Psychology. Cambridge: Bradford Books/MIT Press

Dennett, Daniel. 1980, Beyond Belief IN A. Woodfield, ed., Thought and Object, Oxford Univ. Press, pp. 1-95.

Gray, John.2002. Straw Dogs: Thoughts on Humans and Other Animals

David Lewis, 1971. How to define theoretical terms IN Philosophical Papers Vol I

Putnam, H. 1981. Reason, Truth, and History. Cambridge: Cambridge University Press, 1981.

Rorty, Richard.1979. Philosophy and the mirror of nature / Richard Rorty Princeton University Press, Princeton :

T. Gilovich, D. Griffin, and Daniel Kahneman [eds.]. 2002 Heuristics and Biases: The Psychology of Intuitive Judgment New York: Cambridge University Press,

Wittgenstein, Ludwig (1953) Philosophical Investigations (Oxford: Blackwell)

Yudkowsky, E.2006. World’s Most Important Math Problem IN Singularity Conference 2006 Technology-Conferences-and-Events.

1Philosophical Foundations of Physics (New York: Basic Books, 1966),

2O filósofo literário John Gray, em seu Cachorros de Palha, sugere (anedotalmente) uma das razões para a nossa visão de verdade una. Adaptarei seus comentários para criar uma explicação anedotal da persistência de nossa visão do Homo Economicus. Os gregos possuiam diversos Deuses, com diferentes traços de personalidades, fraquezas, virtudes e inclinações. No entanto, com a ascenção do Monoteísmo, surgiu também a noção de uma verdade única, de um único caminho, afinal, o monoteísmo vem de pensadores que diziam coisas como “Eu sou o caminho, a luz e a verdade, ninguém vai ao pai senão através de mim”. Claramente uma concepção universalista da verdade. Junte-se a isso que somos todos filhos de Deus, segundo essa cosmogonia. E Jesus em particular é parte de Deus. A relação entre Homem e Deus é de semelhança (a de Mulher parece indeterminada….). Se Deus é único, e nós somos à sua imagem e semelhança, então nossa racionalidade também deve ser una, para encontrar a única verdade que emana do ser divino. Cria-se então uma visão de homem que pressupõe essa racionalidade pura no homem, e, por estar anexada a uma visão do divino que permanece até hoje em umas 4 bilhões de pessoas, a idéia sobrevive fortemente em circuito não-acadêmico. O Homo economicus está morto, mas sua sombra permanecerá por mais mil anos.

A filosofia de Nick Bostrom, Parte 1

Esse Post é o primeiro membro de uma serie de varios posts sobre a filosofia de Nick Bostrom. O objetivo dessa serie de posts é introduzir o leitor ao pensamento de Bostrom e a tópicos importantes do transhumanismo. Neste primeiro momento irei introduzir as motivações subjetivas bem como os princípios teóricos básicos sob os quais se fundam a filosofia deste pensador. Ele esta assim organizado:

1. O Bostrom
1.1 Formação
1.2 Preocupações
2. A Filosofia de Nick Bostrom
2.1 Bases
2.1.1 Tentando saber mais que deus, conhecimento indexical e a SSA
2.1.2 Efeitos de Seleção Observacionais e Riscos Existenciais

1. O Bostrom

1.1 Formação

Graduação em Filosofia, Matemática e Ciências da Computação na Suécia, onde estabeleceu um novo record de desempenho. Trabalhou como stand-up comedian por algum tempo para depois fazer um mestrado em Economia, outro em Neurociência e outro em Filosofia. Em seguida realizou seu doutorado em Filosofia, tese que entrou para o Hall de melhores dissertações do ano cujo tema era uma formalização do principio antrópico: A Self Sample Assumption. Tem atualmente, 37 anos e é diretor do Instituto Para o Futuro da Humanidade desde os 33 anos. Já arrecadou mais de 13 milhões de dólares em verba através de bolsas para pesquisa, prêmios e doações.

1.2 Preocupações

Talvez o melhor modo de entender a sua filosofia seja começando por entender que tipo de preocupações parecem habitar a mente deste pensador. Como todos nós Bostrom é um macaco das savanas num mundo moderno que não é o dele. Mas para ele a sua savana é o universo e a sua tribo a humanidade, sem duvida é um macaco um tanto quanto estranho. No entanto, para a esmagadora maioria da humanidade a savana é algo menor que um bairro e a humanidade algo entre 20-1000 pessoas. Este ultimo fato é talvez a maior fonte de preocupações para o Bostrom. Porque estamos fora do ambiente no qual evoluímos não sabemos lidar com nosso novo ambiente. Claro que existem inúmeras coisas que se mantiveram constantes como as leis da física, fatos sociais básicos e nossas emoções em geral. No entanto a pequena parcela que mudou pode ser crucial para determinar nosso sucesso futuro como espécie. Inicialmente temos novos desafios no campo do conhecimento que são extremamente difíceis de superar dado a nossa maquina cognitiva, tais como entender mecânica quântica, neuroquímica ou o problema da consciência. Para alem disso temos desafios no mundo exterior que podem se tornar importantes pressões evolutivas, tais como entender os riscos e potenciais da tecnologia – o que inclui desde inteligência artificial até farmacologia – ou entender e lidar com os novos riscos naturais eminentes tais como choque com grandes asteróides e aquecimento global. Passamos 90% do nosso passado evolutivo tendo que fugir de leões na savana, caçar mamutes, achar parceiros e formar alianças em grupos de até 100 pessoas. Nada disso exigia pensamento preditivo que extrapolasse uma ou duas décadas, menos ainda algo que extrapole a duração vida media de um homem primitivo – 40 anos. Nada disso exigia que entendêssemos o comportamento de possíveis futuras inteligências artificiais ou que lutássemos inutilmente contra catástrofes naturais transvertidas de poderosas divindades. Não nos era exigido que tivéssemos uma memória de trabalho muito maior que três ou quatro espaços para que processássemos informações a respeito do ambiente e de quem fez o quem com quem em pequenas tribos. Nossa navegação espacial foi moldada para conseguir acertar uma lança na caça que foge em velocidade e, no entanto, audasiosamente a usamos para enviar naves tripuladas ao espaço. Surpreendentemente não temos saído muito mal desse empreendimento pretensioso chamado civilização moderna, no entanto modificamos nosso ambiente cada vez mais rápido e como resultado ele se distancia velozmente das antigas savanas. Nosso cérebro talvez esteja próximo de não ser mais adaptado o suficiente para o ambiente que ele próprio criou. Para que a sobrevivência da humanidade e do que ela valoriza ser possível é necessário transcender o invólucro que era só a semente, é necessário o transhumanismo. O primeiro fato inelutável sobre essas modificações é a sua ineroxabilidade: a tecnologia veio e vem crescendo exponencialmente e estimativas conservadoras calculam que por 2050 nosso modo de vida terá mudado tão radicalmente a ponto de se tornar irreconhecível. Se fizermos essas modificações da maneira certa aquilo que valorizamos não será destruído e seremos de fato transhumanos – mais humanos – e a vida se tornará mais próxima da perfeição. Se fizermos a coisa errada e nada do que consideramos humano esteja lá daqui a 40 anos, então a humanidade terá se extinguido. Se, além disso, não restar mais vida inteligente então a galáxia sofrera uma grande perda, uma vez que somos a única vida inteligente de que temos noticia. Pense em duas historias para nossa galáxia, e talvez para o universo: a matéria começa a se condensar pela força da grávidade, estrelas surgem, aglomerados cada vez maiores, estrelas morrem e nascem e surgem os planetas, em algum deles surge a vida e através de milhões e milhões de anos ela evolui até que surge uma espécie que se espalha pela galáxia, a enchendo de vida e significado, bilhões e bilhões de seres conscientes com os mais diversos e complexos estados mentais. Na outra historia essa espécie é destruída e a galáxia permanece para sempre fria, gélida, silenciosa e inabitada. A colonização da galáxia, entes super inteligentes, uma consciência e um entendimento muito mais profundos do universo e um bem estar e uma felicidade muito maior podem estar nos aguardando nos próximos séculos, bem como pode estar nos aguardado a total destruição, e qual porta nós iremos abrir depende das nossas ações agora. Ou a raça humana vai transcender a sua insignificância cósmica e a sua chama vai brilhar pelo universo e a galáxia será adornada com os ramos, as flores e os frutos do que agora é somente semente ou nós seremos completamente eliminados da face da terra e toda a nossa existência será vã. Existem diversos jeitos de nos modificarmos para enfrentar melhor esses desafios e fazer a coisa certa. Inicialmente podemos memeticamente tentar modificar nosso aparelho cognitivo, aprendendo sobre nossos bias cognitivos – tendência a sistematicamente desviar do pensamento racional  – e de como evitá-los. Alem disso podemos quimicamente aumentar nossa capacidade cognitiva com o uso de nootrópicos tais como modafinil e aricept. O mais importante, no entanto, é dar atenção aos nossos futuros desafios e pensar seriamente as questões que podem fazer o diferencial entre uma galáxia pulsante de vida e uma inabitada. Para abordar essas difíceis e relevantes questões Bostrom fundou o movimento conhecido como transhumanismo: um movimento intelectual e cultural que se funda da crença de que devemos usar a ciência e a tecnologia para alterar a vida humana para melhor. Nessa seção tentei dar uma visão do que subjetivamente move esse filosofo a pensar o que pensa. A seguir analisaremos os aspectos teóricos que são as pedras fundamentais sob a qual ele constrói sua filosofia.

2. A Filosofia de Nick Bostrom

2.1 Bases

2.1.1 Tentando saber mais que Deus, conhecimento indexical e a SSA.

O instrumental teórico de Bostrom gravita em torno de um único conceito: A Self-Sample Assumption (SSA). Em termos precisos a SSA consiste em assumir que você é uma amostra aleatória da sua classe de referencia, sendo a classe de referencia o grupo de entidades que se assemelham a você em aspectos relevantes. Por exemplo, imaginemos o seguinte experimento mental: o mundo consiste de 100 calabouços habitados, cada um deles, por um único ser humano. 10 são pintados de branco e 90 de vermelho. Você acorda num calabouço escuro, qual probabilidade você irá atribuir para que o seu calabouço seja branco? Naturalmente será 10%. Esse raciocínio intuitivo pode ser formalizado se você considerar que sua classe de referencia for a dos humanos e que ela tem tamanho 100 e que destes 100, 10 estão numa sala branca e 90 em uma vermelha, assim segue naturalmente que se você é um humano e não sabe a cor da sua sala, a probabilidade de que a sua sala seja branca é de 10 em 100, ou seja, 10%. A SSA tem a forma do condicional bayesiano P(Eu sou tal que … | O Mundo é tal que…) – no exemplo anterior: P(Eu estou na sala branca | Existem 100 salas habitadas no mundo, 10 brancas e 90 vermelhas). Este resumo simplista revela algo de fundamental ao pensamento bostroniano. Aquele que já olhou uma noite estrelada num céu despoluído e divagou sobre o universo, as estrelas e a sua formação, planetas com vida e nosso papel no cosmos teve talvez um instante do estado de consciência que constantemente permeia os escritos deste filosofo sueco. A SSA parte de uma observação do estado do mundo (“O mundo é tal que…”) para uma reflexão sobre a nossa posição nele (“Eu sou tal que..”). Uma das pedras fundantes deste conceito foi colocada por David Lewis em 1979 em seu artigo “Attitudes De Dicto and De Se”, neste artigo Lewis abordava uma limitação dos dois tipos de ocorrências em enunciados que eram canônicos na época: as ocorrências de re e as de dicto. As ocorrências de re – da coisa – dizem respeito a coisa no mundo e fixam a referencia, ocorrências de dicto – do dito – dizem respeito ao que quer que seja que a intensão do nome pegue no mundo. Por exemplo, quando digo: ‘O Diego poderia ser o rei da Dinamarca”‘ , se tomo ‘Diego’ como de dicto então isso significa que seja lá ao que o nome Diego se refira caso o mundo pudesse ser diferente, essa coisa no mundo poderia ser o rei da Dinamarca. Se tomo ‘Diego’ como de re então me refiro a um Diego especifico no mundo, que não é o rei da Dinamarca. No primeiro caso a sentença é verdadeira e no segundo falsa. Na época se acreditava que qualquer fato poderia ser expresso apenas com esses dois tipos de modo de se referir a algo. No entanto, Lewis mostrou no artigo que existiam fatos que caiam fora do alcance deste tipo de referencia: os fatos indexicais. Por exemplo, seja a descrição completa do estado microfisico deste ambiente, existe um tipo de conhecimento que é sempre inalcançado por esse tipo de descrição: os famigerados conhecimentos indexicais. O conhecimento de que você é você, e eu sou eu. Chalmers afirma jocosamente que nem Deus tem conhecimento sobre os fatos indexicais e é esse tipo de conhecimento que o Bostrom tenta focar com a SSA. As ocorrências de se seriam, portanto, todas as ocorrências que fazem referencia a pessoa que tem o conhecimento ou enuncia a sentença. “Eu sou narigudo” é um conhecimento que algumas pessoas podem ter e outras não. Por mais que alguém não narigudo olhe para o Diego e saiba “O Diego é narigudo” isso não é o mesmo tipo de conhecimento que só o Diego (e as pessoas narigudas) podem ter: “Eu sou narigudo”.
Esse tipo de conhecimento de se não é mera especulação filosófica, em inúmeros ramos da ciência e do nosso pensamento intuitivo usamos freqüentemente conhecimentos indexicais. Um exemplo apontado por Bostrom desse uso é na cosmologia. Se, como diz o modelo cosmologico mais aceito, o universo é infinito e contem processos aleatórios como radiação emitida por buracos negros então qualquer observação de qualquer evento será feita com probabilidade um. Uma vez que existem infinitos processos aleatórios e existe uma probabilidade finita de gerar observadores nesses processos que sofrem uma alucinação, qualquer observação possível sempre será feita, mesmo que por um observador que é um cérebro que acaba de ser ejetado de um buraco negro. No entanto queremos usar o fato de que observamos o universo tal como ele como evidencia para uma teoria que prevê que ele é deste modo que o vemos. Para realizar isso temos que levar em consideração a informação indexical de que nós observamos o universo dessa maneira. Esse fato indexical, ao contrario do simples dado empírico observacional, tem o poder de alterar a probabilidade de que uma dada teoria seja verdadeira. Por exemplo, Bostrom fala de duas teorias cosmológicas: uma prevê que a radiação de fundo é 3K e a outra que é 7K. Observamos que a radiação de fundo é 3K e queremos usar isso como evidencia em favor da primeira teoria. O simples fato de que observamos uma radiação de fundo não falseia nenhuma das teorias, pois em ambas o universo é infinito e a observação de uma radiação de 3K é sempre feita em algum lugar com probabilidade 1, a diferença é que na primeira teoria ela é feita muito mais freqüentemente do que na segunda. Assim se considerarmos o fato de que nós fizermos essa observação isso diz algo é favor da primeira teoria, pois nela essa observação é muito mais provável que na segunda. Para realizar essa inferência temos que primeiro nos considerar como membros da uma classe de referencia de observadores do cosmos e em seguida estimar a probabilidade de que o cosmos seja de um jeito ou de outro analisando como o fato de observarmos ele de um jeito afeta a probabilidade de que essa observação seja feita com maior ou menor freqüência. Alem disso Bostrom expõe inúmeros outros experimentos mentais alem do já citado nos quais isso se faz necessário, dentre eles temos o seguinte:

O mundo consiste de Deus e uma moeda justa. Deus joga a moeda e se der cara ele irá criar duas salas: em uma colocara um homem de barba negra e em outra de barba branca; se der coroa ele irá criar apenas uma sala com um homem de barba negra. Quando um homem vem a existência e não sabe a cor da sua barba, qual a probabilidade ele deve atribuir para que ela seja negra se ele é informado por Deus que a moeda deu cara. Nesse caso a classe de referencia desse homem são os habitantes do mundo: um homem de barba negra e um de barba branca e ele deve atribuir uma probabilidade de 50% para que sua barba seja negra. Se, no entanto ele for informado que a moeda deu coroa, sua probabilidade vai para 100%. Mas e se Deus nada informa sobre o mundo para esse pobre barbudo? Quando ele vem a existência, se faz a luz e ele observa que sua barba é negra, que probabilidade ele deve atribuir da moeda ter dado cara? Se assumirmos que a classe de referencia no caso são os homens de barba negra, temos que a probabilidade de que um homem observe uma barba negra no mundo onde a moeda deu cara é de 50% e no que ela deu coroa é de 100%. Assim, a observação “A minha barba é negra” faz com que seja duas vezes mais provável que ele esteja no mundo onde a moeda deu coroa do que na que deu cara e conseqüentemente a probabilidade de ter dado cara é de 1/3 e a de que tenha dado coroa 2/3. No entanto, a maioria das pessoas – segundo a sua intuição – diria que é igualmente provável. Para lidar com casos igualmente ou mais complexos do que esse se faz necessário uma formalização axiomática da nossa intuição, faz-se necessário a Self-Sample Assumption, faz-se necessário raciocinar como um membro aleatório da sua classe de referencia.

Alem disso a SSA pretende modelar nossas intuições com respeito ao principio antrópico: o principio antrópico diz que o universo tem de ser tal que ele proporcione à nós observarmos ele da maneira que observamos. Isso implica, dentre outras coisas, que ele tem de permitir vida inteligente como a nossa. A SSA talvez possa ser vista como um caso geral desse principio, que vale universalmente para qualquer observador e qualquer observação. Alem disso ela tem a vantagem de ser mais precisa e facilmente matematizavel.

2.1.2 Efeitos de Seleção Observacionais e Riscos Existenciais

Uma conseqüência particularmente interessante da SSA é de que nunca observaremos eventos que são incompatíveis com a nossa existência. Como conseqüência existe uma vasta gama de fenômenos que são inobserváveis pela sua própria natureza, eles estão vedados pelo o que Bostrom chama de Efeito de Seleção Observacional. Por exemplo, se no nosso experimento mental Deus jogasse um dado de 3 lados de modo que as duas primeiras opções permanecem como a anterior e se desse três ele não criasse nada os homens criados nunca iriam podem estimar corretamente a probabilidade da terceira opção se realizar dado que nunca a observariam. Se dado que você existe em uma sala a probabilidade que o dado tenha dado 3 é 0, então dado que o dado deu 3 a probabilidade de que você observe isso é 0. Temos um fenômeno interessante em que a existência de algo o torna automaticamente inobservável. Se a freqüência de um evento não influencia a nossa probabilidade de observa-lo então isso significa que não podemos aprender com a experiência sobre eles. Estimar a sua probabilidade com base na experiência direta estará sempre fadada ao fracasso pois a probabilidade de experienciarmos tais eventos é constante e igual a zero independente de quão prováveis eles sejam. Um tipo particular desse evento são os eventos de extinção em massa. Existem certos eventos que poderiam aniquilar por completo a raça humana, tais como grandes asteróides, inteligência artificial dando errado, supervulcanismo, etc., tais eventos constituem Riscos Existenciais. Ao estimar a probabilidade de sermos extintos não podemos usar o fato de que nunca fomos extintos como critério. Existem outros métodos indiretos de realizar esse tipo de estimativa como, por exemplo, ver com que freqüência esses eventos ocorrem em outros planetas. Nas seções seguintes contextualizarei melhor os efeitos de seleção observacionais e darei alguns exemplos de Riscos Existenciais em potencial.

Em futuros posts dessa série, abordarei os seguintes tópicos:

2.2 Riscos Catastróficos Globais
2.2.1 Introdução
2.2.2 Dois principais bias
2.2.3 Outros bias
2.2.4 Principais Riscos
2.2.5 Conseqüências

2.3 Transhumanismo
2.3.1 Melhor impossível: A status quos bias
2.3.2 Imperativos Éticos
2.3.3 Human Enhancement
2.3.3.1 Cognitive Engancement
2.3.3.1.1 Antigos
2.3.3.1.2 Químicos
2.3.3.1.3 Outros
2.3.3.1.4 Uma heurística para modificar a evolução
2.3.3.2 Life-Span Enhancement

2.3.4 Transhuman Enhancement
2.3.4.1. Uploading de Mentes
2.3.4.1.1 Técnicas
2.3.4.1.2 Riscos: imediatos e de longo prazo
2.3.4.2. IA
2.3.4.2.1 Projeções
2.3.4.2.2 Riscos

Os Principais Obstáculos ao Conhecimento Racional

Esse texto concerne os seis hábitos mentais que me parecem ser os maiores desmanteladores do pensamento racional, seja em discussões de senso comum, conversas do dia a dia, ou nos maiores e mais conhecidos artigos filosóficos e científicos1.

Esses seis hábitos são a Falácia Naturalista (e o problema ser-dever), Vagueza, Relativismo, Procura de Skyhooks, Medo de Estatísticas e Reducionismo Cobiçoso. Considerarei primeiramente os primeiros dois, já que eles são as características fundantes dos demais quatro, e são características que podem ser encontradas em pessoas que auxiliam esses memes a se replicar, apesar dos danos devastadores que podem criar e da quantidade massiva de dinheiro neles dispendiada.

A primeira característica concerne uma falta de compreensão de como a racionalidade deve estar engendrada no mundo. A racionalidade deve estar engendrada de duas maneiras, ela pode ser utilizada junto com fatos para prover uma figura, uma descrição de como o mundo funciona, e pode ser usada com ou sem fatos do mundo para provir ideais e idéias sobre ética, como comportar-se, como não comportar-se, e o que é ou não é bom. Ainda que seja tão importante que o pensamento racional esteja engendrado no pensamento ético quanto no pensamento descritivo, é o segundo que será considerado nesse texto, e a ética será apenas parte de minha discussão quando se tratar de sua influência na maneira que as pessoas constroem conhecimento a respeito do mundo e seu funcionamento interno.

1) Dever não é Ser, Bom não é Verdadeiro. (A Falácia Naturalista)

O raciocínio, ao ser utilizado para pensar a maneira que o mundo funciona deveria funcionar de uma maneira não enviesada, e isso significa basicamente uma das coisas mais difíceis de se aceitar para algumas pessoas, que é que o mundo não tem maior probabilidade de se comportar da maneira que você deseja somente porque você assim deseja, o mundo funciona como funciona, e ele não leva em consideração nem o que você considera moralmente bom, nem como você crê que ele deveria ser. Suponha que astrônomos descubram que não haverá um eclipse na terra pelos próximos oitenta anos, e que por alguma razão a mídia mundial divulgasse a notícia como chocante, com o seguinte título: “Toda Uma Geração Humana Ficará Sem Poder Ver Eclipses.” Bem, se as notícias fossem suficientemente convictas, provavelmente haveria uma grande quantidade de pessoas que fortemente desejariam que houvesse um eclipse em suas vidas, do fundo do coração. Mas não é bem provável que alguém começasse a realmente acreditar que haveria um, independentemente de quantas pessoas concordassem que o mundo seria um lugar melhor se houvesse. Isso é facilmente compreensível para qualquer um, mas o mesmo raciocínio não se aplica, por exemplo, à maneira que as pessoas tendem a pensar sobre a natureza humana. Se mostramos a alguém um estudo que diz que algumas pessoas são mais inteligentes que outras biologicamente, ou que homens têm maior probabilidade de estuprar porque nossa espécie é neotênica, a maioria das pessoas diria: “Blasfêmia! Você está tentando justificar terríveis comportamentos baseado na natureza e portanto sua concepção de natureza não pode ser verdadeira. ” “Justificar” é uma palavra bastante ambígua e traquinas, já que pode significar tanto justificar eticamente como logicamente, o que são significados bastante distintos. Nos dois casos considerados, a pessoa que mostra o artigo está de fato tentando justificar logicamente uma razão pela qual algumas pessoas são mais inteligentes e também a razão pela qual algumas pessoas tem tendência a estuprar. Esse tipo de justificativa significa que ele está tentando dar uma explicação, uma maneira de ver, de porque as coisas são como são, de quais fatos do mundo, juntos, geram alguns fenômenos como inteligência diferencial e estupro. Dizer que esses fenômenos são altamente determinados por predisposições biológicas para uma arquitetura cerebral escrita no código genético não é em nenhum sentido possível concordar que essas coisas sejam boas, não é senão concordar que elas são reais, ou muito provavelmente reais.

Por outro lado, a pessoa mostrando os estudos não está tentando mostrar que o mundo deveria ser assim, a maneira como o mundo deveria ser não é o estudo da ciência, nem da filosofia analítica, é o estudo da política, filosofia moral e ética, religião, tecnologia etc…

A compreensão do fato de que a natureza não justifica eticamente nada, ela justifica logicamente, é um importante aprendizado para qualquer um que queira discutir a respeito das coisas do mundo sem um viés ético. O viés ético vem da falácia naturalista, como G. E. Moore chamou esse tipo de desentendimento, ou da confusão entre dever e ser. A falácia naturalista e o problema da confusão do que é com o que deveria ser, são, na minha opinião, os fatores dirigentes por trás do Relativismo, de alguns procuradores de Skyhooks, do Medo de Estatísticas e de algumas formas de Reducionsmo Cobiçoso. Mantendo isso em mente, que verdadeiro não significa bom, voltemo-nos para outra característica comum nas pessoas que falham em evitar esses quatro erros.

2) Vagueza

A vagueza é outra característica comum que mina grandes esforços no campo do pensar, eu cito parte dos pensamentos de Bertrand Russell sobre a vagueza2:

“Existe uma certa tendência naqueles que perceberam que as palavras são vagas a acreditar que as coisas também são vagas. Frequentemente ouvimos bastante sobre o fluxo e o continuum e a não-analisabilidade do Universo, e é frequentemente sugerido que conforme nossa linguagem se torna mais precisa, se torna menos adaptada a representar o caos do qual o homem supostamente evoluiu o cosmos. Isso parece para mim ser uma falácia de verbalismo – a falácia que consiste em trocar as propriedades que pertencem a uma representação e aquilo que ela representa. Salvo a representação, seja cognitiva ou mecânica, não pode existir coisa tal qual a vagueza ou a precisão; as coisas são como são, e isso é tudo. […] Quando o conhecimento é vago, isso não se aplica ao conhecer como uma ocorrência; já que uma ocorrência é incapaz de ser vaga ou precisa, todas as ocorrências são. Vagueza em uma ocorrência cognitiva é uma característica de sua relação com aquilo que é conhecido, não uma característica da ocorrência ela própria. “

Ainda que esse não seja o ponto que ele está defendendo no texto, quero enfatizar o fato de que não é apenas porque as palavras são vagas que as pessoas começam a pensar que as coisas são vagas, existem outras razões para isso. Se as coisas fossem mais vagas, as crenças sobrenaturais das pessoas teriam maior probabilidade de ser inclusas nas coisas possíveis do mundo. Se as leis da física (não as leis conhecidas da física, mas as leis, quaisquer que sejam, sob as quais a física realmente opera) fossem vagas por exemplo, haveria espaço para, digamos, cristãos dizerem que Deus opera no subnível, fazendo escolhas sob a égide das coisas possíveis. Na realidade existem pessoas que dizem que Deus, e também o Livre-arbítrio, realmente operam no mundo numa escala quântica, exatamente porque existe um nível de vagueza aparente no estado atual da teoria quântica. Essa vagueza pode ser igualmente preenchida por razoáveis argumentos matemáticos ou probabilísticos sobre o movimento da matéria3, e é assim que a maioria da comunidade científica os vê, mas onde quer que haja um nível de incerteza, indeterminação, e por vezes vagueza haverão pessoas irracionais tentando impor suas crenças, de natureza religiosa ou não, no mundo, para fazê-lo parecer um pouquinho mais como elas desejariam que fosse, e um pouco menos como ele realmente é.

A vagueza e a falácia naturalista são hábitos mentais bastante perigosos, e eles vem sempre acompanhados dos outros quatro tipos de erros que considerarei daqui em diante.

3) Relativismo

O maior objetivo do meme relativista é permitir que os memes do relativista sejam verdadeiros, independentemente dos fatos. O relativismo é um meme muito apelativo porque permite todos os maus hábitos que alimentam o intelecto do pseudo-intelectual. Ele tem largo espaço para ser vago, já que as coisas e a realidade para um relativista dependem da pessoa que está falando sobre elas, e do momento histórico no qual a pessoa está inscrita, da concepção de verdade da academia e dos sistemas controladores de poder etc… Elas não dependem. A realidade depende de como o mundo é, e o fato de que algumas visões de mundo estão embebidas em bobagem acadêmica é mais provavelmente uma consequência do relativismo do que algo que o relativismo pretende evitar. Existe um mundo lá fora esperando para ser conhecido, esse mundo não se importa se você estuda na Universidade de Cambridge ou na Universidade Desconhecida N 2039, na qual o acordo tácito é desprezar a idéia de verdade, mesmo que uma verdade não totalmente ou imediatamente acessível e pragmática. A gravidade funciona na Ruanda e no Chade tanto quanto em Mônaco ou nos Estados Unidos. Mulheres que aparentam ser mais férteis são consideradas atraentes na Austrália bem como na Itália, porque isso depende de uma tendência biológica de machos de desejar fêmeas que tenham maior probabilidade de lhes dar uma criança. A estrutura do universo não é relativa. Ela é desconhecida, já que seria necessário ao menos outro universo para computar esse. Ela também pode ser “incerta” da perspectiva de um observador olhando para o futuro, como as interpretações com colapso da física quântica desejam mostrar. Mas não é relativa, não existe algo como a terra girando ao redor do sol para você mas não para mim. Não há algo como “Há igual validade nas crenças de todos”. Esse meme é o que eu chamaria de O Meme New Age. O Meme New Age, cujas profundas raízes estão na filosofia posmodernista, no modelo tradicional de ciência social (Standard Social Science Model), e no meme para aceitar crenças religiosas alheias, é um meme muito perigoso. Ele ameaça a ciência hoje em dia como a inquisição o fez na era medieval, quando as pessoas se recusavam a cessar de acreditar que a tecnologia faz suas vidas melhores, e sistematicamente, mesmo que insconscientemente, desafiavam dogmas estabelecidos.

O Meme New Age vem de um passado nobre, já que suas intenções eram promover a paz, religiosa e política, e a liberdade. Mas alguns desses memes foram exaptados para o campo da ciência, e dali para a apreciação do povo, que, é claro, inverteu tudo e tornou-o a melhor desculpa contemporânea para acreditar em coisas completamente absurdas, como astrologia, o poder da mente, e todo tipo de substitutos new age para a religião… Ele também por vezes caminha junto com o meme “tudo é possível”. Esses dois memes são perigosos porque fazem parecer que cada um é o responsável causal por seu próprio estado de bem-estar, o que noutras palavras significa que pessoas que estão deprimidas, tristes, pobres, ou não inteligentes são responsáveis por seus próprios destinos, já que a “verdade” deles depende de seus próprios desejos e vontades, não de eventos além de seu controle. Para aqueles que acreditam nesses memes (ou uma caricatura deles) não há razão para ser justo, ou para corrigir malícias sociais, afinal de contas, tudo é possível, você só tem de desejar o suficiente.

4) Procurando por Skyhooks

O conhecimento racional é algo que pode vir de qualquer linha de pesquisa, e essa tem sido a principal razão para a existência de considerável liberdade na escolha de pesquisadores de seus tópicos de estudo, relativamente, por exemplo, a liberdade de um construtor de carros na maneira como ele vai performar seu trabalho. É da liberdade acadêmica, e um pouco menos da liberdade intelectual garantida por um escritório de patentes na Suíça, que vêm as mais interessantes idéias que posteriormente se tornam mainstream. Liberdade de escolha, quando se trata das forças por trás da pesquisa aparentariam ser, portanto, uma técnica bastante sábia para obtenção da melhor qualidade de produção. Mas isso não parece ser a verdade. Existe um hábito da mente que, como parte dos programas de pesquisa, causou mais mal do que bem. Esse hábito, seguindo a apreciação de Daniel Dennett em A Perigosa Idéia de Darwin, eu chamarei de “procurando por Skyhooks”.

Um Skyhook (gancho-celeste) na explicação dele é “…[Uma] força ou poder ou processo de “precedência da mente”, uma exceção ao princípio que todo o design, e o design aparente, é em última instância o resultado de mecanicidade sem motivos e sem mentalidade. Um Crane [guindaste], em contraste, é um subprocesso ou propriedade especial de um processo de design que pode ser demonstrado ser ele mesmo um previsível (ou retrospectivamente explicável) produto do processo básico”

Os Skyhooks são legatários de uma idéia de deus ex machina, a figura divina fictícia que salva o herói quando o autor o meteu numa enrascada sem saída. Crianças ao criar histórias tipicamente fazem utilização de uma espécie de deus ex machina simplificado: “E então ele encontrou o dragão e ficou preso na caverna e quando o dragão ia morder ele ele, ele…. acordou, era tudo um sonho e ele viveu feliz para sempre, Fim.” No teatro grego essa função era cumprida principalmente por seres divinos (e portanto antropomórficos), a sugestão era que houvesse uma mente capaz de, acima e além das forças naturais, resolver um problema.

No mundo da ciência é muito comum que haja pessoas que fazem o mesmo tipo de suposição, aquele objeto não pode ter surgido por meios naturais, tem de haver alguma mente, uma interferência superior que possibilite tal maravilha. Mas de novo e de novo aquilo que não podia ser explicado com as ferramentas da ciência de uma década acabam sendo explicados na década seguinte, como um subproduto sofisticado mas apenas composto dos produtos básicos anteriores, com o auxilio de Cranes (guindastes), eles mesmos também feito do produto original. E então os procuradores de Skyhooks voltam sua esperança para alguma outra maravilha do mundo que simplesmente precisa ter sido criada por algo que veio do céu.

Ele sugere o caso de procuradores de Skyhooks no Darwinismo. Primeiro pontuando que todo o design foi criado por este processo cego e mecânico e depois reforçando “Poderia isto ter realmente acontecido? Ou precisou o processo de uma ‘mãozinha’ [leg up] vez ou outra (talvez apenas no comecinho) de algum tipo de Skyhook? Por mais de um século, céticos têm tentado encontrar uma prova de que a idéia de Darwin simplesmente não pode fazer o trabalho, ao menos não todo o trabalho. Eles têm desejado, caçado, rezado por Skyhooks, como exceções ao que eles veem como a sinistra visão do algorítmo darwiniano se solidificando como manteiga. E de novo e de novo, eles surgem com desafios muito interessantes – saltos e lacunas e outras assombrações que parecem, de início, necessitar de Skyhooks, mas daí vem os Cranes, descobertos em muitos casos pelos mesmos céticos que estavam esperando encontrar um Skyhook”

Moderação contra oponentes intelectuais não é uma qualidade extensivamente presente no trabalho de Dennett, mas esse parágrafo me parece ser levemente moderado demais, uma particularidade que é, é claro, corrigida bem até demais no restante do livro. Ainda assim, existem algumas coisas pontuadas nele que serão úteis ao nosso escrutínio, num sentido neutro, mas não moderado.

É claro que é possível que os Cranes (guindastes) sejam descobertos pelos céticos que estavam desejando um Skyhook (gancho-celeste). Considerando que a maioria dos céticos com relação ao darwinismo são raramente céticos também com relação a suas inclinações mentais e hábitos mentais, e muito mais céticos a respeito de estatísticas (já que existe bastante evidência a favor, e muito pouca contra, o darwinismo) é altamente improvável que eles tenham um papel significante na descoberta de Cranes. É claro que o escopo desse texto abrange do senso comum e conversas de dia a dia até artigos acadêmicos, e existe uma proporção diferencial que deve ser atribuída de tolerância aqueles com o hábito de procurar Skyhooks nesses diferentes contextos. Não devemos tolerar ou aceitar com moderação a busca por Skyhooks numa conversa genérica, ou numa discussão de senso comum, já que este seria o caso das pessoas que estão rezando por, e desejando Skyhooks. Num grau muito menor, eu creio que as pessoas que caçam Skyhooks também permanecem um obstáculo para a construção do conhecimento racional. No caso do desejador e do orador é fácil ver que eles não fazem nada senão alimentar inclinações ilógicas, crenças anti-estatísticas e desejos improváveis das pessoas a seu redor. Ao caçador, por outro lado, não podemos atribuir que esteja fazendo a mesma coisa já que ele está executando um programa de pesquisa, e portanto ele poderia descobrir que de fato está certo, e se esse é o caso, então há Skyhooks, ele de fato haverá criado conhecimento racional. É sobre a possibilidade de que as pessoas estejam certas que se sustenta a liberdade acadêmica, mas a liberdade acadêmica não pode ser confundida com o relativismo. Não pode haver uma realocação de recursos do mesmo montante à hipótese de que o câncer é causado por um pote de chá orbitando Marte, a de que é causado pela devastação das florestas, e a de que é causado por algum tipo de mau comportamento celular bioquimicamente explicável. A razão para isso é que, ainda que esses três programas de pesquisa possam de fato se revelar corretos, eles têm uma probabilidade muito diferente de fazê-lo. Já que há evidência estatística (para não dizer lógica!) a favor da hipótese da célula, o defensor da devastação florestal tem o ônus da prova de mostrar porque é necessário estudar seu caso. Ainda mais difícil é o caso do defensor do pote de chá, já que ele também carrega o ônus da prova da existência do pote de chá orbitando Marte, que não exibiu particular evidência desde que Russell escreveu a respeito dessa possibilidade (e improbabilidade) muitas décadas atrás.

Voltemo-nos agora a nosso caso, e depois de deixar a absoluta maioria de procuradores de Skyhooks, os desejadores e os oradores, pensemos a respeito do caçador. O caçador, quando ele se propõe a procurar um Skyhook tem o ônus da prova de mostrar porque é provável que alí exista um, já que o passado não mostrou evidências de Skyhooks (com aproximadamente 2000 anos de pesquisa somente na cristandade). Já que sempre houve uma grande quantidade de dinheiro sendo alocada na pesquisa por Skyhooks fora do mundo acadêmico pois os oradores pagam os caçadores para continuarem vigiando em busca deles, eu diria que o mundo acadêmico e o mundo do conhecimento racional em geral não estariam ameaçados se eles varressem todo o dinheiro que eles fornecem aos caçadores de Skyhooks e o utilizassem para atividades que têm maior chance de produzir conhecimento, como pesquisa em bioquímica ou alimentar sapos com caviar.

5) Reducionismo Cobiçoso

Dos seis maiores obstáculos para a construção de conhecimento racional, o Reducionismo Cobiçoso é o menos comum, e também o menos perigoso. Ele é o oposto da procura por Skyhooks, tendo seu nome também tirado de A Perigosa Idéia de Darwin.

O reducionistas cobiçosos pensam que não haja Cranes (guindastes), e que tudo deve poder ser explicado em termos simplísticos, sem nenhum tipo de alavancagem interna do sistema. Pulam da física de partículas para a sociologia em apenas um passo, sem percorrer todas as alavancagens (Cranes) intermediárias que normalmente pensamos entre essas áreas.

O bom reducionista seria aquele que por um lado não procura nada no céu para auxiliá-lo, ou seja, não procura Skyhooks, e por outro lado leva em conta a existência de processos internos ao sistema de alavancagem que permitem novos níveis de complexidade, os Cranes.

Toda vez que alguém tenta fazer uma teoria sobre um fenômeno, ela deve, ao menos em princípio, poder dar origem a um programa de pesquisa que possa compreender partes do fenômeno, ou aceitar o fato de que há uma parte do fenômeno que não pode ser atacada naquele nível de explicação.

Um exemplo clássico é uma crítica no texto de Tomas Nagel “O Que É Ser um Morcego” 4 na qual ele critica o fato de não termos uma linguagem descritiva de estados mentais que seja independente do observador, e portanto nós não podemos sequer começar a falar do que é ser um morcego. A razão para não termos essa linguagem é que não temos uma teoria dos estados mentais no nível correto de análise, e o nível de análise no qual temos uma forma descritiva de falar sobre eles (o nível físico ou biológico por exemplo) não são suficientes para uma teoria da mente, quanto menos da mente de morcegos.

O que Nagel está pontuando é que ele acha que a filosofia da mente na época estava sendo uma reducionista muito cobiçosa, já que os níveis de explicação que ela propunha (só o biológico e o físico) não eram suficientes para uma teoria completa.

A fronteira entre o reducionismo cobiçoso e o bom reducionismo é bem menos clara do que a fronteira entre bom reducionismo e a procura por Skyhooks. Isso basicamente porque no primeiro caso ambos os lados tem o ônus da prova, já que o Cobiçoso João pode argumentar que “Todo fenômeno até hoje foi explicado somente com este e aquele níveis de análise” ao que Parsimonioso Harry responderá “De fato, mas há alguns fenômenos que existem de fato, como X ou Y que ainda não são explicáveis nesses níveis e que podem ser explicados no nível Z.” Já que a questão de ser o nível Z requerido ou não para uma explicação é uma questão empírica, deve haver investimento em ambos os lados, e o Reducionismo Cobiçoso tem seu lugar garantido.

Não é no Reducionismo Cobiçoso acadêmico que o problema para o conhecimento reside. Caçadores cobiçosos são sempre bem vindos. São os oradores e desejadores que são novamente perigosos, já que eles comprometem a possibilidade até mesmo de levar em consideração a possibilidade do nível Z de explicação. O Behaviorismo era uma boa idéia, e uma boa tentativa, mas agora é evidente que a psicologia precisa de um nível de explicação que explore mais níveis do que apenas condicionamento operante, condicionamento no nível físico. A possibilidade de entender os erros de Skinner só existiu porque alguém foi um bom reducionista, e não existe razão em particular para advogar publicamente o Reducionismo Cobiçoso mais do que existe para advogar que não criemos novos níveis de análise da economia ou da política. Explicar quase tudo em termos de quase nada não é algo ruim, mas é importante que de fato haja uma explicação, e não apenas uma petição apelativa que declara que o nível superior pode ser explicado em termos do inferior mas não demonstra como isso poderia ocorrer.

6) Medo de Estatísticas

Todos sabem que a África sub-saariana é mais pobre que o oeste europeu e ninguém acredita que essa informação deva ser mantida num cofre secreto, mas a mesma crença não parece existir para outros tipos de informação. A razão para isso, outra vez, é a falácia naturalista, que agora estenderemos conjuntamente com a confusão entre Ser e Dever na “falácia atualística”

Enquanto a falácia naturalista declara que o que é natural é bom, a falácia atualística dirá que o que é de fato ocorrente é bom. Ambas estão subscritas no mesmo erro, o erro de transformar verdade em bondade. É verdade que se você tomar dois grupos particulares entre os seres humanos e fizer um teste em ambos eles, a performance de um dos grupos irá ser em média melhor que a do outro, salvo nos casos em que todos falhem na tarefa (por exemplo “voar”) ou conseguida por todos eles (“pesar mais do que 4 quilos).

A questão a respeito de se as pessoas que usam bonés têm maior ou menor chance de usar óculos azuis no jantar do que pessoas que não é uma questão sobre um fato do mundo, e ainda que não tenhamos uma resposta para ela, existe uma resposta esperando ser descoberta. Suponha que descubramos que de fato pessoas que usam boné têm maior chance de usar óculos azuis no jantar, isso é apenas informação factual, e seria uma falácia atualística assumir que isso seja uma coisa má ou boa nela mesma. Não faz sentido fazer uma asserção do tipo : “O comportamento de usar óculos azuis deveria ser mantido pelos usuários de bonés porque usuários de boné têm maior probabilidade de usar óculos azuis.” Até aqui tudo bem, o mesmo vale para a África e Europa “Pessoas da África deveriam ser mais pobres que pessoas da Europa, porque pessoas da África são em média mais pobres que pessoas na Europa”.

Ambas são completamente absurdas, elas inferem ética dos fatos, e a ética não concerne aos fatos, ela concerne as intenções, e ao que deve ser feito. A estatística não nos diz o que deveríamos fazer, ela nos diz o que está se passando.

Uma vez que isso esteja entendido, devemos nos voltar a uma questão diferente. ¿É bom saber o que está se passando? Não em todos os casos, com certeza. Uma criança não deve saber que um certo botão ativa uma bomba se ela não tiver clareza de o que é uma bomba, ou que não é uma boa ativar bombas em geral. Uma pessoa muito gorda não deveria ser sistematicamente lembrada desse fato mais do que o suficiente para percebê-lo. Mas há outras naturezas da verdade que é bom espalhar.

¿Que teremos então a dizer quando de fato o que se está passando é terrível, como no caso da pobreza? Nesse caso parece claro a maior parte dos pensadores que deveria haver algum tipo de auxílio internacional que ajudasse o desenvolvimento da vida de pessoas pobres. Estranhamente, as pessoas se comportam eticamente quanto a esse caso, e não eticamente no caso de preocupações econômicas a respeito de mulheres negras. Pessoas preconceituosas diriam: “É por causa dessas mulheres negras que meu país não evolui, garotas negras jogam fora o dinheiro de meus impostos em sua falta de educação, deveríamos parar de ajudar”. Não é preciso dizer que isso é absurdo, e mais importante do que ser absurdo, não segue de nenhuma estatística no mundo, não poderia, porque não é uma afirmação a respeito de fatos, o “deveríamos” e o “jogam fora” dentro dela fazem dela uma asserção ética, que não pode ser confirmada ou desconfirmada por evidências.

O que é perigoso para o conhecimento é que mesmo pessoas não preconceituosas adotarão uma interpretação muito equivocada dos dados quando, por exemplo, disserem que essa informação deveria ser escondida para fazer o preconceito ir embora. Isso não é verdade, o preconceito sempre precedeu a informação, o preconceito é bastante comum entre caçadores coletores e índios, e má ética irá surgir onde quer que informação seja escondida. Por exemplo, existe evidência considerável de que a diferença de QI entre negros e brancos em 1981 nos EUA era causada em parte por razões sociais. Se nós apresentarmos apenas a informação bruta, de que brancos ganham tem QI maior do que negros, é possível que encontremos sérios problemas para nossa vida pessoal, mas se não escondermos a parte mais importante dos dados estatísticos, a causa provável para que haja uma diferença estatística, então estaremos fazendo bem.

Saber as causas de algo que nos parece uma chocante diferença entre como o mundo é e como deveria ser é em geral uma coisa muito boa. Pense sobre as afirmações preconceituosas de alguns europeus sobre os estrangeiros que vão trabalhar em seus países, se eles disserem “eles são estúpidos”, o que é uma maneira bastante desprazeirosa de dizer “eles são em média menos inteligentes do que pessoas nascidas na Europa” eles estarão fazendo uma afirmação um tanto quanto verdadeira com um viés ético extremamente condenável. Mesmo se eles forem, de fato, por medidas como profissão ou QI menos inteligentes, a informação sobre causas foi escondida, e então não há razões tangíveis e intuitivas acessíveis para que o preconceito vá embora. Se por outro lado as causas forem sistematicamente pontuadas, então haverá razão não apenas para a redução do preconceito em troca da neutralidade, mas também haverá mais razões para que boas ações políticas surjam. Esses estrangeiros têm alta probabilidade de ser pessoas pobres em seus países por exemplo, e alta probabilidade de terem tido uma educação muito ruim comparada com as pessoas nascidas na suiça por exemplo. Se essa parte da informação é negada, então não há espaço fácil e acessível para a redução do preconceito. Isso funciona em princípio até para informação que em geral deveria ser mantida em segredo, a criança que não deve saber sobre o botão que ativa a bomba poderia ser prontamente avisada sobre ele, quando ele tenha idade o suficiente para entender as causas e efeitos que estão envolvidos em todo o mundo da ativação de bombas, das causas da existência de uma bomba até as razões pelas quais algumas pessoas têm o poder causal de ativá-la e outras não. A pessoa gorda pode ser lembrada de sua condição, contanto que se mantenha território para uma causalidade desculpável. Por exemplo, se alguém é gordo por causa de metabolismo lento, é muito menos maldoso dar-lhe ambas a informação factual e a informação causal ao mesmo tempo do que prover apenas a informação factual.

Tivemos o suficiente da falácia atualística, o medo de estatísticas (ou de asserções provavelmente estatisticamente verdadeiras) é então o último dos hábitos daninhos que encontraram seu lugar de desenvolvimento em nossa sociedade em certa medida anti-matemática e anti-realistica.

Conclusão

Esses seis hábitos:

Dever não é Ser, o Bom Não é o Verdadeiro. (ou falácia naturalista)

Vagueza

Relativismo

Procura de Skyhooks

Medo de Estatísticas

Reducionismo Cobiçoso

…foram responsáveis por inaceitáveis perdas para o Homem, certamente zilhões de Reais, milhões de vidas e quantidades absolutamente imensuráveis de conhecimento. É chegado o momento de nos erguermos contra esses inimigos, sejam eles inimigos internos, tentando ultrapassá-los, ou inimigos externos, mostrando as causas para os desentendimentos das pessoas a respeito das coisas para auxiliá-las a pensar mais claramente a respeito de todo tipo de assunto. Mais que tudo, devemos desencorajar a Falácia Naturalista o máximo que possamos, pois ela deve ser considerada a força diretora por trás de uma quantidade de mal e escuridão sobre nosso mundo que faria com que as pessoas sentissem seus estômagos retorcerem, se fossem revelada como tal.

Nossas mentes têm imensas capacidades, e está dentre elas a habilidade de discernir dentre fatos confiáveis e não confiáveis, ou idéias. Se formos nos dedicar orgulhosamente a fazer desse discernimento uma questão de preocupação pública, nós estaríamos dando um grande passo na direção sempre vivo paraíso dos filósofos e profetas, apontemos nossas flechas na direção certa, e dentro de tempo o suficiente, existe maior esperança em um mundo menos preconceituoso, mais inteligente e mais sofisticado.

1Para uma brilhante defesa contrária a parte dos pontos aqui defendidos, ver O Colapso da Verdade e Outros Ensaios, de Hilary Putnam

2 Russell, Bertrand, Collected Papers, vol. 9, pp. 147–154

3Não exatamente da matéria, mas da onda probabilística determinada pela função de onda. Para aqueles que defendem como eu a interpretação dos muitos mundos da física quântica, retire a palavra “Probabilística” da sentença anterior. ¿Quer aprender mecânica quântica de maneira intuitiva? A sequência de Eliezer Yudkowsky sobre o tema é o lugar certo para isso. http://lesswrong.com/lw/r5/the_quantum_physics_sequence/

4 Nagel, T. 1974 “What Is It Like to Be a Bat?” Philosophical Review 83:435-50.

Primeiro Grupo de discussão de filosofia analítica da USP São Paulo

Senhores, visitantes, interessados em filosofia analítica.

Criamos o primeiro grupo de discussão de filosofia analítica a se encontrar dentro da USP, Universidade de São Paulo

Mudança em 2010:

O grupo se reunirá às segundas feiras durante o primeiro semestre de 2010, das 18 as 19:30 horas no prédio da filosofia.

Exemplos de autores analíticos.

Russell, Dennett, Hofstadter, Quine, Davidson, Kripke, Ned Block, Lewis, Chalmers, Bostrom.

Não é necessário ter Background em filosofia analítica (ou em filosofia). Inteligência é um pré-requisito, conhecimento de ciências é bem-vindo (Biologia evolutiva, computação, física quântica, relatividade geral, neurociências, lógica matemática, etologia, psicologia evolucionária, ciência cognitiva, semiótica, linguística etc….. )

Nas reuniões o grupo sempre terá lido um texto e discutiremos (refutaremos, contestaremos, adoraremos) as idéias do autor.

Aqueles com interesse em participar desses encontros favor

Enviar um e-mail para   uspfiloanalitica+subscribe@googlegroups.com

Sinceramente

Diego Caleiro.

Um dos donos do Blog.

Doomsday and Conscious Machines

Penultimate Draft 17/dec/2008

Please Help me improve this article by commenting it before it is sent to press.

Every Conscious Machine Drives us Closer to Death

“Every time the clock ticks ‘plus one’,’plus one’,’plus one’,

it will be telling you ‘one less’,’one less’, ‘one less’…”

Abril Despedaçado

The Doomsday Argument is alive and kicking, and since its formulation in the beggining of the Eighties by the astrophysicist Brandon Carter it has gained wide attention, been strongly criticized and has been described in many different, and sometimes non-interchangeable analogies. I will briefly present the argument here, and departing from Nick Bostrom’s interpretation, I will defend that doom may be sooner than we think if we start building conscious machines soon in the future.

The Argument

From Bostrom [1996]:

The core idea is this. Imagine that two big urns are put in front of you, and you know that one of them contains ten balls and the other a million, but you are ignorant as to which is which. You know the balls in each urn are numbered 1, 2, 3, 4 … etc. Now you take a ball at random from the left urn, and it is number 7. Clearly, this is a strong indication that that urn contains only ten balls. If originally the odds were fifty-fifty, a swift application of Bayes’ theorem gives you the posterior probability that the left urn is the one with only ten balls. (Pposterior (L=10) = 0.999990). But now consider the case where instead of the urns you have two possible human races, and instead of balls you have individuals, ranked according to birth order. As a matter of fact, you happen to find that your rank is about sixty billion. Now, say Carter and Leslie, we should reason in the same way as we did with the urns. That you should have a rank of sixty billion or so is much more likely if only 100 billion persons will ever have lived than if there will be many trillion persons. Therefore, by Bayes’ theorem, you should update your beliefs about mankind’s prospects and realise that an impending doomsday is much more probable than you have hitherto thought.

So what the argument states is simply that if you are willing to concede that you are a random possible human, and you are aware that you are the (aprox) 60 billionth person on this planet, than you should be willing to shift your predictions about the end of the world (meaning the end of your class of people) to a much sooner time than you previously did.

Several objections have been put forth against this standard formulation of the doomsday argument, ranging from the counter-intuitiveness of the conclusion to saying that the analogy fails for many different reasons, such as that it has no temporal component, that birth ranks are indexicals, that one could not have been only a possible human, rather than an actual one, among others. Still, counterarguments have been put forth to all these objections[BOSTROM 1999,2001] and it is far from clear that we have any reason to cast doubt on the central argument, let alone consider it refuted.

The most usual objections to the Doomsday argument rely on an intuitive misaprehension of the basic ideas underlying the argument, reason for which I will copy another version of it here, from Bostrom [2001] which specifies a particular hypothesis regarding prior probabilities that will be used in this article as a basis for reasoning about the consequences of creating new forms of consciousness with regard to our distance to Doomday.

The Self-Sampling Assumption and its use in the Doomsday argument

Let a person’s birth rank be her position in the sequence of all observers who will ever have

existed. For the sake of argument, let us grant that the human species is the only intelligent life

form in the cosmos.1 Your birth rank is then approximately 60 billionth, for that is the number of humans who have lived before you. The Doomsday argument proceeds as follows:

Compare two hypotheses about how many humans there will have been in total:

h1: = “There will have been a total of 200 billion humans.”

h2: = “There will have been a total of 200 trillion humans.”

Suppose that after considering the various empirical threats that could cause human extinction (species-destroying meteor impact, nuclear Armageddon, self-replicating

nanobots destroying the biosphere, etc.) you still feel fairly optimistic about our prospects:

Pr(h1) = .05

Pr(h2) = .95

But now consider the fact that your birth rank is 60 billionth. According to the

doomsayer, it is more probable that you should have that birth rank if the total number of

humans that will ever have lived is 200 billion than if it is 200 trillion; in fact, your

having that birth rank is one thousand times more probable given h1 than given h2:

Pr(“My rank is 60 billionth.” | h1) = 1 / 200 billions

Pr(“My rank is 60 billionth.” | h2) = 1 / 200 trillions

With these assumptions, we can use Bayes’s theorem to derive the posterior probabilities

of h1 and h2 after taking your low birth rank into account:

Pr(h1 | R = 60 B) = ________Pr( R = 60 B | h1 ) Pr(h1 )______________ ≈ .98

.                               .  Pr( R = 60 B | h1 ) Pr( h1 ) + Pr( R = 60 B | h2 ) Pr(h2 )

Your rosy prior probability of 5% of our species ending soon (h1) has mutated into a

baleful posterior of 98%. ”

Prior Probabilities

The greatest problem about using bayesian reasoning in arguments such as the Doomsday argument is that we have no method whatsoever of determining the prior probabilities of outcome. We cannot know if the possibilities range from there being, all and all, 100 billion humans to there being 100 trillion or if the probabilities range from there being 100 billion to a googol humans, neither how likely each option it. Since we do not know what are these prior possible probabilities we must rely in one or another intuition about the probability distribution if we are to take in consideration our actual case.

Before going to the concrete case of mankind in the early 21st century, I want to point out that at an abstract level the argument is sound and works no matter what are the prior probabilities. Even though we cannot ascribe any certainty to from how much to how much should we shift the probability of extinction within, say, 200 years, we can be sure that we should make the shift, and think of it as much more probable than we usually do. The abstract bayesian reasoning is sound independently of determining the specific values to be treated, and therefore the belief that we are likely to be extinct sooner than we think is independent of the belief of how sooner are we to expect doom. What is important is that we understand that this reasoning, if appliable, slides the probability towards a sooner catastrophe, and that any further considerations we apply within this line of reasoning will slide it towards or away from our new set-point, whichever it is.

For mankind in the 21st century, we have the data that you are around the 60 billionth person to ever live, and since, as I said, we hace no way of being sure about prior probabilities we can use as a working hyphotesis the same simplified case that Bostrom used to unfold our discussion, that is, that the two prior possibilities are that there are 200 billion and 200 trillion people during all the history of man. This is just a working hyphotesis, and it doesn’t have to be anywhere near the truth for the consequences that we can draw from it be useful, even if it turned out that the options are 500 billion with 1/3 prior chance 229 googols with 1/3 prior chance and 12 with 1/3 prior chance, the sliding of our belief would still be the same, and the reasoning remais sound as long as we are not epistemologically aware of the prior probabilites (which we never will, since they are prior).

If that is the case then, as his arguing shows, we have reason to believe that we are 98% likely to be in a world that will stand more 140 billion people, and 2% likely to be in a world that will stand more 199 940 000 000 000 people, which is a lot more than 140 billion.

But then along comes the question, how soon it that? Or, as a fact of matter, how soon are the predictions thus far made based on any other prior probabilities? In a recent article Jason Matheny [2007] sums up a few predictions:

While it may be physically possible for humanity or its descendents to flourish for 10^41 years, it seems unlikely that humanity will live so long. Homo sapiens have existed for 200,000 years. Our closest relative, homo erectus, existed for around 1.8 million years (Anton, 2003). The median duration of mammalian species is around 2.2 million years (Avise et al., 1998).

A controversial approach to estimating humanity’s life expectancy is to use observation selection theory. The number of homo sapiens who have ever lived is around 100 billion (Haub, 2002). Suppose the number of people who have ever or will ever live is 10 trillion. If I think of myself as a random sample drawn from the set of all human beings who have ever or will ever live, then the probability of my being among the first 100 billion of 10 trillion lives is only 1%. It is more probable that I am randomly drawn from a smaller number of lives. For instance, if only 200 billion people have ever or will ever live, the probability of my being among the first 100 billion lives is 50%. The reasoning behind this line of argument is controversial but has survived a number of theoretical challenges (Leslie, 1996). Using observation selection theory, Gott (1993) estimated that humanity would survive an additional 5,000 to 8 million years, with 95% confidence.”

So the weather forecast is already dark grey, and here I intent to make it only worse. Going back to our assumption of the 200 billions against 200 trillions, we have foreseen that there are probably only 140 billion of us coming along for the ride, and before going into all the birth-rates and population predictions, we must stop and analyse what is the “us” when I say that there are 140 billion of us coming along for the ride.

The Reference Class Problem

The Doomsday argument works once you consider your birth rank in relation to your reference class, the class that you belong to which matters for considering the Doomsday argument. This could be any of these:

(1)Beings that have read, understood, and believed the Doomsday Argument

(2)Beings who could have mastered the argument

(3)Human Beings

(4)Conscious Beings

(5)Conscious Intelligent Beings

As things stand, there is no settled down position to which of this reference classes should we consider ourselves when reasoning about Doomsday. The intuitive grasp is that we should count our birth rank as humans, but that can be deceptive, since there are no strict frontiers that determine humanity (or any of these classes) and some consider it likely that even you could one day become some sort of tranhuman, super-human or post-human of a kind. Intuitively, that should not change your predictions about doom made before you upgraded, so we have some reason to believe that class (3) is not the best bet for Doom predictions.

Most of us only care about our lives as long as we are conscious, so that if one would keep us in deep anesthesia, in a coma, or in a sleepless dream, most of us would not like the idea. We hold a tacit conception that what matters about us in consciousness, meaning that were we not concious (i.e. If philosophical zombies were possible) life would be pointless. Also, we make ethical considerations regarding other entities in terms of consciousness: “don’t hurt that squirrel, he can feel it.” This is not a specific argument in favour of using the class of conscious observer when analysing global catastrophic risks, but it is a gereral argument in favouring of favouring consciousness over other things, whatever consciousness turns out to be.

From now on I will assume that the important class of reference when one is analysing the Doomsday Argument is indeed the class of conscious beings, and I’ll also assume that there is no such thing as half-conscious or partly-conscious. We will pretend that it is very clear who is and who is not conscious, and that each conscious being can be accounted as an equal into Doomsday reasoning (independently of how much he lives, how powerfull his mind etc…)

We are not also particularly interested in knowing when will be the Doomsday of all humans, supercomputers and squirrels. Not at least if we can instead know when is the Doomsday of all humans and supercomputers only. So, even though the debate goes on about squirrel’s consciousness, and why not say, bats’s as well, we will consider our reference class to be observers who are both conscious and intelligent. This comes from the simple fact that we want to predict the Doom of these fellows, not of squirrels, not of superpowerfull intelligent unconcious machines. To be in our reference class, we demand intelligence for squirrels and consciousness for machines, if they do not present them to us, we stand where we are.

Conscious Observers in an Atemporal World

The underlying reasoning behind Doomsday pressuposes a sort of atemporality that has been much discussed. Since we are considering as part of the class of reference beings from the future, that do not yet exist, how can we use them in our reasoning? Two lines of objections have been put forth, one that says that you cannot use them at all since they do not exist, and other that says that if the world is indeterminate (i.e.Quantum Physics etc…) then we cannot use them to calculate anything.

I think that these objections miss the point of the doomsday argument. As Daniel Dennett said: <!– @page { margin: 2cm } P { margin-bottom: 0.21cm } –>”The future is going to happen, and that is true whether determinism is true or wheter inderminism is true, there going to be a future” . There are two very different senses of being determinate. The more usual one is the classical formulation of determinism, epitomized by Laplace’s Demon though experiment. We are asked to imagine a omni-intelligent being that can compute all the laws of physics (whatever they are) and that knows the postion of all particles in one particular moment. By definition, if this demon is able to know the future and the past, then the universe is determinate, otherwise, it is indeterminate, or open. Then there is another less used sense of determinate, let’s call it God’s Eye Determination. Instead of the Demon, we have an omniscient God that knows all non-indexical facts, past and future, all the particles, everything that can be known by one being about the universe. A weak sort of determinate, which is the one Dennett alludes when forecasting the future, is the one in which this God knows the future. That only means that the future will come (if it comes) and that what happens in it will happen in it (it is as tautological as it sounds).

The reason I exposed these two senses of determinate is because both objections against doomsday that rely on the fact that the argument is temporal, whereas the urns with 10 balls or 100 balls are not is mixing up these two senses. For the mathematical assumption that you are a randomly chosen figure in a reference class to work all you need is God’s Eye Determination, there has to be a fact of matter as to how many beings there will ever be, but it is completely irrelevant if this information could be known by a Laplacean Demon, calculated by our best computers or accessible in any other fashion. The reasoning that gives soundness to the Doomsday argument is completely independent of the future, and of the level of determination of reality (in the sense of predictability). This may seem counterintuitive at first, but it seems very logical since the Doomsday Argument is a mostly mathematical argument, which implies it probably needs very thin ground in the nature of reality to work.

Can a Machine Be Conscious?

So the Doomsday argument is sound, works well and predicts a dark weather for our world, with not so many people (lattu sensu) to come after you, since you are the 60th billionth person around. Let us now turn to the refernce class. We have decided to consider only intelligent conscious beings as part of our supposed reference class, and that brings about the age-old question, can a machine be concious?

Within philosophy of mind this is one of the most discussed topics of the late 20th century. For starters, there are at least four widely used senses of the word “consciousness” that have been elegantly split up by Ned Block in Concepts of Consciousness. If we are phenomenal realists, like Block, Chalmers and Searle, that is, if we attribute reality to phenomenal qualities (i.e. Qualia) then the sense that matters to us is the sense Block calls p-consciousness (short for Phenomenal Consciousness). If we are materialistic monists, like Dennett, then what people call phenomenal consciousness actually stands for a bunch of interacting physical entities and their relations, not to phenomenal qualities. In this case to ask if a machine is conscious is to ask wether it can perform certain kinds of activities, and behave in such and such way, it is an empirical question.

I will remain neutral as to should we be phenomenal realists or materialistic monists. Since philosopher are allowed to suppose contradictory things, as long as they do them one at a time, I will work on both hipothesis.

      1. Phenomenal Realism is true: Supposing that phenomenal realism is true, it remains to be seen wether consciousness is a physical process (type or token identity and physical emergentism would be qualified here) or if it is non physical (here being all sorts of dualisms). For the sake of brevity, I won’t discuss Idealism. Another option is that consciousness is in fact a part of a physical process (property dualism, as well as qualia being the intrinsic nature of matter, opposed to the physical spectrum, which describes the relational nature).

      2. Materialistic Monism is true: An empirical theory of consiciousness would have to account for all we call conscious phenomena in an explanatory and clear way. Alternatively, it could be true and undiscoverable (because we do not have the means to perform such a discovery) but these details should not divert us from what matters for doomsday, so we can assume that it is discoverable.

As many options as there are for the philosophical Realist, most of them have an non-investigable outlook. Dualist formulations are almost always unverifiable, epiphenomenalism in particular. Even within cartesian dualism, if there were inter-substancial causality, what we could analyse from outside is only that the physics, say, of a brain is not working as expected, but that does not entail that it is consciousness that is doing the job. If it is consicousness, we don’t have a way to find out. If consciousness is the intrinsic nature of matter, since all our apparatus of measurement only measures relational aspects, we could not know either whether a machine was consicous.

As things stand, if phenomenal realism is true, we have no way of finding out if a machine is conscious or not, and are condemned to remain forever thinking through analogies, just like we do today with chimps and squirrels, guessing from their distance to us if, and how much are they concious. So, perhaps there could be conscious machines, but we would not be able to aknowledge them as such.

If on the other hand Materialistic Monism is right than we can assume that we will find a standard definition of consciousness and more or less direct ways of testing if it applies to different beings. Some believe we already do have the necessary apparatus. In any case it is technically feasible that we will one day find out a consciousness-meter and know whether machines are or not conscious. Note also that since we are assuming that we are conscious, it is a decided fact of matter that there can be conscious machines, because there already are, it only remains to be seen whether we will be able to produce non-biological machines that are conscious as well.

Thusfar I have addressed the epistemological grounds for machine consciousness, and argued that in both cases it is possible (does not contradict any central thesis) that machines are conscious.

Both Phenomenal Realists (of most kinds) and Materialistic Monists would be ready to aknowledge at least the possibility of machine consiciousness, so our reference class, which considers the future, seems to be increasing in size, but how much is it increasing?

How Long do We Have

The Doomsday argument purports to show that hiphotesis with fewer individuals (say, 200 billion) are more likely than with many individuals (200 trillion). Our reference class is much more likely to be around the billions than the trillions, now what is the consequence of incresing the size of the reference class that we think that actually will live. In other words, what is the consequence of thinking that it is likely that soon we will be able to create conscios machines?

For the argument, it is unfortunately (i’ll explain soon) none. The only important data when reasoning is the set from which you decided that you are a random sample from and your birth rank among that set. So, that is well stablished, we have decided that we are the 60th billionth people around and that our set of reference is of conscious intelligent beings. That is all the information we need! You already now, right now, that the world is much more like to have more 140 billion intelligent conscious beings than it is to have several trillions. If I add a new piece of information, it will not change your calculations, but I will do anyway:

New information: Within the first half 21th century, we will be able to create intelligent conscious machines.

Many people, most proeminently Ray Kurzweil, have defended this hiphotesis as highly likely. Moore’s law seems to be still working, technology is developing quickly, brain-computer interfaces are getting better every day, IBM has a brain-simulation project, our best computers perform computations only 2 or 3 orders of magnitude inferior to the human brain etc… in other words, it is a likely possibility, and we should give it careful thought.

I said that it doesn’t make any difference for the Doomsday Argument, and that is true, but that does not mean it doesn’t make any difference for the Doomsday itself. Doomsday, in our hiphotetical scenario is to take place whenever the 200 billionth conscios intelligent being is born, or created (remember that the argument works independently of the numbers we assumed, the same follows if we had chosen as prior possibilities other numbers instead of 200 billion). Doomsday will come not in a specific when, but in a specific if. If the 200 billionth being is born, then (per armageddon?) the reference class will be destroyed (or stop reproducing). Since no one forecasts that humans or machines will suddently stop reproducing unless they run out of fuel, armaggedon is more likely than immortality without children.

It is estimated that around 350 000 people are born every day, that ammounts to some 130 million born every year. Supposing that current trends of decreasing populational growth will continue, we can say that the 21st century will see some 5 billion more people being born. That is not so bad (given that we did not attribute any prior probabilities for, say, 63 billion all and all, because that would scare us too much). But now suppose that we do create intelligent machines, not only that, but we create machines that can create copies of themselves, just like we do. The difference being that they are much faster. Now, there is no theoretical obstacle for them to create, say, 145 Billion copies of themselves, within 15 years. That is almost sure doom for us, and for them.

It can still get worse. Let us suppose (also a higly likely possibility) that we create simulations of societies, just like our current videogames, but with conscious beings on them. One simulation could simultaneaously run a very large number of conscious beings, say, 200 milion. Or more, much more, the only limit is computational power, and that has been more than doubling every two years for decades.

So, how long do we have in fact? It impossible to forecast that for a great number of reasons. (1) We do not have the prior possibilities and their probabilities (2) We do not know if there were or there are other in our reference class alive today (aliens etc…) (3) Even if we did know that we are alone, and that the prior probabilities were such and such, this would still give us only a likelihood distribution, and we would have no way of telling which specific instance of it we were. Just like all bayesian reasoning based on unknown prior probabilities, the Doomsday argument is more an argument towards a shift in our current beliefs, than it is a settlement of what we should believe.

In this article, I hope I have made a strong case for another shift. Even though we cannot be sure whether machines are or not conscious, if we will ever build simulations, if Moore’s law will keep its pace etc… We have to shift upwards the fear we have of creating more individuals of our reference class (specially in ways that look dangerous). Doomsday, which will happen even if only in the heat death of the universe, is shifting towards us every time a conscious intelligent observer is created, and we should really take that in consideration when making future plans about building inteligent machines, at least if our mathematical and computational abilities manage to make us understand what can be blatantly obvious to the machines, but not so much for old apes from the Savannahs.

References

Bostrom, N.1999 The Doomsday Argument is Alive and Kicking IN Mind (1999), Vol. 108, No.431, pp. 539-50.

———-. 2001. The Doomsday Argument, Adam & Eve, UN++, and Quantum Joe IN Synthese (2001), vol. 127, issue 3, pp. 359-387.

Reducing the Risk of Human Extinction
Jason G. Matheny

Risk Analysis.

A Third Route to the Doomsday Argument

preprint

Paul Franceschi

University of Corsica

revised May 2005

p.franceschi@univ-corse.fr

http://www.univ-corse.fr/~franceschi

See for instance “A Third Route to the Doomsday Argument ”, Franceschi ,P.

Philosophical Foundations of Neuroscience. Bennet, M. Hacker, P.M.S.

Fundamentos da matemática e a mente humana

Teoria dos conjuntos

No final do século XIX o desenvolvimento da analise de um lado levou a noção intuitiva de conjunto que foi desenvolvida por Cantor de maneira subentendida nos seus estudos sobre o infinito e a descoberta de números transfinitos (infinitos maiores que a infinitude dos números naturais), de outro lado Peano havia conseguido reduzir as leis da aritmética básica e a serie dos números naturais a 5 axiomas simples (sistema que ficou conhecido como PA, Peano Arithmetic), por ultimo o nascimento da lógica simbólica e a redução da noção de numero a sentenças logicas foi excecutada por Frege. No começo do século XX havia uma forte tendência de com a noção de conjuntos e com o simbolismo lógico axiomatizar toda a matemática e organizar os seus fundamentos, principalmente para solucionar os vários paradoxos que estavam emergindo quando se fazia uso da noção intuitiva de conjunto (como o paradoxo de Russell). Em 1905 Zermelo publicou a primeira tentativa de listar os axiomas fundamentais da matemática e nos 30 anos que se seguiram ele recebeu inúmeras criticas e contribuições, para em 1934 publicar de novo seu sistema axiomatizado, que ficou conhecido como ZFC. Desde que foi demonstrada a impossibilidade de se provar a hipótese do continuo dentro desse sistema axiomático – a hipótese de que entre a infinitude dos naturais e dos reais não existe nenhuma infinitude intermediaria, ou ainda em outros termos, a hipótese de que a operação de sucessor e a de conjunto potencia resultam no mesmo aumento de cardinalidade nos transfinitos – foi reconhecido a necessidade de novos axiomas bem como axiomas novos para se trabalhar com cardinais muito grandes – maiores que a infinitude dos naturais – mas apesar disso esses axiomas são até hoje aceitos como os axiomas padrões para se provar qualquer teorema matemático. Fora o axioma da escolha, a maioria dos axiomas é bem intuitivo. O primeiro é o axioma da extencionalidade que diz que se x pertence ao conjunto A só e somente se pertence a B, então o conjunto A é idêntico ao B (se x pertence a A tem como conseqüência ele pertencer a B, então A está contido em B). O segundo axioma é o do esquema da separação, que diz que dada uma propriedade Φ é possível separar os elementos de um conjunto A segundo o critério de atender ou não a propriedade Φ, em outro conjunto B. (Se o axioma for que dada uma propriedade Φ estará sempre associado um conjunto A, o paradoxo de Russell emerge). Em seguida tem o axioma da pareação, que diz que existe um conjunto A ao qual pertence um z, e esse z pode ser igual a x, ou a y, ele é o par (x,y). O axioma da soma que diz que existe um conjunto C tal que x pertence a C só e somente se x pertencer a B e B pertencer a A. O axioma do conjunto potencia que acerca a existência de um conjunto B tal que C pertence a B se e somente se for um subconjunto de A. O axioma da Regularidade que diz que se o conjunto A não for nulo então existe um x tal que x pertence a A e para todo y pertence a x, ele não pertence a A (isso quer dizer que um conjunto não contem como elementos os elementos dos seus elementos). O axioma da infinitude que acerca a existencia de um conjunto A em que 0 pertencendo a A e para todo conjunto B que pertencer a A, B união com o conjunto que contem B também pertence a A. O axioma esquema da substituição que diz que se para todo x,y,z, com x pertencendo a A e valendo a propriedade φ(x,y) e φ(x,z) e y for igual a z, então existe um conjunto B e y pertence a tal conjunto se e somente se existe um x que pertence a A e satisfaz φ(x,y). Por fim, o axioma da escolha, que pode ser enunciado de varias maneiras. A forma mais detalhada que eu conheço diz que seja um conjunto A com vários subconjuntos, existe uma função gama que escolhe ao menos 1 elemento de cada subconjunto de A e forma um outro conjunto, com esse elementos chamado conjunto-escolha. No limite se a função escolher todos os elementos de cada subconjunto o conjunto escolha é o próprio conjunto A, e como se usou uma função especifica para escolher esses elementos, isso significa que esse conjunto terá uma ordem, o que implica no teorema da bem ordenança que diz que todo conjunto pode ser bem ordenado.

Se denotarmos φ(x) como uma propriedade qualquer, tal como x é primo; ¬ como o simbolo da negação, tal que ¬φ(x) denote a negação da propriedade φ; x como para todo o x, de forma que x φ(x) denote, para todo x, a propriedade φ(x) vale; x como, existe ao menos um x, tal que x φ(x) existe ao menos um x que atende a propriedade φ(x); x X como x é um elemento do conjunto X; A B como A pertence ao conjunto B; p → q, como se p então q; ↔ como se e somente se; como ‘e’, de modo que p q é verdade se e somente se p for verdade e q for verdade e finalmente como ‘ou’, de modo que p q é verdade se p for verdade, ou se q for verdade.(Para uma definição mais rigorosa dos conectivos, ver nota: ) Os axiomas enunciados com o simbolismo lógico podem ser assim resumidos:


Axioma da extencionalidade:

x(x A ↔ x B) → A = B

Axioma esquema da separação:

Bx(x B ↔ (x A φ(x)))

Axioma da pareação:

Az(z A ↔ (z = x z = y)

Axioma da soma:

Cx(x C ↔ B(x B B A))

Axioma do conjunto potencia:

BC(C B ↔ C A)

Axioma da regularidade:

A ≠ 0 → x[x A ∧∀y(y x → y A)]

Axioma da infinitude:

A[0 A B(B A → B{B} A)]

Axioma esquema da substituição:

xyz((x A φ(x,y) φ(x,z)) → y = z) → By(y B ↔ x(x A φ(x,y)))

Axioma da escolha:

AfB((B A B ≠ 0) → f(B) B))

Teoremas da Incompletude

A partir desses axiomas é então possível, através das leis de dedução da lógica clássica, obter praticamente todos os teoremas conhecidos da matemática. Kurt Godel provou em 1931 que esse sistema nunca deduziria todas as verdades matemáticas, mais ainda, ele provou que todo sistema que contenha a artimetica básica esta fadado a ser incompleto, no sentindo de que sempre existirão sentenças aritiméticas que são verdades mas não são provadas no sistema. Para uma explicação resumida desse teorema eu cito uma palestra dada pelo matemático Solomon Feferman no Instituto de Estudos Avançados em 2006:



The first incompleteness theorem: If S is a formal system such that

(i) the language of S contains the language of arithmetic,

(ii) S includes PA, and

(iii) S is consistent

then there is an arithmetical sentence A which is true but not provable in S.

Here is an idea of how Gödel proved his incompleteness theorem. He first showed that a large class of relations that he called recursive, and that we now call primitive recursive, can all be defined in the language of arithmetic. Moreover, every numerical instance of a primitive recursive relation is decidable in PA. Similarly for primitive recursive functions. Among the functions that are primitive recursive are exponentiation, factorial, and the prime power representation of any positive integer. He then attached numbers to each symbol in the formal language L of S and, using the product-of-primes representation, attached numbers as codes to each expression E of L, considered as a finite sequence of basic symbols. These are now called the Gödel number of the expression E. In particular, each sentence A of L has a Gödel number. Proofs in S are finite sequences of sentences, and so they too can be given Gödel numbers. He then showed that the property: n is the number of a proof of A in S, written ProofS(n, A), is primitive recursive and so expressible in the language of arithmetic. Hence the sentence(n)ProofS(n, A),written ProvS(A) expresses that A is provable from S. Moreover, if it is true, it is provable in PA. So we can also express directly from this that A is not provable from S, by ¬ProvS(A). Finally, Gödel used an adaptation of what is called the diagonal method to construct a specific sentence, call it D, such that PA proves:

D <-> ¬ProvS(D).

Finally, he showed:

(*) If S is consistent then D is not provable from S.

The argument for (*) is by contradiction: suppose D is provable from S. Then we could actually produce an n which is a number of a proof in S of D, and from that we could prove in PA that “n is the number of a proof of D in S”, from which follows “D is provable in S”. But this last is equivalent in S to ¬D, so S would be inconsistent,contradicting our hypothesis. Finally, the sentence D is true because it is equivalent, in the system of true axioms PA, to the statement that it is unprovable from S.

It should be clear from the preceding that the statement that S is consistent can also be expressed in the language of arithmetic, as ¬ProvS(A¬A), for some specific A (it does not matter which); we write ConS for this. Then we have:

The second incompleteness theorem: If S is a formal system such that

(i) the language of S contains the language of arithmetic,

(ii) S includes PA, and

(iii) S is consistent,

then the consistency of S, ConS is not provable in S.

The way Gödel established this is by formalizing the entire preceding argument for the first incompleteness theorem in Peano Arithmetic. It follows that PA proves the formal expression of (*), i.e. it proves:

(**) ConS ¬ProvS(D).

But by the construction of D, it follows that PA (and hence S) proves

(***) ConS D.

Thus if S proved ConS it would prove D, which we already know to be not the case.

Máquinas de Turing

Na época em que o ZFC foi feito não se tinha ainda um conceito claro do que era um processo dedutivo e se falava numa noção vaga de procedimento finito ou procedimento efetivo que fazia referencia a idéia de algoritmo. Alem disso um dos problemas da matemática da época era a questão da existência de um algoritmo que daria o veredicto de certo ou errado sobre a resposta de qualquer problema matemático, o chamado problema da decisão ou entscheidungsproblem. A resposta que Alan Turing daria a essa questão é que não é possível existir tal procedimento que decidira a verdade de qualquer enunciado matemático, assim como não é possível obter um sistema axiomático que deduza todas as verdades matemáticas. Apesar da noção de algoritmo pairar sobre a matemática desde seu inicio, a formalização dela só ocorreu por volta da década de 30. Ocorreram 3 formalizações, equivalentes, que buscaram captar o conceito intuitivo de algoritmo ou procedimento efetivo: a de Alan Turing em 36, a de Alonso Church no mesmo ano com o lambda-calculus e a de Stephen Kleene e outros com a teoria das funções recursivas. Ambas as 3 tentativas se mostraram formalmente equivalentes e eficazes em capturar o conceito de algoritmo e todas as 3 emergiram de uma certa maneira direta ou indiretamente dos métodos e dos resultados levantados pelo teorema da incompletude de Kurt Godel. Esse texto versa sobre como o teorema da incompletude, enunciado dentro do conceito das maquinas de Turing parece ter certas conseqüências para a filosofia da mente. Turing acreditava que a mente humana funcionava a partir de vários estados mentais discretos que se alteravam conforme o raciocínio prosseguia, ao tentar capturar o raciocínio matemático dos algoritmos em um conceito formal ele concebeu uma maquina que também possuía n estados diferentes que variavam conforme ela lia uma fita com certas informações. Essa fita é dividida em m casas diferentes e em cada casa pode-se ter um traço ou nada (1 ou 0), a maquina possui uma tabela de instruções composta por uma serie finita de quintuplas em que o primeiro elemento é designa o estado da maquina no momento, o segundo o estado da casa em que ela esta lendo no momento, o terceiro se ela deve apagar (0) ou escrever um traço (1) na casa atual, o quarto se ela deve se mover para a esquerda, para a direita ou ficar centrada na casa atual e por fim o quinto para qual estado a casa deve ir. Se os estados forem escritos com números decimais, o estado das casas os números binários (1 para um traço e 0 para nada), a instrução de escrever um traço ou apagar por 1 e 0 respectivamente, se mover para a direita sendo denotado por R, para a esquerda L e ficar centrada C, a seguinte quintupla: 1,0,0,C,0 indica que se a maquina estiver no estado 1 lendo uma casa sem nada, ela deve deixar a casa com nada, continuar nesta casa e ir para o estado 0, que corresponderia ao fim da computação. Uma maquina com tal instrução ira sempre terminar imediatamente se for inserida uma fita em branco. Ela ainda poderia possuir a seguinte instrução: 1,1,1,R,2 que diz que se a maquina estiver no estado 1 e encontrar um traço na fita ela deve deixar aquela casa com o traço se mover para a direita e ir para o estado 2. Uma maquina com a seguinte tabela:

1,0,0,C,0 1,1,1,R,2

2,0,0,R,3 2,1,1,R,9

3,0,1,L,4 3,1,1,R,3

4,0,0,L,5 4,1,1,L,4

5,0,0,L,5 5,1,1,L,6

6,0,0,R,2 6,1,1,R,7

7,0,0,R,8 7,1,0,R,7

8,0,0,R,8 8,1,1,R,3

9,0,1,R,9 9,1,1,L,10

10,0,0,C,0 10,1,0,R,11

11,0,1,C,0 11,1,1,R,11


Ira computar a função f(a) = a + 1, sendo a o numero de traços iniciais na fita. Ela ira dar um espaço entre os traços já existentes e ira escrever a + 1 traços. Muitas outras funções mais complexas podem ser computadas por maquinas de Turing, de fato qualquer procedimento matemático que siga um algoritmo pode ser computado por tais maquinas. Certas computações nunca tem fim, como por exemplo uma maquina de Turing que seja programada para enumerar a serie dos números naturais.

Máquinas de Turing e a mente humana

O objetivo dessa parte do texto é dar bons argumentos de porque podem existir verdades acessíveis a mente humana que não são acessíveis a uma máquina de Turing. Isso foi proposto inicialmente pelo matemático Kurt Gödel no artigo de 1951 intitulado: ‘Some basic theorems on the foundations of mathematics and their implications’ e posteriormente retomado por inúmeros matemáticos e filósofos como J.R. Lucas, Ernest Nagel ou Roger Penrose. Irei reproduzir o argumento dado por Penrose no livro ‘Shadows of the mind’ de 1994 fazendo uso livre do simbolismo lógico previamente apresentado:

Seja a serie de todas as computações aplicadas exclusivamente a n:

s = C1(n), C2(n), C3(n), ….,Cq(n), ….

Defina-se Ξ(x) como: x é uma computação que chega a um fim. Para saber se Cq(n) chega a um fim temos que fazer outra computação A(n,q) que para se e somente se Cq(n) não para:

¬ Ξ[Cq(n)] ↔ Ξ[A(n,q)] ( * )

Consideremos o caso especifico q = n:

¬ Ξ[Cn(n)] ↔ Ξ[A(n,n)]

Mas A(n,n) pertence a serie s, ou seja, é uma certa computação aplicada exclusivamente a n. Assim: A(n,n) = Ck(n). Segue que:

Ξ[A(n,n)] ↔ Ξ[Ck(n)]

Consideremos o caso n = k:

Ξ[A(n,n)] ↔ Ξ[Cn(n)]

Para não contradizer * segue que: ¬{Ξ[Cn(n)]}. No entanto isso não é decidível usando-se A(n,q) – pois ¬ Ξ[A(n,n)] e disto seguiria que Ξ[Cn(n)] – e é uma verdade matemática. Logo existem verdades matemáticas que ultrapassam a apreensão de qualquer máquina de Turing e isso é uma propriedade inerente desse tipo de máquina. Gödel afirma que ou existem problemas matemáticos insolúveis ou “the human mind (even within the realm of pure mathematics) infinitely surpasses the powers of any finite machine”, pois se a mente humana não ultrapassa uma maquina de Turing ela está sujeita as mesmas limitações desta. Um algoritmo de uma máquina de Turing pode ser visto, como ressalta Gödel, como um sistema formal de axiomas.Um sistema axiomático pode ser visto como um computador que gera todas as conseqüências de um determinado conjunto de axiomas. Ao demonstrar que a noção de prova (bem como inumeras outras noção) era recursiva Godel mostrou que havia uma ligação direta entre sistemas axiomáticos e recursividade, recursividade nada mais é que computação. Se um sistema axiomático consegue decidir sobre todas as verdades matemáticas as provando, então o conjunto de verdades matemáticas é decidivel, no sentindo em que existe um procedimento mecânico que decide se uma dada sentença é verdade ou não – se ela pertence ou não ao conjunto de teoremas do sistema. Ora, se uma maquina de Turing não consegue decidir a cerca de todas as verdades matemáticas (i.e.: Ξ[Cn(n)]) então não existe procedimento mecânico que irá decidir a cerca do conjunto de teoremas verdadeiros, logo nenhum sistema axiomático poderia provar todas as verdades matemáticas. Esse mesmo racicionio tem validade se a cadeia for invertida, ou seja o fato de uma máquina de Turing não poder apreender todas as verdades matemática implica no teorema da incompletude, em certo sentido esse fato é apenas uma outra maneira de enunciar tal teorema:

“Let Κ be any class of formulae. We denote with Conseq(Κ) the smallest set of formulae that contains all formulae of Κ and all axioms and is closed under the relation immediate consequence. Κ is called ω-consistent if [there is no formula a with one free variable where we can derive a(n) for all n, but also ¬ n a(n), a contradiction: ω-cons(A) = ¬a [(A ├ a(n))^(A ├ ¬a(n))]] (…)
Theorem VI: For every ω -consistent primitive recursive class Κ of formulae there is a primitive recursive class-sign r such that neither forall(v,r) nor not(forall(v,r)) belongs to Conseq(Κ) (where v is the free variable of r).” (Gödel(1931), On formally undecidable propositions of Principia Mathematica and related systems)

A diferença é que da forma que eu apresentei antes se está evidenciando uma de suas possiveis conseqüências. É interessante notar que no geral o que está prova faz é mostrar que um algorítimo A(q,n) que decida se algorítimos param falha quando o algoritmo em questão é ele mesmo, em outras palavras substituindo em *:

¬ Ξ[A(n,q)] ↔ Ξ[A(n,q)]

é uma contradição. Para que ω-cons(A(q,n)) seja valida temos que assumir que a finitude ou não da computação A(n,q) é indecidivel. Talvez isso seja de alguma maneira equivalente ao segundo teorema da incompletude que diz:

“For any well-defined system of axioms and rules (…) the proposition stating their consistency (or rather the equivalent number-theoretical proposition) is undemonstrable from these axioms and rules, provided these axioms and rules are consistent and suffice to derive a certain portion of the finitistic arithmetic of integers.” (Gödel(1951), Some basic theorems on the foundations of mathematics and their implications)

Ou seja, a consistência de um sistema é indecidível dentro do próprio sistema.

Citando o artigo de 1951 mais uma vez:

“This requirement for the rules and axioms is equivalent to the requirement that it should be possible to build a finite machine, in the precise sense of a “Turing machine”, which will write down all the consequences of the axioms one after the other. [Ou seja eles estarão fechados sob a relação de conseqüência imediata.] For this reason, the theorem under consideration is equivalent to the fact that there exists no finite procedure for the systematic decision of all diophantine problems of the type specified.”

Solomon Feferman, matemático e editor das obras completas de Gödel, aponta que o autor do artigo citado acreditava que, considerando a matemática enquanto conjunto de verdades demonstráveis- em oposição a matemática enquanto sistema formal consistente -, era possível produzir uma decisão sistemática para todas as equações diofantinas(Conferir:aqui) e que a mente humana superava qualquer máquina finita. Apesar de considerar que as 3 possibilidades da proposição “mente humana supera qualquer maquina finita existem problema diofantinos insolúveis” serem possíveis. As conseqüências de se admitir que a mente humana é uma máquina de Turing são bons argumentos para se acreditar no contrario, pois essas conseqüências são todas relativamente desconfortáveis. Primeiro, admitir essa possibilidade tem conseqüências desconfortáveis para a filosofia da matemática, pois parece apontar para um platonismo. Se existem equações diofantinas absolutamente insolúveis seria estranho afirmar que os objetos matemáticos são criação humana, pois o criador deveria, ao menos em possibilidade, conhecer a criatura. O material do quais são feitos os objetos matemáticos é o puro pensamento e parece impossível que uma criação que é feita de nada mais alem dos pensamentos do criador ser absolutamente impossível de se conhecer por completo. (Godel, 1951) Em segundo, admitir essa possibilidade de que a mente humana é uma máquina de Turing tem conseqüências desagradáveis para a filosofia da mente. Se a mente humana é algorítmica então esse algoritmo nunca poderá ser conhecido de uma forma que consideraríamos hoje como satisfatória, pois ao dizermos que entendemos de fato como um mecanismo funciona nos estaríamos afirmando a sua consistência, mas ai estaríamos fazendo uma afirmação impossível para a mente humana . Poderiamos ainda aceitar um tipo de conhecimento em que nada poderia nunca ser dito sobre a consistencia do que é conhecido o que é algo que raramente  secompatibiliza com a noção que temos de realmente conhecer um mecanismo.(Penrose, 1994)

Conjecturas

O teorema de Godel valida que sistemas formais geram uma certa serie de enunciados que são verdades matemáticas – ou seja, maquinas de Turing são sistemas eficientes de gerar verdades – e ele invalida que exista um único sistema formal que gere todas as verdades – ou seja, uma única maquina de Turing alcançando todas as verdades. Gostaria agora de fazer uma especulação que, portanto não vai estar imbuída do grau de certeza que esse texto teve até aqui, grau esse que o texto derivava de traçar precisamente conclusões de teorias bem estabelecidas e que agora não ira derivar de maneira tão precisa (cabe salientar, no entanto, que a minha apresentação do teorema de Gödel foi extremamente informal e tosca, tendo sido feita por mero acidente do objetivo principal que era explicitar o argumento de Penrose). Extrapolando os domínios da matemática pode-se dizer que isso nos faz chegar à conclusão de que a mente humana pode ser uma máquina composta por varias máquinas de Turing que jamais podem ser consistentes entre si, ou seja, a mente humana é multiconsistente. Ocorre que se pode adotar também a outra postura possível, ela ser regida por um único sistema axiomático em momentos discretos de tempo, mas o exercício do entendimento é justamente de expandir essa consistência; essa posição é enfraquecida pelo fato empírico de que se pode obter muito sucesso prevendo o comportamento de certos módulos cognitivos baseando-se no argumento que a mente é uma máquina de Turing constante – por constante entendo que não expande seu sistema de axiomas – e que se disso segue que é provável que de fato partes da mente trabalhem sob a perspectiva de ter um sistema fixo de axiomas e ser computacional. Dado a ausência de um atual ‘sistema da mente’ me parece provável que ele não exista e na verdade a mente é multiconsistente. Seja a suposição altamente provável de que existe uma unidade no sujeito faço a suposição de que uma das funções da consciência seria então definida em ser o conjunto de enunciados multiconsistêntes que enunciam a consistência de cada sistema (modular ou não) axiomático do cérebro e a busca por um nível mais abstrato de consistência entre os sistemas. Conclui-se ao final que a atitude que alguém deverá ter diante da vida é se preocupar com tornar consistentes dois sistemas não consistentes e assim sucessivamente, dado que na posteridade do ponto de singularidade o estrito poder computacional das maquinas ultrapassara os de um ser humano e todas as conseqüências de um sistema axiomático poderão ser traçadas de uma maneira mais eficiente (quem sabe até posteriormente e num futuro não tão distante, esses sistemas também poderão ser testados empiricamente, conquanto que o teste for definido mecanicamente como de fato muitos testes de teorias físicas bem conhecidas o são) que a qual um ser humano é capaz. Atualmente pode-se dizer que boa parte da humanidade se dedica a tais tarefas que poderão ser realizadas por maquinas, eu não me dou esse luxo. No meu ultimo texto postado aqui proponho minha pirâmide de categorias para organizar o conhecimento humano e digo que não sabemos sobre o vértice. Evitei declarar a existência do vértice para escapar a critica de Nietzsche e, pois não poderia declarar de modo algum que o que o vértice seria teria qualquer correspondência com o real, como conseqüência ele não seria verdadeiro por essa definição. Agora declaro a existência do vértice como mera entidade ontológica necessária ao conhecimento humano, seja ela a atividade de achar consistência. Essa tese seria comum tanto às teses ontológicas predominantes da tradição dialética que rege parte da estética e algum terreno obscuro da moral – i.e.: a tensão contraditória da negação – e também as teses ontológicas matemáticas que regem a física – i.e.: o principio de não contradição. O principio da não contradição e da tensão dialética não são auto-excludentes, só há uma mudança de foco de como proceder frente a conhecimentos que já podem ser certos – excluindo totalmente qualquer rastro de inconsistência – e conhecimentos que ainda não temos nenhuma perspectiva de certeza e determinismo – admitindo certo grau de indeterminismo inconsistência na teoria; a observação de Popper de que a dialética perde sentido se o principio da não contradição é negado em absoluto parece conssoar com esta proposição. (Conferir: O que é Dialética In: Conjecturas e Refutações) Os conhecimentos físicos são os mais certos e bem estabelecidos, logo, como de fato ocorre no conhecimento, temos que fazer o conteúdo se mover dentro da minha pirâmide indo da estética, passando pela moral e chegando finalmente ao reino da física. A pirâmide jamais perderá dimensão, se tornando um plano da moral, ou uma reta da física supondo a vida de entidades conscientes no universo como finita.


Axioma da especificação: B = { x A : S(x) }

Se S(x) = x x

B = { x A ^ x x }

Substituindo x por y e colocando os quantificadores:

y (y B ↔ ( y A ^ y y) (*)

B pertence a si mesmo ?

Ou B B, então por * (B A ^ B B), o que é uma contradição

Ou B B, então por * ( B B ^ B B), o que é uma contradição

Logo se chega necessariamente a uma contradição.

As condições de verdade dos conectivos são assim definidas:

Para uma formula φ, φ é verdadeiro ou é falso. Se φ1 ou φ2 são verdadeiros, φ1 φ2 é verdadeiro, e se φ1 e φ2 são ambos falsos φ1 φ2 é falso. Se φ1 e φ2 são verdadeiros, φ1 φ2 é verdadeiro, e se φ1 ou φ2 são falsos φ1 φ2 é falso Se φ é verdadeiro, ¬φ é falso, e se φ é falso, ¬φ é verdadeiro. Se φ1 for verdadeiro e φ2 for falso, φ1 → φ2 é falso, caso contrario é sempre verdadeiro. Se φ(a), sendo a uma instancia qualquer da variável x (se x representar os números naturais, ‘a’ será um numero natural especifico, ou seja o numero ‘a’ é uma instancia da classe de números x), é verdadeiro para algum a, então ∃x φ(x) é verdadeiro e se φ(x) é falso para toda instancia, então ∃x φ é falso. Se φ(x) é verdadeiro para toda instancia de x, então x φ(x) é verdadeiro, se existe uma instancia qualquer ‘a’ tal que φ(a) é falso, x φ(x) é falso. Uma explicação mais demorada dos conectivos também pode ser obtida aqui: http://en.wikipedia.org/wiki/Table_of_logic_symbols )