Arquivo da categoria: Matemática

O Segundo Maior Erro Econômico Que Você Vai Cometer Na Vida, E Como Corrigí-lo

“The right age to start having sex, according to South Park episode “Proper Condom Use”

Chef: “The right time to start having sex is 17.”
Sheila: “So you mean 17 as long as you’re in love?”
Chef: “Nope, just 17.”
Gerald: “But what if you’re not ready at 17?”
Chef: “17, you’re ready.”

Atualmente, a economia mundial é uma grande bagunça. Desde o fim do lastro em ouro, e até antes, é possível que uma moeda varie seu valor milhares de vezes em menos de um ano. No Zimbabwe, uma nota de 100 trilhões de dólares zimbabwanos chegou a ser impressa. Nossa mente no entanto não está adaptada a isso, e aqueles pouquissimos de nós que conseguem planejar a vida a longo prazo 2 + anos, costumam cometer o erro de se ater ao valor nominal do dinheiro.

Esse erro é também chamado de Money Bias. Quando as pessoas fazem isso, elas desconsideram o valor importante, que é o valor de paridade poder de compra. Pessoas mais inteligentes e aculturadas sabem desse fenômeno. Infelizmente, isso não lhes ajuda a resolver o problema. A razão se segue:

Inteligente: Ei, você não deveria pensar que deve ganhar 3000 reais por mês e que isso vai te dar uma vida boa, porque 3 mil reais vai valer algo diferente daqui a dez anos.


Ignorante: Como assim?

Inteligente: Seguinte, pensa só, o poder de compra dos brasileiros sempre aumenta e todo mundo está ganhando mais, então cada dinheiro vale menos, o estado imprime notas, e a economia global em geral gera dinheiro sem gerar o valor equivalente, segue que o dinheiro, assim como a sua casa, está depreciando….
cada 100 reais de hoje valem menos amanha……. porque tem outras pessoas investindo dinheiro, e se você não investe, o seu não valoriza como o delas etc…


Ignorante: Então eu devo investir meu dinheiro?


Inteligente: Não é bem assim, porque um investimento pode virar contra o feiticeiro e você pode perder tudo, dependendo do risco….


Ignorante: Então como as pessoas fazem? Se arriscam?


Inteligente: Não, o sistema capitalista tem normas de proteção aos ricos, que impedem que se perca investimento a partir de um certo tanto, isso é feito através de órgãos de roubo de pobres internacionais, como o FMI, o banco mundial e os próprios governos dos países. O sistema proteje o investidor e desvaloriza o dinheiro dos pobres.


Ignorante: Oh, que horror, como o capitalismo é cruel, devemos destruir as máquinas?


ahuahuhuuhahuauha ahuahau


Inteligente: Na verdade já tentaram isso, vocês não podem fazer nada porque não são inteligentes o suficiente para resolver o problema, se eu entrasse em detalhes, você simplesmente não entenderia, e é feito para que seja assim, é um problema sistêmico e sem solução.


Ignorante: Oh, que horror, e o que posso fazer em meu nível intelectual baixo para estar melhor que meus amigos.


ahuahuhuuhahuauha ahuahau


Inteligente: Aceite que o sistema vai continuar assim e use a seguinte fórmula para calcular quanto dinheiro você deve ganhar por mês para se sustentar e sustentar as pessoas mais inteligentes que você: Some o valor chamado “inflação” a 100%, por exemplo se a inflação foi 2% você chega a 102%.


ahuahuhuuhahuauha ahuahau


Inteligente: Se você achava que tinha que ganhar 1000, deve agora ganhar um número altamente complicado.


Ignorante: qual, 1020?


Inteligente: Sabia que você ia dizer isso… Não, não é assim que funciona, ou melhor, é, mas cuidado porque em outros casos porcentagens variam diferente pra cima e pra baixo, faz o seguinte, me manda um e-mail, e eu faço pra você sempre que você quiser, ok?


Ignorante: Ok.


Passam-se 9 anos, e o Inteligente e o ignorante se reencontram num parque ao sol das 3 da tarde.


Ignorante: Oh, que horror, estou pobre.


Inteligente: Não sei como isso aconteceu, eu também!


Ignorante: Ué, mas você não sabia todas aquelas fórmulas de cálculo de inflação?


Inteligente: Sim, mas…. mas……


Ignorante: Aliás, eu esqueci de te pedir ao longo desses anos para calcular pra mim, porque sempre estava fazendo outra coisa, e sabe como é, a taxa de desconto é hiperbólica……


Inteligente: Então, eu tinha todo aquele conhecimento teórico, mas como era muito complicado, eu simplesmente assumi que quando necessário podia fazer as contas….


Sábio: Já eu, inventei uma unidade de dinheiro chamada Diêgar. Um Diêgar é a média de preço entre uma promoção do número um do big mac e a meia entrada no cinema. Usei Diêgares como método de cálculo do meu poder desejado de aquisição, e agora continuo rico!


Inteligente: Mas segundo a escola de Frankfurt e o prêmio nobel X esse índice tem uma correlação apenas indireta com ………………… ……………. whiskas sachê………..


Sábio: Você ainda não tem muita sabedoria, my young padawan, você pode saber muito sobre a realidade objetiva, mas não conhece a natureza humana. Nós, primatas da savana, não fomos feitos para aplicar fórmulas, se você usa um indicador simples mas emocionalmente catchy, você tem muito mais chances de lembrar o que quer que seja, e inserí-lo de fato em sua vida pessoal.


Inteligente e ignorante: Oh, que horror, como pudemos ser tão inteligentes e tão ignorantes ao mesmo tempo…… e Diga-nos, ó grande sábio, quantos Diêgares, isso é, quantas vezes a média entre o preço do big mac e o preço da meia entrada do cinema são necessários para viver?


Sábio: 300.


ahuahuhuuhahuauha ahuahau ahuahuhuuhahuauha


Inteligente e ignorante: Como assim 300? isso não depende de vários fatores, educação, moradia, juventude, gênero.


Sábio: Não, apenas 300.



How to study?

Paul Halmos, I want to be a mathematician, pp.69

Eu poderia dizer que faço destas minhas palavras sobre como estudar. Ficam aí possíveis dicas (?), pelo menos pra divertir as idéias. Eu transcrevi do livro.

Here you sit, an undergraduate with a calculus book open before you, or a pre-thesis graduate student with one of those books whose first ten pages, at least, you would like to master, or a research mathematician (research or would-be) with an article fresh off the press – what do you do now? How do you study, how do you penetrate the darkness, how do you learn something? All I can tell you for sure is what I do, but do suspect that the same sort of thing works for everyone. It’s been said before and often, but it cannot be overemphasized: study actively. Don’t just read it; fight it! Ask your own questions, look for your own examples, discover your own proofs. Is the hypothesis necessary? Is the converse true? What happens in the classical special case? What about the degenerate cases? Where does the proof use the hypothesis? Another way I keep active as I read is by changing the notation; if there is nothing else I can do, I can at least change (improve?) the choice of letters. Some of my friends think that’s silly, but it works for me. When I reported on Chapter VII of Stone’s book (the chapter on multiplicity theory, a complicated subject) to a small seminar containing Ambrose and Doob, my listeners poked fun at me for having changed the letters, but I felt it help me to keep my eye on the ball as I was trying to organize and systematize the material. I feel that subtleties are less likely to escape me if I must concentrate on the bricks and mortar as well as gape admiringly at the architecture. I choose letters (and other symbols) that I prefer to the ones the author chose, and, more importantly, I choose the same ones throughout the subject, unifying the notations of the part of the literature that I am studying. Changing the notation is an attention-focusing device, like taking notes during lectures, but it’s something else too. It tends to show up the differences in the approaches of different authors, and it can therefore serve to point to something of mathematical depth that the more complacent reader would just nod at – yes, yes, this must be the same theorem I read in another book yesterday. I believe that changing the notation of every thing I read, to make it harmonious with my own, saves me time in the long run. If I can do it well, I don’t have to waste time fitting each new paper on the subject into the notational scheme of things; I have already thought that through and I can now go on to more important matters. Finally, a small point, but one with some psychological validity: as I keep changing the notation to my own, I get a feeling of being creative, tiny but non-zero – even before I understand what’s going on, and long before I can generalize it, improve it, or apply it, I am already active, I am doing something. Learning a language is different from learning a mathematical subject; in one the problem is to acquire a habit, in the other to understand a structure. The difference has some important implications. In learning a language from a textbook, you might as well go through the book as it stands and work all the exercises in it; what matters is to keep practicing the use of the language. If, however, you want to learn group theory, it is not a good idea to open a book on page 1 and read it, working all the problems in order, till you come to the last page. It’s a bad idea. The material is arranged in the book so that its linear reading is logically defensible, to be sure, but we readers are human, all different from one another and from the author, and each of us is likely to find something difficult that is easy for someone else. My advice is to read till you come to a definition new to you, and then stop and try to think of examples and non-examples, or till you come to a theorem new to you, and then stop and try to understand it and prove it for yourself – and, most important, when you come to an obstacle, a mysterious passage, an unsolvable problem, just skip it. Jump ahead, try the next problem, turn the page, go to the next chapter, or even abandon the book and start another one. Books may be linearly ordered, but our minds are not. Does your spouse believe everything you say? Mine doesn’t always accept my expert opinion. Once when my wife wanted to read some mathematics, I gave her the advice (about skipping) that I just expressed, and she looked skeptical. The next day, however, she showed me, pleased and excited, the preface of a pertinent book: “look, you were right, they say just what you said”. Sure enough, the preface said that a reader must not “expect to understand all parts of the book on first reading. He should feel free to skip complicated parts and return to them later; often and argument will be clarified by a subsequent remark”. What my wife didn’t notice was that “they” were not exactly a source of independent confirmation. “They” were and editorial panel, with their names listed on the title page; I was a member of the panel, and the words “they” said were in fact written by me. As long as I am musing on how I learn mathematics through the eye, I might muse a moment on learning through the ear. Lecture courses are a standard way of learning something – one of the worst ways. Too passive, that’s the trouble. Standard recommendation: take notes. Counter argument: yes, to be sure, taking notes is an activity, and if you do it, you have something solid to refer back afterward, but you are likely to miss the delicate details of the presentation as well as the pig picture, the Gestalt – you are too busy scribbling to pay attention. Counter counter-argument: if you don’t take notes, you won’t remember what happened, in what order it came, and chances are, your attention will flag part of the time, you’ll day dream, and, who knows, you might even nod off. It’s all true, the arguments both for and against taking notes. My own solution is a compromise: I take very skimpy notes, and then, whenever possible, I transcribe them, in much greater detail, as soon afterward as possible. By very skimpy notes I mean something like one or two words a minute, plus possibly a crucial formula or two and a crucial picture or two – just enough to fix the order of events, and incidentally, to keep me awake and on my toes. By transcribe I mean in enough detail to show a friend who wasn’t there, with some hope that he’ll understand what he missed. One-shot lectures, such as colloquium talks, sometimes have a bad name, probably because they are often bad. Are they useful to a student, or, for that matter, to a grown-up who wants to learn something? The something might be specific (I need to know more about the relation between the topological and the holomorphic structures of Riemann surfaces) or only a vague but chronic pain in the conscience (my mathematical education is too narrow, I should know what other people are doing and why). My own answer is that colloquium talks, even some of the very bad ones, are of use to the would-be-learner (specific or vague), and I urge my students and colleagues to support them, to go to them. Why? Partly because mathematics is a unit, with all parts interlocking and influencing each other. Everything we learn changes everything we know and will help us later to learn more. A good colloquium talk, well motivated, with a sharp central topic, well organized, and clearly explained is obviously helpful – but even a bad one can be helpful. My favorite case in point is a bad talk I heard once on topology. I didn’t understand the definitions, the theorems, or the proofs – but I heard “stable homotopy groups” mentioned and, a few minutes later, “Bernoulli numbers”. I had only the dimmest idea of what stable homotopy groups were, and an equally dim one of Bernoulli numbers – but my knowledge grew and my ability to understand mathematics (and, in particular, future colloquium talks) became greater just by listening to that odd, surprising, shocking juxtaposition. (It has become commonplace to the experts since then). It’s worth 55 wasted minutes to learn, in 5 minutes, that the theory of the zeroes of meromorphic functions has a lot to do with the distribution of prime numbers. Seminars talks are thought to be different, but they are not really. The usual notion is that the audience in a seminar consists of experts who know everything that has been proved in the subject up to the day before yesterday and are just there to see the last filigree. That notion is false; a good seminar talk is good and a bad one is bad, the same as a colloquium talk. The idea that the speaker’s technical incomprehensibilities become conceptual insights if the occasion is called a seminar instead of a colloquium is just not realistic, just not true. The “experts” present, be they colleagues working on problems similar to the speaker’s (but remember: “similar” is almost never “identical”), or graduate students trying to work their way into the arcane technicalities, get lost and impatient and bored only 30 seconds than the so-called “general” audience at a colloquium. In my opinion good seminar talks and good colloquium talks are interchangeable – and even the bad ones are worth going to. The best kind of seminar has two members. It can last five minutes – a question, followed by a partial answer and a reference – or it can be a strong collaborative bond that lasts for decades, and it can be many things in between. I am very strongly in favor of personal exchanges in mathematics, and that’s one reason I am in favor of colloquia and seminars. The best seminar I ever belonged to consisted of Allen shields and me. We met one afternoon a week, for about two hours. We did not prepare for our meetings, and we certainly did not lecture at each other. We were interested in similar tings, we got along well, and each of us liked to explain his thoughts and found the other a sympathetic and intelligent listener. We would exchange the elementary puzzles we had heard during the week, the crazy questions we were asked in class, the half-baked problems that popped into our heads, the vague ideas for solving last week’s problems that occurred to us, the illuminating comments we heard at other seminars – we would shout excitedly, or stare together at the blackboard in bewildered silence – and, whatever we did, we both learned a lot from each other during the year the seminar lasted, and we both enjoyed it. We didn’t end up collaborating in the sense of publishing a joint paper as a result of our talks – but we didn’t care about that. Through our sessions we grew… wise? … well, wiser, perhaps.

Doomsday and Conscious Machines

Penultimate Draft 17/dec/2008

Please Help me improve this article by commenting it before it is sent to press.

Every Conscious Machine Drives us Closer to Death

“Every time the clock ticks ‘plus one’,’plus one’,’plus one’,

it will be telling you ‘one less’,’one less’, ‘one less’…”

Abril Despedaçado

The Doomsday Argument is alive and kicking, and since its formulation in the beggining of the Eighties by the astrophysicist Brandon Carter it has gained wide attention, been strongly criticized and has been described in many different, and sometimes non-interchangeable analogies. I will briefly present the argument here, and departing from Nick Bostrom’s interpretation, I will defend that doom may be sooner than we think if we start building conscious machines soon in the future.

The Argument

From Bostrom [1996]:

The core idea is this. Imagine that two big urns are put in front of you, and you know that one of them contains ten balls and the other a million, but you are ignorant as to which is which. You know the balls in each urn are numbered 1, 2, 3, 4 … etc. Now you take a ball at random from the left urn, and it is number 7. Clearly, this is a strong indication that that urn contains only ten balls. If originally the odds were fifty-fifty, a swift application of Bayes’ theorem gives you the posterior probability that the left urn is the one with only ten balls. (Pposterior (L=10) = 0.999990). But now consider the case where instead of the urns you have two possible human races, and instead of balls you have individuals, ranked according to birth order. As a matter of fact, you happen to find that your rank is about sixty billion. Now, say Carter and Leslie, we should reason in the same way as we did with the urns. That you should have a rank of sixty billion or so is much more likely if only 100 billion persons will ever have lived than if there will be many trillion persons. Therefore, by Bayes’ theorem, you should update your beliefs about mankind’s prospects and realise that an impending doomsday is much more probable than you have hitherto thought.

So what the argument states is simply that if you are willing to concede that you are a random possible human, and you are aware that you are the (aprox) 60 billionth person on this planet, than you should be willing to shift your predictions about the end of the world (meaning the end of your class of people) to a much sooner time than you previously did.

Several objections have been put forth against this standard formulation of the doomsday argument, ranging from the counter-intuitiveness of the conclusion to saying that the analogy fails for many different reasons, such as that it has no temporal component, that birth ranks are indexicals, that one could not have been only a possible human, rather than an actual one, among others. Still, counterarguments have been put forth to all these objections[BOSTROM 1999,2001] and it is far from clear that we have any reason to cast doubt on the central argument, let alone consider it refuted.

The most usual objections to the Doomsday argument rely on an intuitive misaprehension of the basic ideas underlying the argument, reason for which I will copy another version of it here, from Bostrom [2001] which specifies a particular hypothesis regarding prior probabilities that will be used in this article as a basis for reasoning about the consequences of creating new forms of consciousness with regard to our distance to Doomday.

The Self-Sampling Assumption and its use in the Doomsday argument

Let a person’s birth rank be her position in the sequence of all observers who will ever have

existed. For the sake of argument, let us grant that the human species is the only intelligent life

form in the cosmos.1 Your birth rank is then approximately 60 billionth, for that is the number of humans who have lived before you. The Doomsday argument proceeds as follows:

Compare two hypotheses about how many humans there will have been in total:

h1: = “There will have been a total of 200 billion humans.”

h2: = “There will have been a total of 200 trillion humans.”

Suppose that after considering the various empirical threats that could cause human extinction (species-destroying meteor impact, nuclear Armageddon, self-replicating

nanobots destroying the biosphere, etc.) you still feel fairly optimistic about our prospects:

Pr(h1) = .05

Pr(h2) = .95

But now consider the fact that your birth rank is 60 billionth. According to the

doomsayer, it is more probable that you should have that birth rank if the total number of

humans that will ever have lived is 200 billion than if it is 200 trillion; in fact, your

having that birth rank is one thousand times more probable given h1 than given h2:

Pr(“My rank is 60 billionth.” | h1) = 1 / 200 billions

Pr(“My rank is 60 billionth.” | h2) = 1 / 200 trillions

With these assumptions, we can use Bayes’s theorem to derive the posterior probabilities

of h1 and h2 after taking your low birth rank into account:

Pr(h1 | R = 60 B) = ________Pr( R = 60 B | h1 ) Pr(h1 )______________ ≈ .98

.                               .  Pr( R = 60 B | h1 ) Pr( h1 ) + Pr( R = 60 B | h2 ) Pr(h2 )

Your rosy prior probability of 5% of our species ending soon (h1) has mutated into a

baleful posterior of 98%. ”

Prior Probabilities

The greatest problem about using bayesian reasoning in arguments such as the Doomsday argument is that we have no method whatsoever of determining the prior probabilities of outcome. We cannot know if the possibilities range from there being, all and all, 100 billion humans to there being 100 trillion or if the probabilities range from there being 100 billion to a googol humans, neither how likely each option it. Since we do not know what are these prior possible probabilities we must rely in one or another intuition about the probability distribution if we are to take in consideration our actual case.

Before going to the concrete case of mankind in the early 21st century, I want to point out that at an abstract level the argument is sound and works no matter what are the prior probabilities. Even though we cannot ascribe any certainty to from how much to how much should we shift the probability of extinction within, say, 200 years, we can be sure that we should make the shift, and think of it as much more probable than we usually do. The abstract bayesian reasoning is sound independently of determining the specific values to be treated, and therefore the belief that we are likely to be extinct sooner than we think is independent of the belief of how sooner are we to expect doom. What is important is that we understand that this reasoning, if appliable, slides the probability towards a sooner catastrophe, and that any further considerations we apply within this line of reasoning will slide it towards or away from our new set-point, whichever it is.

For mankind in the 21st century, we have the data that you are around the 60 billionth person to ever live, and since, as I said, we hace no way of being sure about prior probabilities we can use as a working hyphotesis the same simplified case that Bostrom used to unfold our discussion, that is, that the two prior possibilities are that there are 200 billion and 200 trillion people during all the history of man. This is just a working hyphotesis, and it doesn’t have to be anywhere near the truth for the consequences that we can draw from it be useful, even if it turned out that the options are 500 billion with 1/3 prior chance 229 googols with 1/3 prior chance and 12 with 1/3 prior chance, the sliding of our belief would still be the same, and the reasoning remais sound as long as we are not epistemologically aware of the prior probabilites (which we never will, since they are prior).

If that is the case then, as his arguing shows, we have reason to believe that we are 98% likely to be in a world that will stand more 140 billion people, and 2% likely to be in a world that will stand more 199 940 000 000 000 people, which is a lot more than 140 billion.

But then along comes the question, how soon it that? Or, as a fact of matter, how soon are the predictions thus far made based on any other prior probabilities? In a recent article Jason Matheny [2007] sums up a few predictions:

While it may be physically possible for humanity or its descendents to flourish for 10^41 years, it seems unlikely that humanity will live so long. Homo sapiens have existed for 200,000 years. Our closest relative, homo erectus, existed for around 1.8 million years (Anton, 2003). The median duration of mammalian species is around 2.2 million years (Avise et al., 1998).

A controversial approach to estimating humanity’s life expectancy is to use observation selection theory. The number of homo sapiens who have ever lived is around 100 billion (Haub, 2002). Suppose the number of people who have ever or will ever live is 10 trillion. If I think of myself as a random sample drawn from the set of all human beings who have ever or will ever live, then the probability of my being among the first 100 billion of 10 trillion lives is only 1%. It is more probable that I am randomly drawn from a smaller number of lives. For instance, if only 200 billion people have ever or will ever live, the probability of my being among the first 100 billion lives is 50%. The reasoning behind this line of argument is controversial but has survived a number of theoretical challenges (Leslie, 1996). Using observation selection theory, Gott (1993) estimated that humanity would survive an additional 5,000 to 8 million years, with 95% confidence.”

So the weather forecast is already dark grey, and here I intent to make it only worse. Going back to our assumption of the 200 billions against 200 trillions, we have foreseen that there are probably only 140 billion of us coming along for the ride, and before going into all the birth-rates and population predictions, we must stop and analyse what is the “us” when I say that there are 140 billion of us coming along for the ride.

The Reference Class Problem

The Doomsday argument works once you consider your birth rank in relation to your reference class, the class that you belong to which matters for considering the Doomsday argument. This could be any of these:

(1)Beings that have read, understood, and believed the Doomsday Argument

(2)Beings who could have mastered the argument

(3)Human Beings

(4)Conscious Beings

(5)Conscious Intelligent Beings

As things stand, there is no settled down position to which of this reference classes should we consider ourselves when reasoning about Doomsday. The intuitive grasp is that we should count our birth rank as humans, but that can be deceptive, since there are no strict frontiers that determine humanity (or any of these classes) and some consider it likely that even you could one day become some sort of tranhuman, super-human or post-human of a kind. Intuitively, that should not change your predictions about doom made before you upgraded, so we have some reason to believe that class (3) is not the best bet for Doom predictions.

Most of us only care about our lives as long as we are conscious, so that if one would keep us in deep anesthesia, in a coma, or in a sleepless dream, most of us would not like the idea. We hold a tacit conception that what matters about us in consciousness, meaning that were we not concious (i.e. If philosophical zombies were possible) life would be pointless. Also, we make ethical considerations regarding other entities in terms of consciousness: “don’t hurt that squirrel, he can feel it.” This is not a specific argument in favour of using the class of conscious observer when analysing global catastrophic risks, but it is a gereral argument in favouring of favouring consciousness over other things, whatever consciousness turns out to be.

From now on I will assume that the important class of reference when one is analysing the Doomsday Argument is indeed the class of conscious beings, and I’ll also assume that there is no such thing as half-conscious or partly-conscious. We will pretend that it is very clear who is and who is not conscious, and that each conscious being can be accounted as an equal into Doomsday reasoning (independently of how much he lives, how powerfull his mind etc…)

We are not also particularly interested in knowing when will be the Doomsday of all humans, supercomputers and squirrels. Not at least if we can instead know when is the Doomsday of all humans and supercomputers only. So, even though the debate goes on about squirrel’s consciousness, and why not say, bats’s as well, we will consider our reference class to be observers who are both conscious and intelligent. This comes from the simple fact that we want to predict the Doom of these fellows, not of squirrels, not of superpowerfull intelligent unconcious machines. To be in our reference class, we demand intelligence for squirrels and consciousness for machines, if they do not present them to us, we stand where we are.

Conscious Observers in an Atemporal World

The underlying reasoning behind Doomsday pressuposes a sort of atemporality that has been much discussed. Since we are considering as part of the class of reference beings from the future, that do not yet exist, how can we use them in our reasoning? Two lines of objections have been put forth, one that says that you cannot use them at all since they do not exist, and other that says that if the world is indeterminate (i.e.Quantum Physics etc…) then we cannot use them to calculate anything.

I think that these objections miss the point of the doomsday argument. As Daniel Dennett said: <!– @page { margin: 2cm } P { margin-bottom: 0.21cm } –>”The future is going to happen, and that is true whether determinism is true or wheter inderminism is true, there going to be a future” . There are two very different senses of being determinate. The more usual one is the classical formulation of determinism, epitomized by Laplace’s Demon though experiment. We are asked to imagine a omni-intelligent being that can compute all the laws of physics (whatever they are) and that knows the postion of all particles in one particular moment. By definition, if this demon is able to know the future and the past, then the universe is determinate, otherwise, it is indeterminate, or open. Then there is another less used sense of determinate, let’s call it God’s Eye Determination. Instead of the Demon, we have an omniscient God that knows all non-indexical facts, past and future, all the particles, everything that can be known by one being about the universe. A weak sort of determinate, which is the one Dennett alludes when forecasting the future, is the one in which this God knows the future. That only means that the future will come (if it comes) and that what happens in it will happen in it (it is as tautological as it sounds).

The reason I exposed these two senses of determinate is because both objections against doomsday that rely on the fact that the argument is temporal, whereas the urns with 10 balls or 100 balls are not is mixing up these two senses. For the mathematical assumption that you are a randomly chosen figure in a reference class to work all you need is God’s Eye Determination, there has to be a fact of matter as to how many beings there will ever be, but it is completely irrelevant if this information could be known by a Laplacean Demon, calculated by our best computers or accessible in any other fashion. The reasoning that gives soundness to the Doomsday argument is completely independent of the future, and of the level of determination of reality (in the sense of predictability). This may seem counterintuitive at first, but it seems very logical since the Doomsday Argument is a mostly mathematical argument, which implies it probably needs very thin ground in the nature of reality to work.

Can a Machine Be Conscious?

So the Doomsday argument is sound, works well and predicts a dark weather for our world, with not so many people (lattu sensu) to come after you, since you are the 60th billionth person around. Let us now turn to the refernce class. We have decided to consider only intelligent conscious beings as part of our supposed reference class, and that brings about the age-old question, can a machine be concious?

Within philosophy of mind this is one of the most discussed topics of the late 20th century. For starters, there are at least four widely used senses of the word “consciousness” that have been elegantly split up by Ned Block in Concepts of Consciousness. If we are phenomenal realists, like Block, Chalmers and Searle, that is, if we attribute reality to phenomenal qualities (i.e. Qualia) then the sense that matters to us is the sense Block calls p-consciousness (short for Phenomenal Consciousness). If we are materialistic monists, like Dennett, then what people call phenomenal consciousness actually stands for a bunch of interacting physical entities and their relations, not to phenomenal qualities. In this case to ask if a machine is conscious is to ask wether it can perform certain kinds of activities, and behave in such and such way, it is an empirical question.

I will remain neutral as to should we be phenomenal realists or materialistic monists. Since philosopher are allowed to suppose contradictory things, as long as they do them one at a time, I will work on both hipothesis.

      1. Phenomenal Realism is true: Supposing that phenomenal realism is true, it remains to be seen wether consciousness is a physical process (type or token identity and physical emergentism would be qualified here) or if it is non physical (here being all sorts of dualisms). For the sake of brevity, I won’t discuss Idealism. Another option is that consciousness is in fact a part of a physical process (property dualism, as well as qualia being the intrinsic nature of matter, opposed to the physical spectrum, which describes the relational nature).

      2. Materialistic Monism is true: An empirical theory of consiciousness would have to account for all we call conscious phenomena in an explanatory and clear way. Alternatively, it could be true and undiscoverable (because we do not have the means to perform such a discovery) but these details should not divert us from what matters for doomsday, so we can assume that it is discoverable.

As many options as there are for the philosophical Realist, most of them have an non-investigable outlook. Dualist formulations are almost always unverifiable, epiphenomenalism in particular. Even within cartesian dualism, if there were inter-substancial causality, what we could analyse from outside is only that the physics, say, of a brain is not working as expected, but that does not entail that it is consciousness that is doing the job. If it is consicousness, we don’t have a way to find out. If consciousness is the intrinsic nature of matter, since all our apparatus of measurement only measures relational aspects, we could not know either whether a machine was consicous.

As things stand, if phenomenal realism is true, we have no way of finding out if a machine is conscious or not, and are condemned to remain forever thinking through analogies, just like we do today with chimps and squirrels, guessing from their distance to us if, and how much are they concious. So, perhaps there could be conscious machines, but we would not be able to aknowledge them as such.

If on the other hand Materialistic Monism is right than we can assume that we will find a standard definition of consciousness and more or less direct ways of testing if it applies to different beings. Some believe we already do have the necessary apparatus. In any case it is technically feasible that we will one day find out a consciousness-meter and know whether machines are or not conscious. Note also that since we are assuming that we are conscious, it is a decided fact of matter that there can be conscious machines, because there already are, it only remains to be seen whether we will be able to produce non-biological machines that are conscious as well.

Thusfar I have addressed the epistemological grounds for machine consciousness, and argued that in both cases it is possible (does not contradict any central thesis) that machines are conscious.

Both Phenomenal Realists (of most kinds) and Materialistic Monists would be ready to aknowledge at least the possibility of machine consiciousness, so our reference class, which considers the future, seems to be increasing in size, but how much is it increasing?

How Long do We Have

The Doomsday argument purports to show that hiphotesis with fewer individuals (say, 200 billion) are more likely than with many individuals (200 trillion). Our reference class is much more likely to be around the billions than the trillions, now what is the consequence of incresing the size of the reference class that we think that actually will live. In other words, what is the consequence of thinking that it is likely that soon we will be able to create conscios machines?

For the argument, it is unfortunately (i’ll explain soon) none. The only important data when reasoning is the set from which you decided that you are a random sample from and your birth rank among that set. So, that is well stablished, we have decided that we are the 60th billionth people around and that our set of reference is of conscious intelligent beings. That is all the information we need! You already now, right now, that the world is much more like to have more 140 billion intelligent conscious beings than it is to have several trillions. If I add a new piece of information, it will not change your calculations, but I will do anyway:

New information: Within the first half 21th century, we will be able to create intelligent conscious machines.

Many people, most proeminently Ray Kurzweil, have defended this hiphotesis as highly likely. Moore’s law seems to be still working, technology is developing quickly, brain-computer interfaces are getting better every day, IBM has a brain-simulation project, our best computers perform computations only 2 or 3 orders of magnitude inferior to the human brain etc… in other words, it is a likely possibility, and we should give it careful thought.

I said that it doesn’t make any difference for the Doomsday Argument, and that is true, but that does not mean it doesn’t make any difference for the Doomsday itself. Doomsday, in our hiphotetical scenario is to take place whenever the 200 billionth conscios intelligent being is born, or created (remember that the argument works independently of the numbers we assumed, the same follows if we had chosen as prior possibilities other numbers instead of 200 billion). Doomsday will come not in a specific when, but in a specific if. If the 200 billionth being is born, then (per armageddon?) the reference class will be destroyed (or stop reproducing). Since no one forecasts that humans or machines will suddently stop reproducing unless they run out of fuel, armaggedon is more likely than immortality without children.

It is estimated that around 350 000 people are born every day, that ammounts to some 130 million born every year. Supposing that current trends of decreasing populational growth will continue, we can say that the 21st century will see some 5 billion more people being born. That is not so bad (given that we did not attribute any prior probabilities for, say, 63 billion all and all, because that would scare us too much). But now suppose that we do create intelligent machines, not only that, but we create machines that can create copies of themselves, just like we do. The difference being that they are much faster. Now, there is no theoretical obstacle for them to create, say, 145 Billion copies of themselves, within 15 years. That is almost sure doom for us, and for them.

It can still get worse. Let us suppose (also a higly likely possibility) that we create simulations of societies, just like our current videogames, but with conscious beings on them. One simulation could simultaneaously run a very large number of conscious beings, say, 200 milion. Or more, much more, the only limit is computational power, and that has been more than doubling every two years for decades.

So, how long do we have in fact? It impossible to forecast that for a great number of reasons. (1) We do not have the prior possibilities and their probabilities (2) We do not know if there were or there are other in our reference class alive today (aliens etc…) (3) Even if we did know that we are alone, and that the prior probabilities were such and such, this would still give us only a likelihood distribution, and we would have no way of telling which specific instance of it we were. Just like all bayesian reasoning based on unknown prior probabilities, the Doomsday argument is more an argument towards a shift in our current beliefs, than it is a settlement of what we should believe.

In this article, I hope I have made a strong case for another shift. Even though we cannot be sure whether machines are or not conscious, if we will ever build simulations, if Moore’s law will keep its pace etc… We have to shift upwards the fear we have of creating more individuals of our reference class (specially in ways that look dangerous). Doomsday, which will happen even if only in the heat death of the universe, is shifting towards us every time a conscious intelligent observer is created, and we should really take that in consideration when making future plans about building inteligent machines, at least if our mathematical and computational abilities manage to make us understand what can be blatantly obvious to the machines, but not so much for old apes from the Savannahs.

References

Bostrom, N.1999 The Doomsday Argument is Alive and Kicking IN Mind (1999), Vol. 108, No.431, pp. 539-50.

———-. 2001. The Doomsday Argument, Adam & Eve, UN++, and Quantum Joe IN Synthese (2001), vol. 127, issue 3, pp. 359-387.

Reducing the Risk of Human Extinction
Jason G. Matheny

Risk Analysis.

A Third Route to the Doomsday Argument

preprint

Paul Franceschi

University of Corsica

revised May 2005

p.franceschi@univ-corse.fr

http://www.univ-corse.fr/~franceschi

See for instance “A Third Route to the Doomsday Argument ”, Franceschi ,P.

Philosophical Foundations of Neuroscience. Bennet, M. Hacker, P.M.S.

Fundamentos da matemática e a mente humana

Teoria dos conjuntos

No final do século XIX o desenvolvimento da analise de um lado levou a noção intuitiva de conjunto que foi desenvolvida por Cantor de maneira subentendida nos seus estudos sobre o infinito e a descoberta de números transfinitos (infinitos maiores que a infinitude dos números naturais), de outro lado Peano havia conseguido reduzir as leis da aritmética básica e a serie dos números naturais a 5 axiomas simples (sistema que ficou conhecido como PA, Peano Arithmetic), por ultimo o nascimento da lógica simbólica e a redução da noção de numero a sentenças logicas foi excecutada por Frege. No começo do século XX havia uma forte tendência de com a noção de conjuntos e com o simbolismo lógico axiomatizar toda a matemática e organizar os seus fundamentos, principalmente para solucionar os vários paradoxos que estavam emergindo quando se fazia uso da noção intuitiva de conjunto (como o paradoxo de Russell). Em 1905 Zermelo publicou a primeira tentativa de listar os axiomas fundamentais da matemática e nos 30 anos que se seguiram ele recebeu inúmeras criticas e contribuições, para em 1934 publicar de novo seu sistema axiomatizado, que ficou conhecido como ZFC. Desde que foi demonstrada a impossibilidade de se provar a hipótese do continuo dentro desse sistema axiomático – a hipótese de que entre a infinitude dos naturais e dos reais não existe nenhuma infinitude intermediaria, ou ainda em outros termos, a hipótese de que a operação de sucessor e a de conjunto potencia resultam no mesmo aumento de cardinalidade nos transfinitos – foi reconhecido a necessidade de novos axiomas bem como axiomas novos para se trabalhar com cardinais muito grandes – maiores que a infinitude dos naturais – mas apesar disso esses axiomas são até hoje aceitos como os axiomas padrões para se provar qualquer teorema matemático. Fora o axioma da escolha, a maioria dos axiomas é bem intuitivo. O primeiro é o axioma da extencionalidade que diz que se x pertence ao conjunto A só e somente se pertence a B, então o conjunto A é idêntico ao B (se x pertence a A tem como conseqüência ele pertencer a B, então A está contido em B). O segundo axioma é o do esquema da separação, que diz que dada uma propriedade Φ é possível separar os elementos de um conjunto A segundo o critério de atender ou não a propriedade Φ, em outro conjunto B. (Se o axioma for que dada uma propriedade Φ estará sempre associado um conjunto A, o paradoxo de Russell emerge). Em seguida tem o axioma da pareação, que diz que existe um conjunto A ao qual pertence um z, e esse z pode ser igual a x, ou a y, ele é o par (x,y). O axioma da soma que diz que existe um conjunto C tal que x pertence a C só e somente se x pertencer a B e B pertencer a A. O axioma do conjunto potencia que acerca a existência de um conjunto B tal que C pertence a B se e somente se for um subconjunto de A. O axioma da Regularidade que diz que se o conjunto A não for nulo então existe um x tal que x pertence a A e para todo y pertence a x, ele não pertence a A (isso quer dizer que um conjunto não contem como elementos os elementos dos seus elementos). O axioma da infinitude que acerca a existencia de um conjunto A em que 0 pertencendo a A e para todo conjunto B que pertencer a A, B união com o conjunto que contem B também pertence a A. O axioma esquema da substituição que diz que se para todo x,y,z, com x pertencendo a A e valendo a propriedade φ(x,y) e φ(x,z) e y for igual a z, então existe um conjunto B e y pertence a tal conjunto se e somente se existe um x que pertence a A e satisfaz φ(x,y). Por fim, o axioma da escolha, que pode ser enunciado de varias maneiras. A forma mais detalhada que eu conheço diz que seja um conjunto A com vários subconjuntos, existe uma função gama que escolhe ao menos 1 elemento de cada subconjunto de A e forma um outro conjunto, com esse elementos chamado conjunto-escolha. No limite se a função escolher todos os elementos de cada subconjunto o conjunto escolha é o próprio conjunto A, e como se usou uma função especifica para escolher esses elementos, isso significa que esse conjunto terá uma ordem, o que implica no teorema da bem ordenança que diz que todo conjunto pode ser bem ordenado.

Se denotarmos φ(x) como uma propriedade qualquer, tal como x é primo; ¬ como o simbolo da negação, tal que ¬φ(x) denote a negação da propriedade φ; x como para todo o x, de forma que x φ(x) denote, para todo x, a propriedade φ(x) vale; x como, existe ao menos um x, tal que x φ(x) existe ao menos um x que atende a propriedade φ(x); x X como x é um elemento do conjunto X; A B como A pertence ao conjunto B; p → q, como se p então q; ↔ como se e somente se; como ‘e’, de modo que p q é verdade se e somente se p for verdade e q for verdade e finalmente como ‘ou’, de modo que p q é verdade se p for verdade, ou se q for verdade.(Para uma definição mais rigorosa dos conectivos, ver nota: ) Os axiomas enunciados com o simbolismo lógico podem ser assim resumidos:


Axioma da extencionalidade:

x(x A ↔ x B) → A = B

Axioma esquema da separação:

Bx(x B ↔ (x A φ(x)))

Axioma da pareação:

Az(z A ↔ (z = x z = y)

Axioma da soma:

Cx(x C ↔ B(x B B A))

Axioma do conjunto potencia:

BC(C B ↔ C A)

Axioma da regularidade:

A ≠ 0 → x[x A ∧∀y(y x → y A)]

Axioma da infinitude:

A[0 A B(B A → B{B} A)]

Axioma esquema da substituição:

xyz((x A φ(x,y) φ(x,z)) → y = z) → By(y B ↔ x(x A φ(x,y)))

Axioma da escolha:

AfB((B A B ≠ 0) → f(B) B))

Teoremas da Incompletude

A partir desses axiomas é então possível, através das leis de dedução da lógica clássica, obter praticamente todos os teoremas conhecidos da matemática. Kurt Godel provou em 1931 que esse sistema nunca deduziria todas as verdades matemáticas, mais ainda, ele provou que todo sistema que contenha a artimetica básica esta fadado a ser incompleto, no sentindo de que sempre existirão sentenças aritiméticas que são verdades mas não são provadas no sistema. Para uma explicação resumida desse teorema eu cito uma palestra dada pelo matemático Solomon Feferman no Instituto de Estudos Avançados em 2006:



The first incompleteness theorem: If S is a formal system such that

(i) the language of S contains the language of arithmetic,

(ii) S includes PA, and

(iii) S is consistent

then there is an arithmetical sentence A which is true but not provable in S.

Here is an idea of how Gödel proved his incompleteness theorem. He first showed that a large class of relations that he called recursive, and that we now call primitive recursive, can all be defined in the language of arithmetic. Moreover, every numerical instance of a primitive recursive relation is decidable in PA. Similarly for primitive recursive functions. Among the functions that are primitive recursive are exponentiation, factorial, and the prime power representation of any positive integer. He then attached numbers to each symbol in the formal language L of S and, using the product-of-primes representation, attached numbers as codes to each expression E of L, considered as a finite sequence of basic symbols. These are now called the Gödel number of the expression E. In particular, each sentence A of L has a Gödel number. Proofs in S are finite sequences of sentences, and so they too can be given Gödel numbers. He then showed that the property: n is the number of a proof of A in S, written ProofS(n, A), is primitive recursive and so expressible in the language of arithmetic. Hence the sentence(n)ProofS(n, A),written ProvS(A) expresses that A is provable from S. Moreover, if it is true, it is provable in PA. So we can also express directly from this that A is not provable from S, by ¬ProvS(A). Finally, Gödel used an adaptation of what is called the diagonal method to construct a specific sentence, call it D, such that PA proves:

D <-> ¬ProvS(D).

Finally, he showed:

(*) If S is consistent then D is not provable from S.

The argument for (*) is by contradiction: suppose D is provable from S. Then we could actually produce an n which is a number of a proof in S of D, and from that we could prove in PA that “n is the number of a proof of D in S”, from which follows “D is provable in S”. But this last is equivalent in S to ¬D, so S would be inconsistent,contradicting our hypothesis. Finally, the sentence D is true because it is equivalent, in the system of true axioms PA, to the statement that it is unprovable from S.

It should be clear from the preceding that the statement that S is consistent can also be expressed in the language of arithmetic, as ¬ProvS(A¬A), for some specific A (it does not matter which); we write ConS for this. Then we have:

The second incompleteness theorem: If S is a formal system such that

(i) the language of S contains the language of arithmetic,

(ii) S includes PA, and

(iii) S is consistent,

then the consistency of S, ConS is not provable in S.

The way Gödel established this is by formalizing the entire preceding argument for the first incompleteness theorem in Peano Arithmetic. It follows that PA proves the formal expression of (*), i.e. it proves:

(**) ConS ¬ProvS(D).

But by the construction of D, it follows that PA (and hence S) proves

(***) ConS D.

Thus if S proved ConS it would prove D, which we already know to be not the case.

Máquinas de Turing

Na época em que o ZFC foi feito não se tinha ainda um conceito claro do que era um processo dedutivo e se falava numa noção vaga de procedimento finito ou procedimento efetivo que fazia referencia a idéia de algoritmo. Alem disso um dos problemas da matemática da época era a questão da existência de um algoritmo que daria o veredicto de certo ou errado sobre a resposta de qualquer problema matemático, o chamado problema da decisão ou entscheidungsproblem. A resposta que Alan Turing daria a essa questão é que não é possível existir tal procedimento que decidira a verdade de qualquer enunciado matemático, assim como não é possível obter um sistema axiomático que deduza todas as verdades matemáticas. Apesar da noção de algoritmo pairar sobre a matemática desde seu inicio, a formalização dela só ocorreu por volta da década de 30. Ocorreram 3 formalizações, equivalentes, que buscaram captar o conceito intuitivo de algoritmo ou procedimento efetivo: a de Alan Turing em 36, a de Alonso Church no mesmo ano com o lambda-calculus e a de Stephen Kleene e outros com a teoria das funções recursivas. Ambas as 3 tentativas se mostraram formalmente equivalentes e eficazes em capturar o conceito de algoritmo e todas as 3 emergiram de uma certa maneira direta ou indiretamente dos métodos e dos resultados levantados pelo teorema da incompletude de Kurt Godel. Esse texto versa sobre como o teorema da incompletude, enunciado dentro do conceito das maquinas de Turing parece ter certas conseqüências para a filosofia da mente. Turing acreditava que a mente humana funcionava a partir de vários estados mentais discretos que se alteravam conforme o raciocínio prosseguia, ao tentar capturar o raciocínio matemático dos algoritmos em um conceito formal ele concebeu uma maquina que também possuía n estados diferentes que variavam conforme ela lia uma fita com certas informações. Essa fita é dividida em m casas diferentes e em cada casa pode-se ter um traço ou nada (1 ou 0), a maquina possui uma tabela de instruções composta por uma serie finita de quintuplas em que o primeiro elemento é designa o estado da maquina no momento, o segundo o estado da casa em que ela esta lendo no momento, o terceiro se ela deve apagar (0) ou escrever um traço (1) na casa atual, o quarto se ela deve se mover para a esquerda, para a direita ou ficar centrada na casa atual e por fim o quinto para qual estado a casa deve ir. Se os estados forem escritos com números decimais, o estado das casas os números binários (1 para um traço e 0 para nada), a instrução de escrever um traço ou apagar por 1 e 0 respectivamente, se mover para a direita sendo denotado por R, para a esquerda L e ficar centrada C, a seguinte quintupla: 1,0,0,C,0 indica que se a maquina estiver no estado 1 lendo uma casa sem nada, ela deve deixar a casa com nada, continuar nesta casa e ir para o estado 0, que corresponderia ao fim da computação. Uma maquina com tal instrução ira sempre terminar imediatamente se for inserida uma fita em branco. Ela ainda poderia possuir a seguinte instrução: 1,1,1,R,2 que diz que se a maquina estiver no estado 1 e encontrar um traço na fita ela deve deixar aquela casa com o traço se mover para a direita e ir para o estado 2. Uma maquina com a seguinte tabela:

1,0,0,C,0 1,1,1,R,2

2,0,0,R,3 2,1,1,R,9

3,0,1,L,4 3,1,1,R,3

4,0,0,L,5 4,1,1,L,4

5,0,0,L,5 5,1,1,L,6

6,0,0,R,2 6,1,1,R,7

7,0,0,R,8 7,1,0,R,7

8,0,0,R,8 8,1,1,R,3

9,0,1,R,9 9,1,1,L,10

10,0,0,C,0 10,1,0,R,11

11,0,1,C,0 11,1,1,R,11


Ira computar a função f(a) = a + 1, sendo a o numero de traços iniciais na fita. Ela ira dar um espaço entre os traços já existentes e ira escrever a + 1 traços. Muitas outras funções mais complexas podem ser computadas por maquinas de Turing, de fato qualquer procedimento matemático que siga um algoritmo pode ser computado por tais maquinas. Certas computações nunca tem fim, como por exemplo uma maquina de Turing que seja programada para enumerar a serie dos números naturais.

Máquinas de Turing e a mente humana

O objetivo dessa parte do texto é dar bons argumentos de porque podem existir verdades acessíveis a mente humana que não são acessíveis a uma máquina de Turing. Isso foi proposto inicialmente pelo matemático Kurt Gödel no artigo de 1951 intitulado: ‘Some basic theorems on the foundations of mathematics and their implications’ e posteriormente retomado por inúmeros matemáticos e filósofos como J.R. Lucas, Ernest Nagel ou Roger Penrose. Irei reproduzir o argumento dado por Penrose no livro ‘Shadows of the mind’ de 1994 fazendo uso livre do simbolismo lógico previamente apresentado:

Seja a serie de todas as computações aplicadas exclusivamente a n:

s = C1(n), C2(n), C3(n), ….,Cq(n), ….

Defina-se Ξ(x) como: x é uma computação que chega a um fim. Para saber se Cq(n) chega a um fim temos que fazer outra computação A(n,q) que para se e somente se Cq(n) não para:

¬ Ξ[Cq(n)] ↔ Ξ[A(n,q)] ( * )

Consideremos o caso especifico q = n:

¬ Ξ[Cn(n)] ↔ Ξ[A(n,n)]

Mas A(n,n) pertence a serie s, ou seja, é uma certa computação aplicada exclusivamente a n. Assim: A(n,n) = Ck(n). Segue que:

Ξ[A(n,n)] ↔ Ξ[Ck(n)]

Consideremos o caso n = k:

Ξ[A(n,n)] ↔ Ξ[Cn(n)]

Para não contradizer * segue que: ¬{Ξ[Cn(n)]}. No entanto isso não é decidível usando-se A(n,q) – pois ¬ Ξ[A(n,n)] e disto seguiria que Ξ[Cn(n)] – e é uma verdade matemática. Logo existem verdades matemáticas que ultrapassam a apreensão de qualquer máquina de Turing e isso é uma propriedade inerente desse tipo de máquina. Gödel afirma que ou existem problemas matemáticos insolúveis ou “the human mind (even within the realm of pure mathematics) infinitely surpasses the powers of any finite machine”, pois se a mente humana não ultrapassa uma maquina de Turing ela está sujeita as mesmas limitações desta. Um algoritmo de uma máquina de Turing pode ser visto, como ressalta Gödel, como um sistema formal de axiomas.Um sistema axiomático pode ser visto como um computador que gera todas as conseqüências de um determinado conjunto de axiomas. Ao demonstrar que a noção de prova (bem como inumeras outras noção) era recursiva Godel mostrou que havia uma ligação direta entre sistemas axiomáticos e recursividade, recursividade nada mais é que computação. Se um sistema axiomático consegue decidir sobre todas as verdades matemáticas as provando, então o conjunto de verdades matemáticas é decidivel, no sentindo em que existe um procedimento mecânico que decide se uma dada sentença é verdade ou não – se ela pertence ou não ao conjunto de teoremas do sistema. Ora, se uma maquina de Turing não consegue decidir a cerca de todas as verdades matemáticas (i.e.: Ξ[Cn(n)]) então não existe procedimento mecânico que irá decidir a cerca do conjunto de teoremas verdadeiros, logo nenhum sistema axiomático poderia provar todas as verdades matemáticas. Esse mesmo racicionio tem validade se a cadeia for invertida, ou seja o fato de uma máquina de Turing não poder apreender todas as verdades matemática implica no teorema da incompletude, em certo sentido esse fato é apenas uma outra maneira de enunciar tal teorema:

“Let Κ be any class of formulae. We denote with Conseq(Κ) the smallest set of formulae that contains all formulae of Κ and all axioms and is closed under the relation immediate consequence. Κ is called ω-consistent if [there is no formula a with one free variable where we can derive a(n) for all n, but also ¬ n a(n), a contradiction: ω-cons(A) = ¬a [(A ├ a(n))^(A ├ ¬a(n))]] (…)
Theorem VI: For every ω -consistent primitive recursive class Κ of formulae there is a primitive recursive class-sign r such that neither forall(v,r) nor not(forall(v,r)) belongs to Conseq(Κ) (where v is the free variable of r).” (Gödel(1931), On formally undecidable propositions of Principia Mathematica and related systems)

A diferença é que da forma que eu apresentei antes se está evidenciando uma de suas possiveis conseqüências. É interessante notar que no geral o que está prova faz é mostrar que um algorítimo A(q,n) que decida se algorítimos param falha quando o algoritmo em questão é ele mesmo, em outras palavras substituindo em *:

¬ Ξ[A(n,q)] ↔ Ξ[A(n,q)]

é uma contradição. Para que ω-cons(A(q,n)) seja valida temos que assumir que a finitude ou não da computação A(n,q) é indecidivel. Talvez isso seja de alguma maneira equivalente ao segundo teorema da incompletude que diz:

“For any well-defined system of axioms and rules (…) the proposition stating their consistency (or rather the equivalent number-theoretical proposition) is undemonstrable from these axioms and rules, provided these axioms and rules are consistent and suffice to derive a certain portion of the finitistic arithmetic of integers.” (Gödel(1951), Some basic theorems on the foundations of mathematics and their implications)

Ou seja, a consistência de um sistema é indecidível dentro do próprio sistema.

Citando o artigo de 1951 mais uma vez:

“This requirement for the rules and axioms is equivalent to the requirement that it should be possible to build a finite machine, in the precise sense of a “Turing machine”, which will write down all the consequences of the axioms one after the other. [Ou seja eles estarão fechados sob a relação de conseqüência imediata.] For this reason, the theorem under consideration is equivalent to the fact that there exists no finite procedure for the systematic decision of all diophantine problems of the type specified.”

Solomon Feferman, matemático e editor das obras completas de Gödel, aponta que o autor do artigo citado acreditava que, considerando a matemática enquanto conjunto de verdades demonstráveis- em oposição a matemática enquanto sistema formal consistente -, era possível produzir uma decisão sistemática para todas as equações diofantinas(Conferir:aqui) e que a mente humana superava qualquer máquina finita. Apesar de considerar que as 3 possibilidades da proposição “mente humana supera qualquer maquina finita existem problema diofantinos insolúveis” serem possíveis. As conseqüências de se admitir que a mente humana é uma máquina de Turing são bons argumentos para se acreditar no contrario, pois essas conseqüências são todas relativamente desconfortáveis. Primeiro, admitir essa possibilidade tem conseqüências desconfortáveis para a filosofia da matemática, pois parece apontar para um platonismo. Se existem equações diofantinas absolutamente insolúveis seria estranho afirmar que os objetos matemáticos são criação humana, pois o criador deveria, ao menos em possibilidade, conhecer a criatura. O material do quais são feitos os objetos matemáticos é o puro pensamento e parece impossível que uma criação que é feita de nada mais alem dos pensamentos do criador ser absolutamente impossível de se conhecer por completo. (Godel, 1951) Em segundo, admitir essa possibilidade de que a mente humana é uma máquina de Turing tem conseqüências desagradáveis para a filosofia da mente. Se a mente humana é algorítmica então esse algoritmo nunca poderá ser conhecido de uma forma que consideraríamos hoje como satisfatória, pois ao dizermos que entendemos de fato como um mecanismo funciona nos estaríamos afirmando a sua consistência, mas ai estaríamos fazendo uma afirmação impossível para a mente humana . Poderiamos ainda aceitar um tipo de conhecimento em que nada poderia nunca ser dito sobre a consistencia do que é conhecido o que é algo que raramente  secompatibiliza com a noção que temos de realmente conhecer um mecanismo.(Penrose, 1994)

Conjecturas

O teorema de Godel valida que sistemas formais geram uma certa serie de enunciados que são verdades matemáticas – ou seja, maquinas de Turing são sistemas eficientes de gerar verdades – e ele invalida que exista um único sistema formal que gere todas as verdades – ou seja, uma única maquina de Turing alcançando todas as verdades. Gostaria agora de fazer uma especulação que, portanto não vai estar imbuída do grau de certeza que esse texto teve até aqui, grau esse que o texto derivava de traçar precisamente conclusões de teorias bem estabelecidas e que agora não ira derivar de maneira tão precisa (cabe salientar, no entanto, que a minha apresentação do teorema de Gödel foi extremamente informal e tosca, tendo sido feita por mero acidente do objetivo principal que era explicitar o argumento de Penrose). Extrapolando os domínios da matemática pode-se dizer que isso nos faz chegar à conclusão de que a mente humana pode ser uma máquina composta por varias máquinas de Turing que jamais podem ser consistentes entre si, ou seja, a mente humana é multiconsistente. Ocorre que se pode adotar também a outra postura possível, ela ser regida por um único sistema axiomático em momentos discretos de tempo, mas o exercício do entendimento é justamente de expandir essa consistência; essa posição é enfraquecida pelo fato empírico de que se pode obter muito sucesso prevendo o comportamento de certos módulos cognitivos baseando-se no argumento que a mente é uma máquina de Turing constante – por constante entendo que não expande seu sistema de axiomas – e que se disso segue que é provável que de fato partes da mente trabalhem sob a perspectiva de ter um sistema fixo de axiomas e ser computacional. Dado a ausência de um atual ‘sistema da mente’ me parece provável que ele não exista e na verdade a mente é multiconsistente. Seja a suposição altamente provável de que existe uma unidade no sujeito faço a suposição de que uma das funções da consciência seria então definida em ser o conjunto de enunciados multiconsistêntes que enunciam a consistência de cada sistema (modular ou não) axiomático do cérebro e a busca por um nível mais abstrato de consistência entre os sistemas. Conclui-se ao final que a atitude que alguém deverá ter diante da vida é se preocupar com tornar consistentes dois sistemas não consistentes e assim sucessivamente, dado que na posteridade do ponto de singularidade o estrito poder computacional das maquinas ultrapassara os de um ser humano e todas as conseqüências de um sistema axiomático poderão ser traçadas de uma maneira mais eficiente (quem sabe até posteriormente e num futuro não tão distante, esses sistemas também poderão ser testados empiricamente, conquanto que o teste for definido mecanicamente como de fato muitos testes de teorias físicas bem conhecidas o são) que a qual um ser humano é capaz. Atualmente pode-se dizer que boa parte da humanidade se dedica a tais tarefas que poderão ser realizadas por maquinas, eu não me dou esse luxo. No meu ultimo texto postado aqui proponho minha pirâmide de categorias para organizar o conhecimento humano e digo que não sabemos sobre o vértice. Evitei declarar a existência do vértice para escapar a critica de Nietzsche e, pois não poderia declarar de modo algum que o que o vértice seria teria qualquer correspondência com o real, como conseqüência ele não seria verdadeiro por essa definição. Agora declaro a existência do vértice como mera entidade ontológica necessária ao conhecimento humano, seja ela a atividade de achar consistência. Essa tese seria comum tanto às teses ontológicas predominantes da tradição dialética que rege parte da estética e algum terreno obscuro da moral – i.e.: a tensão contraditória da negação – e também as teses ontológicas matemáticas que regem a física – i.e.: o principio de não contradição. O principio da não contradição e da tensão dialética não são auto-excludentes, só há uma mudança de foco de como proceder frente a conhecimentos que já podem ser certos – excluindo totalmente qualquer rastro de inconsistência – e conhecimentos que ainda não temos nenhuma perspectiva de certeza e determinismo – admitindo certo grau de indeterminismo inconsistência na teoria; a observação de Popper de que a dialética perde sentido se o principio da não contradição é negado em absoluto parece conssoar com esta proposição. (Conferir: O que é Dialética In: Conjecturas e Refutações) Os conhecimentos físicos são os mais certos e bem estabelecidos, logo, como de fato ocorre no conhecimento, temos que fazer o conteúdo se mover dentro da minha pirâmide indo da estética, passando pela moral e chegando finalmente ao reino da física. A pirâmide jamais perderá dimensão, se tornando um plano da moral, ou uma reta da física supondo a vida de entidades conscientes no universo como finita.


Axioma da especificação: B = { x A : S(x) }

Se S(x) = x x

B = { x A ^ x x }

Substituindo x por y e colocando os quantificadores:

y (y B ↔ ( y A ^ y y) (*)

B pertence a si mesmo ?

Ou B B, então por * (B A ^ B B), o que é uma contradição

Ou B B, então por * ( B B ^ B B), o que é uma contradição

Logo se chega necessariamente a uma contradição.

As condições de verdade dos conectivos são assim definidas:

Para uma formula φ, φ é verdadeiro ou é falso. Se φ1 ou φ2 são verdadeiros, φ1 φ2 é verdadeiro, e se φ1 e φ2 são ambos falsos φ1 φ2 é falso. Se φ1 e φ2 são verdadeiros, φ1 φ2 é verdadeiro, e se φ1 ou φ2 são falsos φ1 φ2 é falso Se φ é verdadeiro, ¬φ é falso, e se φ é falso, ¬φ é verdadeiro. Se φ1 for verdadeiro e φ2 for falso, φ1 → φ2 é falso, caso contrario é sempre verdadeiro. Se φ(a), sendo a uma instancia qualquer da variável x (se x representar os números naturais, ‘a’ será um numero natural especifico, ou seja o numero ‘a’ é uma instancia da classe de números x), é verdadeiro para algum a, então ∃x φ(x) é verdadeiro e se φ(x) é falso para toda instancia, então ∃x φ é falso. Se φ(x) é verdadeiro para toda instancia de x, então x φ(x) é verdadeiro, se existe uma instancia qualquer ‘a’ tal que φ(a) é falso, x φ(x) é falso. Uma explicação mais demorada dos conectivos também pode ser obtida aqui: http://en.wikipedia.org/wiki/Table_of_logic_symbols )

Máquinas de Turing e a mente humana

VERSÃO ATUALIZADA DESSE TEXTO: Fundamentos da matemática e a mente humana

Uma máquina de Turing é uma máquina que dado um input executa um certo algoritmo composto por certa quantidade finita de passos gerando um output. Por exemplo, uma máquina executando o seguinte algoritmo: “Se Q.I. > 120 então interagir. Caso contrario, não interagir.” O input seria o Q.I. e o output um dado binário de interagir ou não interagir. Uma computação para, chegando a um fim, quando se obtem um output. Certas computações não pararam, como por exemplo “Enumere a serie dos números naturais”.

O objetivo desse texto é demonstrar que existem verdades acessíveis a mente humana que não são acessíveis a uma máquina de Turing. Isso foi proposto inicialmente pelo matemático Kurt Gödel no artigo de 1951 intitulado: ‘Some basic theorems on the foundations of mathematics and their implications’ e posteriormente retomado por inúmeros matemáticos e filósofos como J.R. Lucas, Ernest Nagel ou Roger Penrose. Baseando-se nos meus rudimentos em lógica simbólica reproduzo, numa mera meta-linguagem informal matemática, o argumento dado por Penrose no livro ‘Shadows of the mind’:

Seja a serie de todas as computações aplicadas exclusivamente a n:

s = C1(n), C2(n), C3(n), ….,Cq(n), ….

Defina-se Ξ(x) como: x é uma computação que chega a um fim. Para saber se Cq(n) chega a um fim temos que fazer outra computação A(n,q) que para se e somente se Cq(n) não para:

¬ Ξ[Cq(n)] Ξ[A(n,q)] ( * )

Consideremos o caso especifico q = n:

¬ Ξ[Cn(n)] Ξ[A(n,n)]

Mas A(n,n) pertence a serie s, ou seja, é uma certa computação aplicada exclusivamente a n. Assim: A(n,n) = Ck(n). Segue que:

Ξ[A(n,n)] Ξ[Ck(n)]

Consideremos o caso n = k:

Ξ[A(n,n)] Ξ[Cn(n)]

Para não contradizer * segue que: ¬{Ξ[Cn(n)]}. No entanto isso não é decidível usando-se A(n,q) – pois ¬ Ξ[A(n,n)] e disto seguiria que Ξ[Cn(n)] – e é uma verdade matemática. Logo a mente humana chega a verdades que ultrapassam qualquer sistema computacional. Gödel mesmo afirma, no interior de um enunciado disjuntivo: “the human mind (even within the realm of pure mathematics) infinitely surpasses the powers of any finite machine”. Um algoritmo de uma máquina de Turing pode ser visto, como ressalta Gödel, como um sistema formal de axiomas. Assim, isso é apenas uma outra maneira de enunciar o teorema da incompletude, seja ele:

“Let Κ be any class of formulae. We denote with Conseq(Κ) the smallest set of formulae that contains all formulae of Κ and all axioms and is closed under the relation immediate consequence. Κ is called ω-consistent if [there is no formula a with one free variable where we can derive a(n) for all n, but also ¬ ∀n . a(n), a contradiction. Ou seja: ω-cons(A) = ¬∃a [(A ├ a(n))^(A ├ ¬a(n))]] (…)
Theorem VI: For every ω -consistent primitive recursive class Κ of formulae there is a primitive recursive class-sign r such that neither forall(v,r) nor not(forall(v,r)) belongs to Conseq(Κ) (where v is the free variable of r).” (Gödel(1931), On formally undecidable propositions of Principia Mathematica and related systems)

A diferença é que da forma que eu apresentei se está evidenciando uma de suas conseqüências. É interessante notar que no geral o que está prova faz é mostrar que um algorítimo A(q,n) que decida se algorítimos param falha quando o algoritmo em questão é ele mesmo, em outras palavras substituindo em *:

¬ Ξ[A(n,q)] ↔ Ξ[A(n,q)]

é uma contradição. Para que ω-cons(A(q,n)) seja valida temos que assumir que a finitude ou não da computação A(n,q) é indecidivel. Talvez isso seja de alguma maneira equivalente ao segundo teorema da incompletude que diz:

“For any well-defined system of axioms and rules (…) the proposition stating their consistency (or rather the equivalent number-theoretical proposition) is undemonstrable from these axioms and rules, provided these axioms and rules are consistent and suffice to derive a certain portion of the finitistic arithmetic of integers.” (Gödel(1951), Some basic theorems on the foundations of mathematics and their implications)

Ou seja, a consistência de um sistema é indecidível dentro do próprio sistema.

Citando o artigo de 1951 mais uma vez:

“This requirement for the rules and axioms is equivalent to the requirement that it should be possible to build a finite machine, in the precise sense of a “Turing machine”, which will write down all the consequences of the axioms one after the other. [Ou seja eles estarão fechados sob a relação de conseqüência imediata.] For this reason, the theorem under consideration is equivalent to the fact that there exists no finite procedure for the systematic decision of all diophantine problems of the type specified.”

Solomon Feferman, matemático e editor das obras completas de Gödel, aponta que o autor do artigo citado acreditava que, considerando a matemática enquanto conjunto de verdades demonstráveis- em oposição a matemática enquanto sistema formal consistente -, era possível produzir uma decisão sistemática para todas as equações diofantinas(Conferir:aqui) e que a mente humana superava qualquer máquina finita. Apesar de considerar que as 3 possibilidades da proposição “mente humana supera qualquer maquina finita V existem problema diofantinos insolúveis” serem possíveis. Fererman, ele mesmo, defende que ambas os termos da disjunção são verdades.

Não estabeleci ainda se das conclusões feitas nesse texto segue – como quer Penrose em seu referido livro – qualquer outra conclusão sobre a mente humana além do fato de ela alcançar verdades incomputáveis por máquinas de Turing. Entretanto, existe algo que queria ressaltar que esse argumento indiretamente valida e que pode parecer estranho aos mais precipitados em saltar para questões filosóficas, mas triviais aos acostumados ao pensamento lógico. Ele valida que existem sistemas formais e que eles geram uma certa serie de enunciados que são verdades matemáticas – ou seja, maquinas de Turing são sistemas eficientes de gerar verdades – e ele invalida que exista um único sistema formal que gere todas as verdades – ou seja, uma única maquina de Turing alcançando todas as verdades. Gostaria agora de fazer uma especulação que, portanto não vai estar imbuída do grau de certeza que esse texto teve até aqui, grau esse que o texto derivava de traçar precisamente conclusões de teorias bem estabelecidas e que agora não ira derivar de maneira tão precisa (cabe salientar, no entanto, que a minha apresentação do teorema de Gödel foi extremamente informal e tosca, tendo sido feita por mero acidente do objetivo principal que era explicitar o argumento de Penrose). Extrapolando os domínios da matemática pode-se dizer que isso nos faz chegar à conclusão de que a mente humana pode ser uma máquina composta por varias máquinas de Turing que jamais podem ser consistentes entre si, ou seja, a mente humana é multiconsistente. Ocorre que se pode adotar também a outra postura possível, ela ser regida por um único sistema axiomático em momentos discretos de tempo, mas o exercício do entendimento é justamente de expandir essa consistência; essa posição é enfraquecida pelo fato empírico de que se pode obter muito sucesso prevendo o comportamento de certos módulos cognitivos baseando-se no argumento que a mente é uma máquina de Turing constante – por constante entendo que não expande seu sistema de axiomas – e que se disso segue que é provável que de fato partes da mente trabalhem sob a perspectiva de ter um sistema fixo de axiomas e ser computacional. Dado a ausência de um atual ‘sistema da mente’ me parece provável que ele não exista e na verdade a mente é multiconsistente. Seja a suposição altamente provável de que existe uma unidade no sujeito faço a suposição de que uma das funções da consciência seria então definida em ser o conjunto de enunciados multiconsistêntes que enunciam a consistência de cada sistema (modular ou não) axiomático do cérebro e a busca por um nível mais abstrato de consistência entre os sistemas. Conclui-se ao final que a atitude que alguém deverá ter diante da vida é se preocupar com tornar consistentes dois sistemas não consistentes e assim sucessivamente, dado que na posteridade do ponto de singularidade o estrito poder computacional das maquinas ultrapassara os de um ser humano e todas as conseqüências de um sistema axiomático poderão ser traçadas de uma maneira mais eficiente (quem sabe até posteriormente e num futuro não tão distante, esses sistemas também poderão ser testados empiricamente, conquanto que o teste for definido mecanicamente como de fato muitos testes de teorias físicas bem conhecidas o são) que a qual um ser humano é capaz. Atualmente pode-se dizer que boa parte da humanidade se dedica a tais tarefas que poderão ser realizadas por maquinas, eu não me dou esse luxo. No meu ultimo texto postado aqui proponho minha pirâmide de categorias para organizar o conhecimento humano e digo que não sabemos sobre o vértice. Evitei declarar a existência do vértice para escapar a critica de Nietzsche e, pois não poderia declarar de modo algum que o que o vértice seria teria qualquer correspondência com o real, como conseqüência ele não seria verdadeiro por essa definição. Agora declaro a existência do vértice como mera entidade ontológica necessária ao conhecimento humano, seja ela a atividade de achar consistência. Essa tese seria comum tanto às teses ontológicas predominantes da tradição dialética que rege parte da estética e algum terreno obscuro da moral – i.e.: a tensão contraditória da negação – e também as teses ontológicas matemáticas que regem a física – i.e.: o principio de não contradição. O principio da não contradição e da tensão dialética não são auto-excludentes, só há uma mudança de foco de como proceder frente a conhecimentos que já podem ser certos – excluindo totalmente qualquer rastro de inconsistência – e conhecimentos que ainda não temos nenhuma perspectiva de certeza e determinismo – admitindo certo grau de indeterminismo inconsistência na teoria; a observação de Popper de que a dialética perde sentido se o principio da não contradição é negado em absoluto parece conssoar com esta proposição. (Conferir: O que é Dialética In: Conjecturas e Refutações) Os conhecimentos físicos são os mais certos e bem estabelecidos, logo, como de fato ocorre no conhecimento, temos que fazer o conteúdo se mover dentro da minha pirâmide indo da estética, passando pela moral e chegando finalmente ao reino da física. A pirâmide jamais perderá dimensão, se tornando um plano da moral, ou uma reta da física supondo a vida de entidades conscientes no universo como finita.

Da natureza do conhecimento matematico

Gostaria de trazer para os integrantes desse grupo um debate que tive com um dos meus mais excelentes e brilhantes colegas, o Sr. Diego Caleiro, durante um jantar. Irei apresentar a tese que defendo e esperar que ele se sinta suficientemente incomodado com ela para responder num comentário.

 

Abstrações construídas sob abstrações, uma teoria matemática se forma sobre um objeto puramente matemático, constituindo uma teoria da matemática pura. Dados empíricos sob dados empíricos, se constrói uma teoria física a cerca de um aspecto da natureza. Quase que num aparente milagre essas construções matemáticas vem ajudar as construções físicas e dizem algo a respeito da natureza, algo cujo fato de a evidencia empírica comprovar parece incoerente com a origem meramente abstrata da matemática. A tese aqui defendida versa sobre a natureza do conhecimento matemático e tenta explicar algumas de suas propriedades relacionadas a esse aparente milagre. Em primeiro lugar ela é uma contra-tese a de que todo o conhecimento matemático surgiu como uma metáfora conceitual do mundo natural – e.g.: a aritmética é uma metáfora conceitual para objetos e movimento em um caminho e conjuntos são uma metáfora para coleções de objetos – e as que foram sobrevivendo foram aquelas que melhor ajudaram os seres humanos a lidar com a realidade e fazer previsões certas à cerca dela. Além disso, segundo essa tese a qual me oponho o único canal de entrada de informações a cerca do mundo natural para formar os grandes sistemas da matemática pura foram os sentidos e a observação do mundo exterior. A tese que defendo tentara explicar o porque de fatos como: (1) na física previsões quase que exclusivamente matemáticas a cerca do mundo se provam verdadeiras (e.g.: sinal na equação de Dirac e em geral previsão de novas partículas a partir de dados exclusivamente teóricos que depois se provam existir na realidade) e (2) o fato recorrente de o desenvolvimento matemático puro feito num período em que se acreditava não ter nenhuma utilidade é usado com maestria num período posterior para explicar fatos a cerca do mundo natural (e.g.: números complexos que se desenvolveram no século XVI e foram utilizados na física quântica no século XX e a teoria dos conjuntos que se desenvolveu no inicio do século XX e esta sendo usada hoje na física de partículas). Esta tese pode ser assim expressa: “For one thing, the authors ignore the fact that brains not only observe nature, but also are part of nature. Perhaps the math that brains invent takes the form it does because math had a hand in forming the brains in the first place (through the operation of natural laws in constraining the evolution of life). Furthermore, it’s one thing to fit equations to aspects of reality that are already known. It’s something else for that math to tell of phenomena never previously suspected. When Paul Dirac’s equations describing electrons produced more than one solution, he surmised that nature must possess other particles, now known as antimatter. But scientists did not discover such particles until after Dirac’s math told him they must exist. If math is [puramente] a human invention, nature seems to know what was going to be invented.” (Tom Siegfried) Se depois de todo o desenvolvimento abstrato e independente da realidade de uma teoria da matemática pura essa teoria não só se mostra extremamente útil para o estudo da natureza como prevê fatos inesperados a cerca dessa natureza que depois se comprovam a tese da matemática como metáfora conceitual não me parece suficiente. Ao meu ver é necessário admitir que o próprio modo como surge o pensamento matemático no nosso cérebro é determinado pelas leis naturais e, portanto as teorias abstratas que emergem desse processo são determinadas por essas leis naturais, logo não é fato inexplicável para quem aceita essa tese que as teorias matemáticas parecem antecipar a realidade. Na verdade quem faz essa interpretação que defendo evita cair no absurdo de dizer que a matemática antecipa a realidade – a própria matemática é produto dessa realidade por isso não antecipa nada -, absurdo esse que quem rejeita essa tese cai invariavelmente, a não ser que queira defender o absurdo maior ainda de que as porcas metáforas conceituais que geraram o conhecimento matemático a fazem antecipar a realidade.

 

Durante a discussão com o Sr. Caleiro um aspecto da tese que defendo se tornou relevante. Seja U a totalidade da natureza e Teoria u o conjunto mínimo de enunciados que descreve e explica esse universo, U’ a parte da natureza a qual temos acesso agora e Teoria u’ o conjunto mínimo de enunciados que descreve e explica U’ (seja ela hipoteticamente a teoria da gravitação quântica). Por descreve e explica entendo que esses enunciados descrevam os elementos e façam previsões à cerca do universo que tratam. Podemos dizer que o universo N é o universo descrito pela física newtoniana, o universo Q o descrito pela física quântica, universo R o descrito pela relatividade geral. Fica obvio que N é subconjunto de R e Q, estes são disjuntos e U’ contem R e Q. A tese que defendo afirma que como todos os nosso processos cognitivos e a própria formação do nosso cérebro foram regidos pela Teoria u não é surpresa que a matemática pura consiga expandir dentro de U essas teorias que explicam apenas um subconjunto de U. Nesse ponto da discussão o Sr. Caleiro levantou a questão de que somos evolutivamente selecionados para olhar apenas para um certa parte do universo, a parte que aumenta a taxa de sobrevivência, assim sendo pode ser que nessa pequena fração do universo valha uma Teoria λ que não seja um caso especial da Teoria u. Conseqüentemente as expansões dessa Teoria λ não podem ser geradas por uma matemática que emergiu num mundo regido pela Teoria u pois o universo que ela descreve é algo como uma ilusão provocada por como somos evolutivamente selecionados para olhar parcelas especificas do universo U. Considero isso um absurdo pois, seja qual for a parcela especifica que olharmos do universo U ela será sempre uma parcela do universo U e a Teoria λ sempre um caso especial da Teoria u. Por favor, meu caro colega que me corrija caso não tenha sido isso o que ele disse. Fora isso espero dele ansiosamente a mais entusiasmada resposta.

Complexidade irredutível

Destoando um pouco dos tópicos usuais daqui, estou postando o meu primeiro post no blog. Que por sinal, publiquei também no meu blog particular.

Muitas pessoas tomam a complexidade e a beleza da natureza como evidências da existência de Deus ou de alguma outra entidade inteligente ou superior. Primeiramente, quero mostrar que existe aí um claro viés de observação: O universo é basicamente uma vasta imensidão de vácuo com umas bolinhas de gás lá e cá e nele a Terra parece ser uma incrível exceção; nosso planeta é um lugar muito especial no universo, não conhecemos nenhum outro tão diversificado em formas e estruturas complexas, assim, precisamos tomar cuidado ao tomar a Terra como referência. Nós vemos tanta complexidade porque o surgimento da vida (e nosso) requer tal complexidade; não poderíamos ter aparecido num lugar típico qualquer para observar a não-complexidade do universo. Já o viés da beleza deve-se simplesmente ao fato de vivermos melhor se admirarmos a natureza do que se não o fizermos; isto é útil a nossa sobrevivência e provavelmente foi selecionado por causa disso. Talvez daqui a milhares de anos as pessoas vejam mais beleza nas paisagens artificias porque isto as tornará mais adaptadas. Não é tanto a beleza da natureza que nos impressiona, quanto nós que impressionamos beleza na natureza.

Descontando-se os viéses, é muito interessante que existam tais formas na natureza e conceber o seu aparecimento espontâneo me pareceu completamente implausível até que conheci sistemas muito simples capazes de gerar grande complexidade. Vou dar alguns exemplos:

Os números primos

Os números naturais são os números que usamos para contar: 0, 1, 2, 3, 4, …
É um teorema bem conhecido que todo número natural maior que um pode ser expresso como a multiplicação de alguns dentre estes números, chamados por isto números primos (primeiros). Na verdade os primos são infinitos, mas são poucos comparados aos naturais. Ou seja, alguns dos naturais (os primos) são suficientes para gerar todos os outros por multiplicação. Veja:
2 é primo
3 é primo
4 = 2*2
5 é primo
6 = 2*3
7 é primo
8 = 2*2*2
9 = 3*3
10 = 2*5

No entanto, embora definir os naturais (zero e sucessor) e os primos (números que têm exatamente dois divisores distintos) seja relativamente simples, a estrutura da seqüência dos números primos é extremamente complicada. É muito difícil de se prever a sequência dos primos sem ter de testar a primalidade de uma montanha de números, e os matemáticos têm tentado compreender as propriedades desta seqüência há mais de 2000 anos. É um grande mistério de onde vem tal complexidade:

Descubra o padrão, entre para a história e tenha o mundo aos seus pés.Riemann menos Pi. Obtido em: http://www.secamlocal.ex.ac.uk/people/staff/mrwatkin/zeta/ss-a.htm

A regra 110

Stephen Wolfram inventou um sistema muito interessante de codificar certas regras de gerar padrões em fileiras de quadradinhos (autômatos celulares):

A regra 110A regra é a seguinte: começa-se de uma linha de quadradinhos brancos, com exceção de alguns pretos; para cada quadradinho da linha, compara-se ele com seus vizinhos, e pinta-se o quadradinho abaixo de acordo com a regra. Repete-se para cada nova linha formada. Curiosamente, aparecem padrões como estes:

A regra 110

Regra 126Regra 126: Fractal de Sierpinski
Novamente, não me é claro de onde vem esta complexidade, não me parece estar especificada na definição.

O Fractal de Mandelbrot

Benoit Mandelbrot descobriu que se pegarmos um número complexo c=a+bi, elevarmos ao quadrado, somarmos c, elevarmos ao quadrado, somarmos c, e repetirmos isto infinitamente, alguns destes números c vão para infinito (em pelo menos uma de suas partes), e outros não. Se pintarmos de preto num plano de Argand-Gauss, os números que não vão para infinito, encontramos uma estrutura muito interessante, o conjunto de Mandelbrot:

O conjunto de Mandelbrot
Olhar esta estrutura mais de perto só a revela mais e mais complexa. Acho que este é um caso gritante da complexidade surpreendente que quero mostrar.

Enfim, minha intenção era mostrar que sistemas de definição formal simples podem expressar uma complexidade muito maior do que a intuitivamente esperada, e que não devemos ser céticos em relação a isto. Não é tão surpreendente que a mera dinâmica casual possa ter provocado o aparecimento de estruturas tão complexas quando as vistas na Terra, o surpreendente é que dinâmicas simples possam gerar estruturas tão complexas. Qual é a origem desta complexidade?