Dois bias que podem acabar com a humanidade

Um bias cognitivo é uma tendência inerente que temos, ao pensarmos ou analisarmos certas situações,  de cometer desvios sistematicos da racionalidade. Existem dois bias não listados em nenhum livro sobre bias cognitivos que considero como os principais no que concerne a avaliação de potencias riscos catastroficos à raça humana.

Bias Observacional

Tratei de modo mais axiomático deste bias em outro post. Aqui tentarei expor ele de maneira mais concreta. Imagine um jogo de computador baseado na evolução com pequenas entidades auto replicadoras que geram algoritmos comportamentais nessas peculiares entidades e um ambiente virtual. A simulação reinicia periodicamente a cada T segundos e as populações são extintas sem deixar rastros. O evento só ocorre caso as entidades não tenham desenvolvido um conjunto muito especifico de algoritmos. O leitor poderia imaginar que essas nossas entidades teriam uma tendência a evoluir este certo algoritmo, pois de outro modo seriam extintas. Mas esta impressão está errada pois durante toda a historia de uma dessas populações de entidades virtuais muito provavelmente não há qualquer razão especifica para que esta população tenha desenvovido este algoritmo e caso, sem aviso, o programa se reinicie a população vive caso possua o algoritmo e é completamente devastada caso contrario: não há a chance de que as entidades que sofreram o holocausto passem as gerações futuras a informação de quem um cataclismo acontecerá e que só aquelas populações com o algoritmo sobreviverão; não há a chance de nossas pobres entidades aprenderem evolutivamente deste horrendo acontecimento pois cada vez que ele acontece o jogo é reiniciado do zero. Apesar de estar sob o risco de extinção essas ingênuas populações nunca ficam sabendo deste fato simplesmente porque as que sabem morrem e as que não são extintas por possuírem o algoritmo não estão sob este risco para se informarem dele. Se há uma pressão evolutiva agindo seria uma seleção por ignorância. Alem disso se assumirmos um crescimento populacional maior que zero, se você é uma dessas entidades, a maior probabilidade é que esteja mais próximo do tempo T de extinção do que mais longe. Isto é uma conclusão facilmente obtida a partir da SSA, se você um uma entidade aleatória que não sabe quando será extinta, mas sabe que a maioria das entidades esta mais próxima do fim do que do começo então você deve assumir que está mais próxima de ser extinta do que não. Uma população de entidades rudimentares, em seus começos, pode ter um futuro vasto a sua frente. Enquanto que uma população já extremamente evoluída e adaptada ao ambiente provavelmente esta no seu fim. É fácil constatar que nós partilhamos da mesma ignorância destas ingênuas e ledas entidades. Nós só estamos vivos, pois não fomos extintos, logo não podemos usar esse dado para calcular nossa probabilidade de extinção. O dado de ha quanto tempo não fomos extintos muito menos, pois o que se da é o inverso, quanto mais tempo permanecemos vivos maior a probabilidade de sermos extintos no instante seguinte. Temos, portanto de usar outros meios indiretos.

Bias da Intencionalidade

Durante a imensa maioria da historia da humanidade os eventos naturais eram em sua maior parte inevitáveis e matavam muitas menos pessoas do que os eventos humanos evitáveis. Naturalmente que aqueles que sabiam evitar a sua própria morte através de outro ser humano sobreviviam em oposição aos que não conseguiam e aqueles que desnecessariamente despreendiam energia em evitar eventos inevitáveis – mantendo o resto constante – tenderiam a não sobreviver frente a grande escassez energética. Esta situação criou um bias – até pouco tempo vantajoso – de se preocupar muito mais com perigos intencionais do que não intencionais. Esse é talvez o principal bias a desviar a atenção da humanidade para os principais eventos catastróficos. Só muito recentemente tem-se dado conta de um destes muitos perigos: o aquecimento global, – talvez as custas de identificar paises ou industrias como as culpadas – enquanto os outros inúmeros males permanecem na penumbra.

8 opiniões sobre “Dois bias que podem acabar com a humanidade”

  1. Oi João, não entendi bem a que tipo de situação vc estaria se referindo no bias observacional, seriam catástrofes altamente imprevisíveis, e das quais não teríamos nenhum indício? Seria possível dar um exemplo?
    Também não entendi mto bem se isso seria um bias de raciocínio ou uma mera limitação de conhecimento possível…

  2. O primeiro ponto, sobre o Bias Observacional, é um argumento a priori sobre nossa alta probabilidade de sermos extintos em breve, que me soa tão artificioso quanto o argumento ontológico (da existência de Deus) de Santo Anselmo.

    Mas não vou me aborrecer tentando achar o às na manga, kkkkkk.

    O segundo ponto… tem tudo a ver! =)

  3. Paralelo,

    O Bias Observacional NÃO é um argumento a priori sobre nossa alta probabilidade de sermos extintos em breve. Isso é o Doomsday argument, que é um absurdo (no sentido logico da palavra).
    O Bias Observacional é um bias sobre a nossa ausencia de informação com respeito a nossa probabilidade de extinção.

    Rend,
    Digamos que existam no total 10 civilizações iguais isoladas no universo e 9 delas são extintas, sobrando apenas uma. Essa uma civilização tem a evidencia que ela existe, mas essa evidencia não diz nada sobre a pobrabilidade dela não ter sido extinta, que é 1/10. Seja la qual tenha sido o numero de civilizações iguais a ela extintas a observação de que ela não foi extinta será sempre um. São duas observações com duas probabilidade totalmente não relacionadas e uma não informa sobre a outra. Qualquer civilização, seja la com qual probabilidade de extinção, sempre fara a observação “eu existo e não fui extinta” com probabilidade 1.
    Não podemos usar a nossa existencia para estimar a probabilidade de extinção, pois só aquelas civilizações que não são extintas podem realizar observações e é claro que a observação “não fomos extintos” tera sempre probabilidade 1, independente da probabilidade de extinção.
    Bayesianamente podemos dizer que, seja x pertencente aos reais, a probabilidade condicional de “x% das civilizações são extintas” em “não fomos extintos” é igual a probabilidade incondicional de “x% das civilizações são extintas”, ou seja “não fomos extintos” não nos informa nada sobre a probabilidade de que uma civilização (i.e.: a nossa) seja extinta.

    Em certa medida é um limitação do conhecimento que podemos tirar da nossa propria “auto” observação. Para estimarmos a nossa probabilidade de extinção temos que olhar para outros planetas, etc..

  4. João, o Observacional continua profundamente obscuro, tem falácia da transparência alí a dar de rodo. “Entidades” WTF? “Algorítmo” pelo menos um link para o que é um algorítmo, e uma explicação que você está usando uma definição mais abrangente da palavra, para incluir comportamentos de grupos (humanos ou não) por exemplo e não regras simples de computação.

    Está surgindo uma falta de clareza grande nesse post e nesse comment, ou será que eu estou com critérios mais estritos?

    O João falou de algorítmos que não são algorítmos (necessariamente) mas sim propriedades, qualquer propriedade que evite extinção entra no texto dele.

    O Paralelo disse que o argumento é a priori, e ele é a priori, tanto quanto a priori haja sobrevivido as criticas de Quine e família. Ele é independente da experiência. O bias observacional existe sempre que exista uma sociedade que se desenvolveu ao longo do tempo num universo que não possui a lei “Todas as sociedades viverão para sempre” o que são todos os universos que nos interessam e mais um monte ainda…..

    Em todos os mundos sem postulado em contrário, o raciocínio por tras do bias observacional é verdadeiro.

    Quanto ao João falar que é diferente do Doomsday Argument, o que se pode dizer é que um é a formalização matemática do outro. Se você aceita o Observational bias, você sabe que não há como saber quando sua sociedade será extinta com base em NENHUMA informação que você tenha vinda do ambiente. Segue o único tipo de informação que poderia te informar são aquelas que nem Deus sabe ( ver 2.1.1 de https://brainstormers.wordpress.com/2009/09/28/a-filosofia-de-nick-bostrom-parte-1/) Ou seja, informação indexical, que é a respeito de você.

    Uma delas é que você é o humano número X (60 bi aprox) e com isso você consegue criar uma curva de distribuição de probabilidade de quantos humanos existirá ao longo da história (começando com 60 bi +1 e se extendendo até qualquer valor finito pré determinado) A sua curva terá essa cara aqui (http://www.konfide.com.br/marketing-digital/images/stories/artigos/tendencias/cauda-longa.gif) A altura representa probabilidade de extinção num dado ano. O comprimento representa o número de pessoas, começando em 60 bi

    A partir daí você pode estabelecer uma pergunta: “Quando é 30%” provável que minha sociedade haja morrido?”, e isso estará na parte verde da curva ou “Quando é 90% provável que minha sociedade haja morrido?” e isso estará na parte amarela…..

    Alguém que entendeu observational bias notou que era possível usar informação indexical para avaliar probabilidade de extinção, e que Esse é a única informação que se pode obter sobre probabilidade de extinção.

    Então a gente vive essa dúvida, onde, de todos aqueles pontos na curva, estará nossa humilde sociedade?

    A questão é essa, se você quer chamá-la de bias observacional ou de Doomsday Argument não vai mudar isso.

  5. O DA (Doomsday Argument) é uma conclusão indesejável que surge de teorias sobre informação idexal e principio antrópico. Certas formalizações do principio antrópico, como a do Bostrom, conseguem evitar esse e outros paradoxos. O Bias Observacional, na formulação mais vaga que dei é compatível tanto com a formalização do Bostrom quanto com outras que permitem que o DA surja.

    O Bias Observacional impede que obtenhamos informação a respeito da nossa probabilidade de extinção com base na nossa sobrevivência. Ele não impede de modo algum que obtenhamos informação sobre a nossa extinção com dados da física, cosmologia, dinâmica celeste, geologia extraterrestre, astrobiologia e assim por diante. Todos esses são os meios cientificamente aceitos de se pesquisar riscos catastróficos e existenciais. O DA não, ele é um absurdo (uma conclusão que você não quer no seu sistema) universalmente reconhecido. Não existe nenhuma razão que impeça que a distribuição de craterras em outros planetas para se extimar a frequencia de cometas com potencial de risco existencial/catastrofico seja afetada pelo bias observacional, pois ela é feita em outro planeta não no nosso (mesmo as observações no nosso planeta anteriores ao surgimento da vida não estão afetadas).

    Assim como não discuto que IA é um risco catastrófico com o Jonatas, não vou discutir esse tópico com o Diego. Ambos que leiam e entendam o que foi escrito a respeito primeiro.

  6. João, você conseguiu chamar a minha atenção para os seus artigos, mas confesso que também deu um nó na minha cabecinha, rs. Estou até agora procurando me informar sobre o que é “bias” sobre o que é “meme”. Não sei se seria correto dizer isso, mas sinto que virei um meme seu, assim que li os seus artigos. Eu estou completamente memetizada com as suas idéias.

Deixe uma resposta

Preencha os seus dados abaixo ou clique em um ícone para log in:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair / Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair / Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair / Alterar )

Foto do Google+

Você está comentando utilizando sua conta Google+. Sair / Alterar )

Conectando a %s