Compartimentos à prova de lógica

Como nossos cérebros modulares nos levam a negar e distorcer evidências
Se você já ponderou como pessoas inteligentes e educadas conseguem, diante de evidências  esmagadoramente contraditórias, acreditar que a evolução é um mito, que o aquecimento global é um boato, que vacinas provocam autismo e asma, e que os atentados de 9/11 foram orquestrados pela administração Bush, não perca mais tempo.

A explicação está no que chamo de compartimentos à prova de lógica [logic-tight compartments] – módulos cerebrais análogos aos compartimentos estanques de navios.

O conceito de funções cerebrais compartimentalizadas, estejam em concerto ou em conflito, é uma ideia fundamental da psicologia evolutiva desde o início dos anos 1990.

De acordo com o psicólogo evolutivo da University of Pennsylvania, Robert Kurzban em Why Everyone (Else) Is a Hypocrite (Princeton University Press, 2010, Porque Todos (os Outros) são Hipócritas, em tradução livre) o cérebro evoluiu como um órgão modular, multitarefa, para resolver problemas – um canivete suíço de ferramentas práticas, na velha metáfora, ou um iPhone cheio de aplicativos na versão de Kurzban.

Não há um self unificado que gera crenças internamente consistentes e aparentemente coerentes livres de conflito.

Em vez disso, nós somos uma coleção de módulos distintos, mas interagentes, que frequentemente estão brigados uns com os outros. O módulo que nos leva a desejar doces e comidas gordurosas no curto prazo está em conflito com o módulo que monitora nossa imagem corporal e saúde no longo prazo. O módulo para cooperação está em conflito com o módulo de competição, assim como os módulos para altruísmo e avareza, ou os módulos para dizer a verdade e mentir.

A compartimentalização também funciona quando novas teorias científicas entram em conflito com crenças mais antigas e ingênuas.

No artigo de 2012 “Scientific Knowledge Suppresses but Does Not Supplant Earlier Intuitions” [Conhecimento Científico Suprime, mas não Substitui Intuições anteriores, em tradução livre] publicado no periódico Cognition, os psicólogos Andrew Shtulman e Joshua Valcarcel do Occidental College, descobriram que indivíduos verificavam mais rapidamente a validade de afirmações científicas quando elas concordavam com suas ingênuas crenças anteriores.

Afirmações científicas contraditórias eram processadas mais lentamente e com menos precisão, sugerindo que “teorias ingênuas sobrevivem à aquisição de uma teoria científica mutuamente incompatível, coexistindo com essa teoria por muitos anos”.

A dissonância cognitiva também pode estar funcionando na compartimentalização de crenças.

No artigo de 2010 “When in Doubt, Shout!”, [Se estiver em dúvida, Grite!] publicado em Psychological Science, os pesquisadores David Gal e Derek Rucker da Northwestern University descobriram que quando as crenças mais queridas dos indivíduos eram questionadas, eles “se engajavam em defender mais suas crenças (...) que pessoas que não tiveram sua confiança enfraquecida”.

Mais tarde eles concluíram que evangelistas entusiásticos de uma crença podem na verdade estar “fervendo de dúvida”, e assim seu proselitismo persistente pode ser um sinal de que a crença encobre ceticismo.

Além disso, nossos compartimentos à prova de lógica são influenciados por nossas emoções morais, que nos levam a torcer e distorcer dados e evidências por meio de um processo chamado de raciocínio motivado.

O módulo de defender nossas preferências religiosas, por exemplo, motiva crédulos a procurar e encontrar fatos que apoiam, por exemplo, o modelo bíblico de uma Terra jovem em que a esmagadora evidência de uma Terra antiga deve ser negada.

O módulo contendo nossas predileções políticas se elas são, por exemplo, mais conservadoras, pode motivar pró-capitalistas a acreditar que qualquer tentativa de reduzir a poluição industrial por causa da ameaça do aquecimento global deve ser um boato liberal.

O que pode ser feito para derrubar as paredes que separam nossos compartimentos à prova de lógica?

No artigo de 2012 “Misinformation and Its Correction: Continued Influence and Succesful Debiasing” [“Desinformação e sua correção: influência continuada e desenviesação bem sucedida”, em tradução adaptada], publicado em Psychological Science in the Public Interest, o psicólogo Stephan Lewandowsky e seus colegas da University of Western Australia, sugerem essas estratégias:

“Considere as lacunas que são criadas nos modelos mentais de eventos das pessoas pelo questionamento e preencha-as com uma explicação alternativa(...). Para evitar tornar as pessoas mais familiares com a desinformação(...), enfatize os fatos que você deseja comunicar, e não o mito. Forneça um aviso explícito antes de mencionar um mito, para garantir que as pessoas estejam cognitivamente protegidas e menos inclinadas a serem influenciadas pela desinformação(...). Considere o conteúdo que você quer transmitir pode ser ameaçador para a visão de mundo e valores de sua audiência. Se for o caso, você arrisca que a visão de mundo saia pela culatra”.

Desbancar não é suficiente. Nós precisamos substituir ideias ruins com boa ciência.                  

Edição Scientific American Brasil no 129

Cético por Michael Shermer – Vendo o mundo com olhos racionais

Fonte: http://www2.uol.com.br/sciam/noticias/compartimentos_a_prova_de_logica.html