English French German Spain Italian Dutch Russian Portuguese Japanese Korean Arabic Chinese Simplified

sexta-feira, 25 de maio de 2012

"Eu fracassei" não pode se transformar em "eu sou um fracasso"



Tim Harford é dos mais originais autores de uma nova geração de economistas que foca suas atenções no comportamento humano. Autor de "O economista clandestino" e "A lógica da vida", lançou recentemente "Adapt: why success always starts with failure" (FSG, 2011 - ainda sem previsão de lançamento no Brasil), no qual faz uma verdadeira ode ao erro.

Sua justificativa para tal é simples: o erro é componente irrevogável do processo de tentativa e erro, consagrada fórmula do método científico, cujos resultados inequívocos impulsionam a ciência. Enquanto isso, a Administração nega seus valores, apostando na claudicante e sempre incompleta expertise de gestores bem-intencionados, porém míopes.

Nesta ilustrativa entrevista, concedida ao nosso colunista Rodolfo Araújo, Harford explica por que é tão difícil livrar-se de velhos conceitos, como é possível aprender através do erro e por que é tão difícil entregar-se a ele.

Algumas das ideias testadas são contraintuitivas, mesmo depois de comprovadas. Como podemos superar nossa tendência de manter o status quo e duvidar de conceitos radicalmente novos?

Não é fácil. Só quando eu estava terminando os últimos rascunhos de Adapt foi que percebi que cada capítulo tinha um herói – alguém que lutou bravamente para testar algo novo. A tarefa deles não era fácil: do engenheiro que foi executado pela polícia secreta de Stalin, ao Coronel americano que, depois de desafiar os dogmas de Donald Rumsfeld na Guerra do Iraque, era repetidamente preterido nas promoções. Eles foram heróis porque é preciso um certo grau de heroísmo para desafiar ideias e poderes arraigados.

Por que atualmente prestamos mais atenção nestas ideias – por mais contraintuitivas que pareçam – do que fazíamos no passado? Por que a Economia Comportamental demorou tanto tempo para aparecer e questionar os princípios da Economia Tradicional?

A Economia Comportamental já existe há algum tempo. Aprendi as ideias de Daniel Kahneman no meu curso de graduação em Oxford, em 1993. Kahneman ganhou o Prêmio Nobel de Economia há quase uma década. E Richard Thaler, autor de Nudge, escreve uma coluna sobre a disciplina numa das mais importantes publicações de economia desde 1980, se não estou enganado. Creio que seja uma questão de percepção popular, acentuada mais pelo fato de a crise financeira ter arranhado a reputação da Economia Tradicional, do que pela forma como a Economia Comportamental procura explica-la.

Quando escolhemos uma teoria para testar, corremos o risco de sermos enganados pela falácia da explicação única – segundo a qual deixamos de ver outras causas para uma mesma consequência. Esta teoria da seleção natural não pode nos confundir na identificação de uma falsa relação de causa e efeito, baseada em simples coincidências?

Sim, é verdade: uma das partes mais difíceis do processo de tentativa e erro reside em descobrir o que realmente está errado. Esta é uma das razões pelas quais dediquei uma boa parte do livro em descrever o que conta como evidência, nos campos onde as evidências são consideradas de forma séria – como a Medicina – e a importância dos testes controlados quando fazemos tais experiências.

Em Prevenindo colapsos financeiros, ou: Dissociando, você usa a Teoria dos Sistemas Complexos e a analogia do queijo suíço*. Max Bazerman escreveu um livro inteiro sobre Surpresas Previsíveis (Predictable Surprises, Harvard Business School Press, 2008) e em Blink (Little Brown, 2005), Malcolm Gladwell diz que ao menos seis erros são necessários para ocorrer um acidente aéreo. Se todos os sinais da iminência de um desastre estão diantes de nós, por que ainda somos incapazes de preveni-los?

Em parte isso se deve à forma como as informações estão organizadas dentro de um sistema. Eu menciono um acidente terrível numa plataforma de petróleo, Pipper Alpha, no qual faltava uma informação crítica a respeito de uma bomba hidráulica desmontada. Ainda não se tem certeza sobre o motivo disso. Também cito a arquitetura da informação em Three Mile Island (usina nuclear americana que derreteu parcialmente em 1979), onde os engenheiros observavam 700 indicadores luminosos e mais de 100 alarmes, com a tarefa de descobrir o que estava acontecendo. Problemas semelhantes ocorreram durante a crise financeira – enquanto o Lehman Brothers se equilibrava à beira de um colapso, os reguladores simplesmente não sabiam quais eram as conexões entre o banco e os outros players, então não conseguiam enxergar o real impacto de uma quebradeira. O que precisamos é de sistemas de informações melhores.

Uma questão parecida é "o que acontece nas organizações quando as pessoas enxergam problemas"? Elas se manifestam ou permanecem em silêncio? Frequentemente, mesmo em acidentes graves – financeiros ou industriais – alguém viu o problema e ou não disse nada, ou soou o alarme e foi ignorado ou mesmo perseguido. Precisamos melhorar neste aspecto.

Quando você discute a questão ambiental, perguntando se a pessoa deve usar o transporte público ou não (já que o ônibus faz o seu trajeto independentemente de você estar nele ou não), você chega perto do Paradoxo de Sorites**. Isto justificaria muitas ações que poderiam resultar num desastre. Como os indivíduos – e a sociedade – devem se comportar ao se deparar com tais dilemas?

Cedo ou tarde a pessoa perceberá o que realmente faz a diferença e dispara a necessidade de outro ônibus precisar circular. O custo marginal de uma pessoa é gigantesco. O custo marginal de uma segunda pessoa é praticamente zero. A saída para o Paradoxo de Sorites é tirar a média dos dois: digamos que o custo de uma pessoa é $100 e o custo marginal de outras 99 é zero; então o custo marginal médio é $1. Isso é lógico do ponto de vista econômico, mas também satisfaz o bom senso. É um desses casos nos quais a teoria abstrata só atrapalha.

A Teoria dos Jogos diz que quando você muda as regras de um jogo, os participantes adaptam suas estratégias para se agarrar ao status quo. Como os reguladores podem prever melhor as consequências de suas (boas) intenções? É um problema de incentivos mal desenhados?

Penso ser praticamente impossível prever tais consequências. É melhor ser flexível e ficar atento, tentando se ajustar aos problemas conforme eles forem surgindo. Exceto em sistemas com estruturas muito rígidas, como nos casos dos bancos e usinas nucleares, como discutido anteriormente.

No começo do livro você diz que as pessoas devem experimentar para testar suas ideias – especialmente na medicina. Mas depois aconselha para que reduzamos as emissões de carbono, apesar de não haver evidências claras dos benefícios que isto pode trazer. Isto não é contraditório?

Há muitas questões para as quais um experimento não pode fornecer uma resposta, como Archie Cochrane, um dos herois do livro, entendeu muito bem. Realizamos experimentos em áreas onde isto é possível e usamos outras evidências nas outras onde não é. Eu ainda não estou 100% convencido a respeito das evidências de que as alterações climáticas provocadas pelo homem terão consequências severas, mas há evidências suficientes para justificar algumas atitudes.

Sua ideia de um imposto sobre o carbono é interessante, mas levanta algumas questões práticas: para onde iria o dinheiro? Como você poderia impor tal carga aos países pobres? Como você fiscalizaria o pagamento, se os gases não respeitam fronteiras políticas e alguns países simplesmente não pagariam?

Não acho que seja um problema tão grave quanto você imagina. Os países precisariam acordar o valor dos impostos em relação às taxas de câmbio e ajustá-las conforme necessário. O dinheiro seria cobrado localmente e a receita ficaria com os próprios governos. Isto não seria um fardo para os países pobres – poderia substituir outros impostos. E esta taxação deveria ser cobrada da mesma maneira que outros acordos internacionais: os países aderem voluntariamente assim como fizeram na Organização Mundial do Comércio. Não estou dizendo que seja fácil, mas já tivemos outros consensos ainda mais complicados. O problema é que muitos eleitores não acreditam que as mudanças climáticas sejam um problema, de fato.

"Aceitar tentativa e erro implica em aceitar o erro". Esta frase está em perfeita sintonia com o conceito de mindset de Carol Dweck, segundo o qual as pessoas com uma mentalidade fixa não conseguem lidar com fracassos, porque eles mostram suas falhas. Logo, precisamos nos sentir confortáveis com nossas próprias fraquezas. O quão longe estamos disso e por quê?

Sou fã do trabalho da Dra. Dweck. Precisamos entender que não devemos encarar os fracassos de maneira tão pessoal. "Eu fracassei" não pode se transformar em "Eu sou um fracasso" – isto não é a forma correta de se pensar. Imagino que, naturalmente, nós lutamos contra isso, mas podemos melhorar com a prática. Descobri isso escrevendo o livro: um erro não parece tão trágico quando você começa a se perguntar o que aprendeu. Sei que isso parece cliché – falar sobre erros como experiência de aprendizado – mas é verdade. E pode ser um cliché porque é repetido muitas vezes e repetimos tantas vezes porque é uma lição difícil de ser aprendida.

* Compara os buracos de um queijo suíço às falhas de um sistema. No queijo, os buracos estão distribuídos de maneira aleatória, de forma que você não pode, por exemplo, enxergar através dele. Mas se, de algum modo, todos eles se alinharem, você conseguirá ver o outro lado. Um sistema complexo, por sua vez, pode apresentar falhas individuais que, quando ocorrem separadamente, não comprometem o conjunto. Mas quando estas falhas acontecem de forma simultânea – como o alinhamento dos buracos – pode pôr tudo a perder.

** Onde come um, comem dois. Onde comem dois, comem três. Onde comem três, comem quatro etc.
Fonte: administradores.com.br

Nenhum comentário: