domingo, 10 de novembro de 2013

«O Homem que Ganhou o Prémio Nobel por Ajudar a Criar a Crise Financeira Global»

«O objectivo do projecto ideológico da profissão em Economia ([1]), na época actual, é fornecer uma fundamentação teórica dos mercados financeiros desregulados e do capitalismo desregulado. O facto de que este projecto teve êxito, apesar da lógica e da história é, temos de admitir, um fantástico truque de prestidigitação; mas é ridículo atribuir Prémios Nobel aos prestidigitadores.»
James R. Crotty
Professor Emérito de Economia
Universidade de Massachusetts, 4/11/2013
   
É sabido que os prémios Nobel reflectem, muitas vezes, os preconceitos ideológicos dos comités suecos e noruegueses que os atribuem. Isto é especialmente visível nos prémios da Paz e da Economia que mereceram a nomeação de personagens que, de várias maneiras, se destacaram na defesa do capitalismo neoliberal e do imperialismo; por vezes, personagens que convinha ao imperialismo destacar no ano preciso da nomeação. O laureado com o Pémio Nobel de Economia em 2013 é um claro exemplo do que afirmamos. Trata-se de Eugene Fama, o homem que ajudou a criar a teoria que levou à Grande Recessão. Para esclarecer esta afirmação iremos limitar-nos a traduzir um artigo de James R. Crotty, Professor Emérito de Economia na Universidade de Massachusetts ([2]), com inserção de algumas notas entre parênteses rectos e em fundo amarelo da nossa autoria.
   
O Homem que Ganhou o Prémio Nobel por Ajudar a Criar a Crise Financeira Global
James R. Crotty, 4/11/2013
   
Eugene Fama acaba de receber o Prémio Nobel pelas suas contribuições para a teoria dos “mercados financeiros eficientes”, a teoria dominante da economia financeira, a qual sustenta que os mercados funcionam de forma ideal se não forem constrangidos por regulamentos governamentais. [A tese central do neoliberalismo] O facto da “ciência” económica ensinar que os mercados financeiros desregulados funcionam de forma eficaz, ajudou as instituições financeiras e os ricos a atingirem os seus propósitos de desregulação radical dos mercados financeiros nos anos oitenta e noventa. A desregulação, por seu turno, não só contribuiu para a crescente desigualdade social da nossa época, como ajudou a causar a crise global do mercado financeiro iniciada em 2007 e a profunda recessão e políticas de austeridade fiscal que se lhe seguiram.
   
[Note-se que o autor atribui a culpa da recessão apenas à desregulação dos mercados financeiros. Para os economistas marxistas a “culpa” (isto é, a culpa das culpas) é a inelutável lei da queda tendencial da taxa de lucro (ver o nosso anterior artigo [3]) que estimulou o grande capital a adoptar o neoliberalismo com a sua desregulação de mercados financeiros e não só: privatizações e liquidação do sector público.]
   
A teoria dos mercados financeiros eficientes requer a junção de duas ideias: a “hipótese dos mercados eficientes” (HME) e a teoria do apreçamento óptimo (de valores mobiliários)” (TAO). [O “apreçamento óptimo” significa a determinação do preço óptimo; neste caso, de valores mobiliários, como as acções transccionadas na Bolsa. A HME, a TAO, e a ficção do “investidor racional” já foram por nós denunciadas como puras balelas em [4], um dos artigos da série em que expusemos as várias insuficiências e disparates da economia convencional, acompanhando o livro do economista Steve Keen.] Quer a HME quer a TAO apoiam-se em assunções cruamente irrealistas, que levariam qualquer um, não endoutrinado por um curso de doutoramento em economia convencional, a concluir que a teoria dos mercados financeiros eficientes é uma história da carochinha em vez de ciência social séria. [O autor toca aqui num ponto importante. A especialização que têm sofrido muitas áreas do conhecimento tem contribuído, para o praticante desatento, não a um ganho, mas pelo contrário, a uma perda de sentido crítico, de sentido metodológico. Abundam os disparates em cursos muito especializados, onde se transmitem balelas como se fossem respeitáveis corpos de conhecimento. Um exemplo em Portugal é a inclusão de disciplinas de “empreendorismo” em programas doutorais, com a ideia peregrina de que o “empreendorismo” -- cujo estatuto científico está abaixo do da “culinária” -- irá salvar Portugal da crise do desemprego de cidadãos com habilitações superiores. Podemos também entender que um aluno de um programa doutoral em Economia se sinta “esmagado” pela aura de respeitabilidade que as complicadas construções matemáticas encerram, dispondo-o a aceitar beatificamente a mensagem subjacente, nunca lhe passando pela cabeça questionar os magister dixit e as assunções em que assenta a "teoria".] A HME é simplesmente uma assunção ou asserção, sem qualquer evidência que a suporte, de que toda a informação relevante para o correcto apreçamento de valores mobiliários é conhecida de todos os participantes do mercado. Para activos de longo prazo, tais como acções e obrigações, a informação relevante é o fluxo de numerário associado a cada activo [valor mobiliário] em qualquer período futuro. É, porém, logicamente impossível a quem quer que seja conhecer essa informação, porque o futuro não está determinado pelo presente, o futuro é incerto. [Já tínhamos tocado nesta questão num artigo da série sobre o “sector financeiro” ([5]) em que criticámos a “definição” da "investopedia" de especulação financeira. Explicámos, nomeadamente, porque é que o passado e o presente não podiam servir para determinar o futuro de riscos de investimento (asociados a preços de valores mobiliários), nem mesmo num sentido estatístico.] Apesar disso, os defensores da eficiência [dos mercados] adoptaram a hipótese das “expectativas racionais” [ver o que dissemos sobre a ficção do “investidor racional” em [4] ], possivelmente a assunção mais ridícula da história das ciências sociais, a qual postula que todos os investidores conhecem com exactidão as distribuições de probabilidade de todos os futuros fluxos de numerário dos valores mobiliários e assumem  que as mesmas não se irão alterar ao longo do tempo. [isto é, que as distribuições de probabilidade são estacionárias, como dizíamos em [5].]
   
Os dados [distribuições de preços] sobre o futuro, asumidos como completos e correctos, são então inseridos num dos modelos [matemáticos] de apreçamento de valores mobiliários, da economia convencional, tal como o modelo de apreçamento de activos de capital (CAPM), o qual especifica as preferências dos agentes [investidores] no respeitante ao risco e rendimento de cada possível carteira de valores mobiliários. [Detalhes muito pouco técnicos deste processo foram descritos no nosso artigo [4].] A combinação da HME com uma teoria de apreçamento óptima determina preços de valores mobiliários que são eficientes na medida em que cada investidor selecciona o perfil risco-rendimento que maximiza a sua satisfação e, ao mesmo tempo, são disponbilizados recursos financeiros para aqueles que podem fazer deles o melhor uso produtivo. Os preços de mercado são asumidos estar sempre em equilíbrio [a assunção de “equlíbrio” é omnipresente na macroeconomia convencional e foi devidamente demonstrada como irrealista ou até impossível por muitos economistas, conforme descrito na nossa série de artigos sobre economia convencional], ainda que os dados mostrem que os preços de mercado são muito mais voláteis do que seria compatível com a assunção de equilíbrio perpétuo. O próprio modelo de apreçamento de activos de capital incorpora um grande número de assunções largamente irrealistas, para além da assunção do conhecimento sobre o futuro, que faz parte da HME. Por exemplo, assume que cada investidor possui a mesma carteira de valores (os que querem mais risco contraiem empréstimos para construir uma versão aumentada da carteira), nenhum negoceia em valores mobiliários e nenhum entra em incumprimento do crédito concedido.
   
Poder-se-ia pensar que todo o projecto da eficiência dos mercados financeiros deveria ter sido liminarmente rejeitado, já que se baseia num enorme número de assunções irrealistas sobre o funcionameno dos mercados financeiros. Todavia, não só é ainda a teoria dominante sobre mercados financeiros, como Prémios Nobel foram conferidos aos seus criadores. Porque razão uma profissão académica avaliza o uso de teorias baseadas em assunções tão irrealistas? A resposta dada pelos proponentes da teoria dos mercados finaneiros eficientes é que o desenvolvimento da Economia se apoia na teoria do “positivismo” [6], associada a Milton Friedman, como guia de aceitação e rejeição de propostas teóricas. O positivismo de Friedman postula que o realismo das assunções não interessa: não tem nenhuma relação com a aceitabilidade da teoria ou com os resultados ([7]) que dela derivam. Conforme disse Friedman “Poder-se-ão encontrar hipóteses verdadeiramente importantes e significativas que têm assunções que são representações descritivas da realidade largamente incorrectas”. O único teste aceitável da teoria “é a comparação das suas predições com a experiência”. 
   
[Esta metodologia de Friedman é totalmente rejeitável e reprovável do ponto de vista científico. No livro de Steve Keen [8], que acompanhámos na série de artigos sobre economia convencional, é feita uma crítica aprofundada da metodologia não científica de Friedman. Nenhumas assunções irrealistas, não conformes com a realidade, podem criar uma teoria científica consistente, [9]. O Prémio Nobel conferido a Milton Friedman em 1976 tem tanto valor como se tivesse sido conferido a um construtor de uma teoria matemática da astrologia.]
   
Existem pelo menos três sérios problemas com este método. Primeiro, se forem adoptadas assunções claramente falsas, como na teoria dos mercados financeiros eficientes, e uma lógica impecável for usada para deduzir delas resultados, então tais hipóteses não podem -- como consequência lógica-- ser reflexos correctos da realidade. Assunções “da carochinha” só podem gerar resultados “da carochinha”.
   
Segundo, os testes econométricos [testes estatísticos aplicados a dados económicos] quando muito só podem fornecer evidência sugestiva e nunca conclusiva da validade empírica das predições geradas pelas teorias económicas. Com a actual capacidade computacional é possível realizar literalmente milhões de regressões [10] para testar uma hipótese teórica. As regressões podem usar diferentes tipos de dados, períodos de tempo, medidas empíricas de variáveis teóricas, formas funcionais, estruturas de atraso, etc. Tomemos, agora, as expectativas do investidor sobre futuros fluxos de numerário para todos os valores mobiliários. Tais expectativas são um determinante essencial do apreçamento de equilíbrio de activos financeiros; existem, porém, inúmeras maneiras de escolher medidas empíricas de expectativas; e a teoria não nos diz qual a escolha apropriada de entre este vasto menu de possíveis medidas alternativas. Como consequência disto tudo, virtualmente qualquer hipótese pode ser mostrada ser estatisticamente significativa [para os dados utilizados] se analisarmos suficientes regressões. É por esta razão que cada um de dois lados de qualquer debate importante em economia pode apresentar evidência econométrica em apoio das suas posições [sim, se cada um dos dois lados for livre de usar as "medidas empíricas, formas funcionais", etc., que quiser; não, se a descrição e assunções do problema obrigarem a restrições; por isso, em antes de um debate de "dois lados" há que decidir sobre os métodos adequados]. Por isso mesmo os economistas não devem apoiar-se exclusivamente [a palavra-chave aqui é "exclusivamente"] em testes de hipóteses econométricos quando avaliam teorias alternativas, como defende o positivismo. O realismo dos conjuntos de assunções é crucial para este fim, tal como as análises históricas e institucionais, os inquéritos e os estudos experimentais.
   
[As notas [9-11] procuram esclarecer estas questões. Na nota [11] apresentamos uma ilustração simples sobre a regressão, mostrando, nomeadamente, como assunções erradas conduzem a modelos matemáticos que não descrevem adequadamente a realidade, mesmo quando se usam técnicas de optimização e os modelos exibem boas propriedades estatísticas de ajuste às observações, conforme revelado por testes estatísticos adequados. É bem conhecido de quem trabalha em ciência que resultados de testes estatísticos nunca podem, apenas por sí sós, validar uma teoria.]
   
Terceiro, quando os economistas positivistas insistem sobre “predição” econométrica como único juiz da aceitabilidade de uma teoria, estão a colocar toda a responsabilidade da prova nos testes econométricos. Mas quando a maioria de tais testes produz resultados que rejeitam a sua teoria favorita, os positivistas nunca rejeitam a teoria, como determinava a metodologia que usam. Pelo contrário, prosseguem com novos testes econométricos utilisando especificações alternativas, num processo potencialmente infinito de “data mining[12]. Numa revisão de testes empíricos de hipóteses acerca do CAPM, largamente discutida em 2004, Eugene Fama e um co-autor chegaram a uma conclusão espantosa: “apesar da sua sedutora simplicidade os problemas empíricos da CAPM provavelmente invalidam o seu uso em aplicações”. [Note-se a estranha maneira de designar as assunções irrealistas: “problemas empíricos".] Os padrões do positivismo requeririam que a CAPM fosse rejeitada. Todavia, os economistas financeiros continuaram a minerar os dados num esforço sem fim de encontrar resultados econométricos que se ajustassem à teoria. Entretanto, a CAPM manteve o seu estatuto canónico e a teoria dos mercados eficientes permaneceu sem beliscadura apesar da falta de suporte empírico.
   
Porque razão uma profissão académica adoptou uma metodologia como o positivismo, que defende teorias baseadas em assunções irrealistas? Vendo bem, existe uma alternativa óbvia: começar com um conjunto de assunções realistas e usá-lo para derivar resultados realistas sobre o comportamento dos mercados financeiros. É este o médtodo usado por Keynes e Minsky para mostrar que os mercados financeiros não têm nenhumas propriedades de eficiência e podem apropriadamente ser comparados a casinos de jogo. [Marx sustentou o mesmo ponto de vista muito antes de Keynes e Minsky; temos vindo a repeti-lo desde o início do nosso blog.] A resposta é esta: os profissionais da Economia estão ideologicamente comprometidos com a defesa do postulado de que os mercados financeiros são eficientes, embora seja impossível derivar esse postulado a partir de um conjunto de assunções realistas. Não lhes resta, assim, outra opção senão adoptar a metodologia positivista que avalizou o uso de assunções irrealistas, ainda que absurdas, na construção teórica. Dado que as assunções realistas conduzem a teorias que mostram os aspectos positivos [não entendemos o que o autor tinha em mente como “aspectos positivos” (“strengths” no original), tanto mais que acabou de reconhecer que as assunções realistas levam a considerar os mercados como casinos] mas também os inúmeros perigos e falências do capitalismo desregulado, revelado pelo registo histórico, elas tiveram de ser substituídas por um grande número de assunções absurdas requeridas para sustentar a inerente convicção dos economistas [convencionais] de que os mercados não regulados ou só ligeiramente regulados criam o melhor dos mundos possíveis, maximizando simultaneamente a eficiência económica e a liberdade individual. O positivismo é a varinha mágica que torna possível construir uma defesa “científica” do postulado de que o capitalismo de mercado livre está livre de sérias falhas e perigos.
   
O objectivo do projecto ideológico da profissão em Economia, na época actual, é fornecer uma fundamentação teórica dos mercados financeiros desregulados e do capitalismo desregulado. O facto de que este projecto teve êxito, apesar da lógica e da história é, temos de admitir, um fantástico truque de prestidigitação; mas é ridículo atribuir um Prémios Nobel aos prestidigitadores. Não devíamos atribuir prémios a pessoas que criaram e propagaram uma teoria ideologicamente fundamentada que fortaleceu a implantação da desregulação financeira e ajudou, assim, a criar a depressão global.
   
Referências e Notas:
   
[1] James R. Crotty usa a expressão “economics profession”. A tradução literal seria, assim, “O objectivo [...] da profissão em economia [...]”. A forma, porém, como Crotty usa esta expressão em outras partes do texto, não deixa dúvidas de que se está a referir àqueles cuja profissão é desenvolver a disciplina de Economia como área do conhecimento. 

[2] James R. Crotty, («The Man Who Won a Nobel Prize for Helping Create a Global Financial Crisis», Dollars and Sense, Real World Economics, November 4, 2013. http://www.dollarsandsense.org/archives/2013/1013crotty.html




[6] A corrente filosófica do positivismo foi criada por Auguste Comte cerca de 1830, quando a Revolução Francesa já tinha há muito acabado e a burguesia aspirava a consolidar o seu domínio e a desempenhar um papel progressista de desenvolvimento da indústria e comércio. A ideologia materialista que tinha inspirado os revolucionários avançados já não interessava; mas também não interessava o idealismo da nobreza e do clero reaccionário. O positivismo de Comte era uma corrente centrista, um casamento forçado do materialismo com o idealismo, que respondia aos anseios de «ordem e progresso» da burguesia. Na sociologia, defendeu a colaboração de classes. Na teoria do conhecimento, rejeitou a necessidade objectiva da natureza à margem do homem, defendendo só nos ser acessível o conhecimento de algumas leis da natureza. O positivismo disfarça-se periodicamente com uma nova designação; actualmente como «pós-modernismo». É fácil entender porque Milton Friedman defendia uma certa variante de positivismo.

[7] O autor usa “hypotheses” com o significado de resultados previstos por uma teoria que é necessário verificar.

[8] Steve Keen, “Debunking Economics. The naked emperor dethroned?”, Zed Books, 2011.

[9] De forma muito simples, podemos entender uma teoria explicativa da realidade como uma função y = f(x).  A função f é, no caso da Economia, construída empiricamente; isto é, por observação de muitos exemplos de dados de entrada x procura-se uma determinada f (uma determinada teoria) que produz valores, f(x), muito próximos (dentro dos erros de medição) dos valores y, observados na realidade (os dados de saída do processo real). A escolha de f guia-se por determinadas assunções. Dado que o conjunto de possíveis funções f é potencialmente infinito, então a probabilidade de escolher uma “má” f como consequência de “más” assunções é arbitrariamente próxima de 1 (há só um conjunto de assunções correctas, mas infinitos conjuntos de más assunções). Normalmente, maus f gerarão valores f(x) afastados dos y observados, levando à rejeição da teoria. Mas essa capacidade de rejeição, logo a aceitação da “má” teoria, não pode assentar em testes estatísticos, como veremos na nota 11. Este é um dos aspectos que Friedman convenientemente “esquece”. Em suma, teorias  baseadas em assunções que não estão de acordo com a realidade podem, em casos particulares, gerar boas predições (f(x) próximo de y); mas num número potencialmente infinito de casos gerarão más predições. Não são consistentes. O leitor pode interrogar-se: então, e a Física das partículas, quando os teóricos inventaram os quarks como constituintes dos protões e neutrões? Ainda por cima com assunções tão “irrealistas” como quarks com cor? É preciso ter aqui em conta: a) que a existência de quarks e da propriedade designada arbitrariamente por “cor” foram entendidas pelos físicos como meras hipóteses de trabalho, até que foi provada a existência dessas partículas com o comportamento estipulado para a propriedade designada por cor; b) que a prova foi física, materialmente objectiva (em 1972 e 1979) e não por meros testes estatísticos, como em econometria.

[10] A “regressão” é um método matemático que permite avaliar o grau de aproximação entre os valores f(x) -- gerados por uma dada teoria (ou modelo matemático, f) para certos dados de entrada x -- e os valores de saída, y, que a teoria deveria prever. Os dados x e y poderão conter desvios face aos verdadeiros valores, por imprecisões de medições (situação corrente em dados económicos) e, neste caso, o grau de aproximação baseia-se em testes estatísticos que tomam em conta essas imprecisões.

[11] Consideremos o seguinte problema adaptado do livro de Charmont Wang, “Sense and Nonsense of Statistical Inference: Controversy, Misuse, and Society”, CRC Press, 1992: foram efectuadas medições de uma dada característica, y, de 22 objectos do mesmo tipo, dependente apenas de outras duas, x1 e x2, cujos valores são conhecidos:

x1
2
2
2
2
2
2
2
2
2
2
3
3
3
3
4
4
4
4
5
5
5
5
x2
2,75
2,50
2,25
2,00
1,80
1,50
1,25
1,00
0.70
0,50
2,50
2,00
1,50
1,00
1,75
1,50
1,20
0,80
1,75
1,50
1,00
0,75
y
3,42
3,21
3,01
2,89
2,75
2,55
2,38
2,30
2,15
2,10
3,95
3,63
3,40
3,18
4,38
4,29
4,18
4,10
5,30
5,22
5,15
5,08


A natureza dos “objectos” é desconhecida. Poderiam ser objectos naturais, animais, máquinas, transacções de valores mobiliários, etc. Se os “objectos” fossem estrelas, x1 e x2 poderiam ser o albedo e a intensidade luminosa, sendo y a distância ao sistema solar; se fossem acções de uma dada empresa, x1 poderia ser a cotação hoje, x2 a taxa de juro hoje, y a cotação amanhã, ao longo de 22 dias; etc. Seja o que forem, pretendemos obter a descrição funcional y = f(x1,x2): a teoria ou lei que “explica” y em função de x1 e x2. Por simplicidade, supomos x1 e x2 medições exactas e só y tem erros diminutos de medição.

Se não soubermos de que “objectos” se trata, não há assunções a fazer. Qualquer tipo de função serve; trata-se de escolher (por métodos apropriados, ditos de regressão) uma que produza valores, digamos y*, ajustando-se o melhor possível a y. Uma possível solução y* é: 

y* = 0,1134+ln(x1+x2)+0,9836sqrt(0,12x1+0,28x2+0,99x12+0,96x22-0,07x1x2), onde “ln” designa o logaritmo natural e “sqrt” a raiz quadrada.

Podemos avaliar a aproximação de y* a y calculando, para todos os 22 valores, a soma dos quadrados dos desvios y*-y (SQD). Obtém-se: SQD(y*) = 0,0079. Trata-se de um valor muito baixo (média de 0,000359 por valor) e os vários testes estatísticos (de que não falaremos) mostrariam ser significativa a contribuição dos vários termos da expressão.

Diz Charmont Wang que apresentou o problema a dezenas de alunos. Todos encontraram variadíssimas e boas soluções para y*. Acontece que a tabela acima foi obtida por Wang medindo triângulos rectângulos: x1 e x2 eram os catetos; y, a hipotenusa com adição de uma pequena quantidade de erro. (Erros são omnipresentes em medições.) Nenhum dos alunos descobriu a lei de Pitágoras: y* = sqrt(x12+x22), a qual tem bem maior SQD -- SQD(y*) = 0,026 -- indicativo de pior aproximação. Ou seja, na ausência de assunções a boa solução seria rejeitada a favor de uma má solução.

Suponhamos, agora, que nos dizem que y não pode ser negativo. Esta assunção restringe o espaço de funções; já não podemos admitir o termo logarítmico acima. Eliminando-o da expressão e procurando a melhor solução obtém-se SQD(y*) = 0,0094. Adicione-se nova assunção: a simetria em x1 e x2. Obtém-se y* = 0,9872sqrt(0,26(x1+x2)+0,975(x12+x22)-0,07x1x2), com SQD(y*) = 0,0218. Isto é, testes estatísticos baseados na qualidade da aproximação levariam sempre a rejeitar soluções mais próximas da realidade em favor das soluções baseadas em assunções irrealistas, que usam espaços de funções mais largos.

Na realidade, no caso em discussão dos mercados financeiros, há que inverter as designações realista-irrealista. Neste caso, as assunções irrealistas são as que impõem mais restrições, não conformes com a realidade, a saber: toda a informação relevante para o correcto apreçamento é conhecida de todos os investidores; todas as carteiras têm a mesma composição; a possibilidade dos investidores contraírem empréstimos é ilimitada; nenhum investidor transacciona títulos da carteira; etc. As assunções realistas correspondem a descartar tais restrições. Por conseguinte, os defensores da HME-TAO querem fazer-nos acreditar que os mercados financeiros desregulados são “certinhos” como triângulos rectângulos, quando, de facto, admitem uma vastíssima gama de soluções; como as combinações diferentes de jogos num casino.

Além disso, quando Friedman (e os que o seguem) afirma que o único teste aceitável de uma teoria “é a comparação das suas predições com a experiência”, sem ter em conta quaisquer assunções, cai num óbvio erro científico que podemos comparar com o erro incorrido pela primeira expressão de y* no cálculo de hipotenusas: ela funciona muitíssimo bem nos 22 casos apresentados, mas tremendamente mal numa infinidade de outros casos, de pequenos e de grandes catetos. Por exemplo, para x1=x2=0,1 obtém-se y* = 0,032 em vez de 0,1414; para x1=x2=100 obtém-se y* = 135,37 em vez de 141,4. "A comparação de predições com a experiência” nunca foi o único critério de aceitabilidade de uma teoria, a considerar isoladamente. As experiências que se fazem são sempre em número finito; fica sempre um número infinito delas por fazer.

[12] “data mining” = “mineração de dados”. Processo computacional em que inúmeras combinações de subconjuntos de dados de entrada e de saída, juntamente com relações funcionais, são investigadas com vista a detectar relações preditoras significativas.