«O objectivo do projecto ideológico da profissão em Economia ([1]), na
época actual, é fornecer uma fundamentação teórica dos mercados financeiros
desregulados e do capitalismo desregulado. O facto de que este projecto teve
êxito, apesar da lógica e da história é, temos de admitir, um fantástico truque
de prestidigitação; mas é ridículo atribuir Prémios Nobel aos
prestidigitadores.»
James R. Crotty
Professor
Emérito de Economia
Universidade de Massachusetts,
4/11/2013
É sabido que os
prémios Nobel reflectem, muitas vezes, os preconceitos ideológicos dos comités
suecos e noruegueses que os atribuem. Isto é especialmente visível nos prémios da
Paz e da Economia que mereceram a nomeação de personagens que, de várias
maneiras, se destacaram na defesa do capitalismo neoliberal e do imperialismo;
por vezes, personagens que convinha ao imperialismo destacar no ano preciso da
nomeação. O laureado com o Pémio Nobel de Economia em 2013 é um claro exemplo
do que afirmamos. Trata-se de Eugene Fama, o homem que ajudou a criar a teoria
que levou à Grande Recessão. Para esclarecer esta afirmação iremos limitar-nos
a traduzir um artigo de James R. Crotty, Professor Emérito
de Economia na Universidade de Massachusetts ([2]), com inserção de algumas
notas entre parênteses rectos e em fundo amarelo da nossa autoria.
O Homem
que Ganhou o Prémio Nobel por Ajudar a Criar a Crise Financeira Global
James R. Crotty,
4/11/2013
Eugene Fama acaba de receber o Prémio Nobel pelas
suas contribuições para a teoria dos “mercados financeiros eficientes”, a
teoria dominante da economia financeira, a qual sustenta que os mercados
funcionam de forma ideal se não forem constrangidos por regulamentos
governamentais. [A tese central
do neoliberalismo] O facto da “ciência” económica ensinar que os
mercados financeiros desregulados funcionam de forma eficaz, ajudou as
instituições financeiras e os ricos a atingirem os seus propósitos de
desregulação radical dos mercados financeiros nos anos oitenta e noventa. A
desregulação, por seu turno, não só contribuiu para a crescente desigualdade
social da nossa época, como ajudou a causar a crise global do mercado
financeiro iniciada em 2007 e a profunda recessão e políticas de austeridade
fiscal que se lhe seguiram.
[Note-se
que o autor atribui a culpa da recessão apenas à desregulação dos mercados
financeiros. Para os economistas marxistas a “culpa” (isto é, a culpa das
culpas) é a inelutável lei da queda tendencial da taxa de lucro (ver o nosso
anterior artigo [3]) que estimulou o grande capital a adoptar o neoliberalismo
com a sua desregulação de mercados financeiros e não só: privatizações e
liquidação do sector público.]
A teoria dos mercados financeiros eficientes
requer a junção de duas ideias: a “hipótese dos mercados eficientes” (HME) e a teoria
do apreçamento óptimo (de valores mobiliários)” (TAO). [O “apreçamento óptimo” significa a determinação
do preço óptimo; neste caso, de valores mobiliários, como as acções
transccionadas na Bolsa. A HME, a TAO, e a ficção do “investidor racional” já
foram por nós denunciadas como puras balelas em [4], um dos artigos da série em
que expusemos as várias insuficiências e disparates da economia convencional,
acompanhando o livro do economista Steve Keen.] Quer a HME quer a TAO
apoiam-se em assunções cruamente irrealistas, que levariam qualquer um, não
endoutrinado por um curso de doutoramento em economia convencional, a concluir
que a teoria dos mercados financeiros eficientes é uma história da carochinha
em vez de ciência social séria. [O autor toca aqui num ponto importante. A especialização que têm
sofrido muitas áreas do conhecimento tem contribuído, para o praticante
desatento, não a um ganho, mas pelo contrário, a uma perda de sentido crítico,
de sentido metodológico. Abundam os disparates em cursos muito especializados,
onde se transmitem balelas como se fossem respeitáveis corpos de conhecimento.
Um exemplo em Portugal é a inclusão de disciplinas de “empreendorismo” em
programas doutorais, com a ideia peregrina de que o “empreendorismo” -- cujo
estatuto científico está abaixo do da “culinária” -- irá salvar Portugal da
crise do desemprego de cidadãos com habilitações superiores. Podemos também
entender que um aluno de um programa doutoral em Economia se sinta “esmagado”
pela aura de respeitabilidade que as complicadas construções matemáticas
encerram, dispondo-o a aceitar beatificamente a mensagem subjacente, nunca lhe
passando pela cabeça questionar os magister
dixit e as assunções em que assenta a "teoria".] A HME é
simplesmente uma assunção ou asserção, sem qualquer evidência que a suporte, de
que toda a informação relevante para o correcto apreçamento de valores
mobiliários é conhecida de todos os participantes do mercado. Para activos de
longo prazo, tais como acções e obrigações, a informação relevante é o fluxo de
numerário associado a cada activo [valor mobiliário] em qualquer período futuro. É, porém,
logicamente impossível a quem quer que seja conhecer essa informação, porque o
futuro não está determinado pelo presente, o futuro é incerto. [Já tínhamos tocado nesta
questão num artigo da série sobre o “sector financeiro” ([5]) em que criticámos
a “definição” da "investopedia"
de especulação financeira. Explicámos, nomeadamente, porque é que o passado e o
presente não podiam servir para determinar o futuro de riscos de investimento
(asociados a preços de valores mobiliários), nem mesmo num sentido estatístico.] Apesar disso, os
defensores da eficiência [dos
mercados] adoptaram a hipótese das “expectativas racionais” [ver o que dissemos sobre a
ficção do “investidor racional” em [4] ], possivelmente a assunção mais
ridícula da história das ciências sociais, a qual postula que todos os
investidores conhecem com exactidão as distribuições de probabilidade de todos
os futuros fluxos de numerário dos valores mobiliários e assumem que as mesmas não se irão alterar ao longo do
tempo. [isto é, que as
distribuições de probabilidade são estacionárias, como dizíamos em [5].]
Os dados [distribuições de preços] sobre o futuro, asumidos
como completos e correctos, são então inseridos num dos modelos [matemáticos] de apreçamento
de valores mobiliários, da economia convencional, tal como o modelo de apreçamento
de activos de capital (CAPM), o qual especifica as preferências dos agentes [investidores] no
respeitante ao risco e rendimento de cada possível carteira de valores
mobiliários. [Detalhes
muito pouco técnicos deste processo foram descritos no nosso artigo [4].]
A combinação da HME com uma teoria de apreçamento óptima determina preços de
valores mobiliários que são eficientes na medida em que cada investidor
selecciona o perfil risco-rendimento que maximiza a sua satisfação e, ao mesmo
tempo, são disponbilizados recursos financeiros para aqueles que podem fazer deles
o melhor uso produtivo. Os preços de mercado são asumidos estar sempre em
equilíbrio [a assunção de
“equlíbrio” é omnipresente na macroeconomia convencional e foi devidamente
demonstrada como irrealista ou até impossível por muitos economistas, conforme
descrito na nossa série de artigos sobre economia convencional], ainda
que os dados mostrem que os preços de mercado são muito mais voláteis do que
seria compatível com a assunção de equilíbrio perpétuo. O próprio modelo de apreçamento
de activos de capital incorpora um grande número de assunções largamente
irrealistas, para além da assunção do conhecimento sobre o futuro, que faz
parte da HME. Por exemplo, assume que cada investidor possui a mesma carteira
de valores (os que querem mais risco contraiem empréstimos para construir uma
versão aumentada da carteira), nenhum negoceia em valores mobiliários e nenhum entra
em incumprimento do crédito concedido.
Poder-se-ia pensar que todo o projecto da
eficiência dos mercados financeiros deveria ter sido liminarmente rejeitado, já
que se baseia num enorme número de assunções irrealistas sobre o funcionameno dos
mercados financeiros. Todavia, não só é ainda a teoria dominante sobre mercados
financeiros, como Prémios Nobel foram conferidos aos seus criadores. Porque
razão uma profissão académica avaliza o uso de teorias baseadas em assunções
tão irrealistas? A resposta dada pelos proponentes da teoria dos mercados
finaneiros eficientes é que o desenvolvimento da Economia se apoia na teoria do
“positivismo” [6],
associada a Milton Friedman, como guia de aceitação e rejeição de propostas
teóricas. O positivismo de Friedman postula que o realismo das assunções não
interessa: não tem nenhuma relação com a aceitabilidade da teoria ou com os resultados
([7]) que dela
derivam. Conforme disse Friedman “Poder-se-ão encontrar hipóteses
verdadeiramente importantes e significativas que têm assunções que são
representações descritivas da realidade largamente incorrectas”. O único teste
aceitável da teoria “é a comparação das suas predições com a experiência”.
[Esta
metodologia de Friedman é totalmente
rejeitável e reprovável do ponto de vista científico. No livro de Steve
Keen [8], que acompanhámos na série de artigos sobre economia convencional, é
feita uma crítica aprofundada da metodologia não científica de Friedman.
Nenhumas assunções irrealistas, não conformes com a realidade, podem criar uma
teoria científica consistente, [9]. O Prémio Nobel conferido a Milton Friedman
em 1976 tem tanto valor como se tivesse sido conferido a um construtor de uma
teoria matemática da astrologia.]
Existem pelo menos três sérios problemas com
este método. Primeiro, se forem adoptadas assunções claramente falsas, como na
teoria dos mercados financeiros eficientes, e uma lógica impecável for usada para
deduzir delas resultados, então tais hipóteses não podem -- como consequência
lógica-- ser reflexos correctos da realidade. Assunções “da carochinha” só
podem gerar resultados “da carochinha”.
Segundo, os testes econométricos [testes estatísticos aplicados a
dados económicos] quando muito só podem fornecer evidência sugestiva e
nunca conclusiva da validade empírica das predições geradas pelas teorias
económicas. Com a actual capacidade computacional é possível realizar
literalmente milhões de regressões [10] para testar uma hipótese teórica. As regressões podem usar
diferentes tipos de dados, períodos de tempo, medidas empíricas de variáveis
teóricas, formas funcionais, estruturas de atraso, etc. Tomemos, agora, as
expectativas do investidor sobre futuros fluxos de numerário para todos os
valores mobiliários. Tais expectativas são um determinante essencial do
apreçamento de equilíbrio de activos financeiros; existem, porém, inúmeras
maneiras de escolher medidas empíricas de expectativas; e a teoria não nos diz
qual a escolha apropriada de entre este vasto menu de possíveis medidas
alternativas.
Como consequência disto tudo, virtualmente qualquer hipótese pode ser mostrada
ser estatisticamente significativa [para os dados utilizados] se analisarmos suficientes regressões.
É por esta razão que cada um de dois lados de qualquer debate importante em
economia pode apresentar evidência econométrica em apoio das suas posições [sim, se cada um dos dois lados
for livre de usar as "medidas empíricas, formas funcionais", etc.,
que quiser; não, se a descrição e assunções do problema obrigarem a restrições;
por isso, em antes de um debate de "dois lados" há que decidir sobre os
métodos adequados]. Por isso mesmo os economistas não devem apoiar-se exclusivamente
[a palavra-chave aqui é
"exclusivamente"] em testes de hipóteses econométricos quando
avaliam teorias alternativas, como defende o positivismo. O realismo dos
conjuntos de assunções é crucial para este fim, tal como as análises históricas
e institucionais, os inquéritos e os estudos experimentais.
[As
notas [9-11] procuram esclarecer estas questões. Na nota [11] apresentamos uma
ilustração simples sobre a regressão, mostrando, nomeadamente, como assunções
erradas conduzem a modelos matemáticos que não descrevem adequadamente a
realidade, mesmo quando se usam técnicas de optimização e os modelos exibem boas
propriedades estatísticas de ajuste às observações, conforme revelado por testes
estatísticos adequados. É bem conhecido de quem trabalha em ciência que
resultados de testes estatísticos nunca podem, apenas por sí sós, validar uma teoria.]
Terceiro, quando os economistas positivistas
insistem sobre “predição” econométrica como único juiz da aceitabilidade de uma
teoria, estão a colocar toda a responsabilidade da prova nos testes
econométricos. Mas quando a maioria de tais testes produz resultados que
rejeitam a sua teoria favorita, os positivistas nunca rejeitam a teoria, como determinava
a metodologia que usam. Pelo contrário, prosseguem com novos testes
econométricos utilisando especificações alternativas, num processo
potencialmente infinito de “data mining”
[12]. Numa revisão
de testes empíricos de hipóteses acerca do CAPM, largamente discutida em 2004, Eugene
Fama e um co-autor chegaram a uma conclusão espantosa: “apesar da sua sedutora simplicidade
os problemas empíricos da CAPM provavelmente invalidam o seu uso em aplicações”.
[Note-se a estranha
maneira de designar as assunções irrealistas: “problemas empíricos".]
Os padrões do positivismo requeririam que a CAPM fosse rejeitada. Todavia, os
economistas financeiros continuaram a minerar os dados num esforço sem fim de
encontrar resultados econométricos que se ajustassem à teoria. Entretanto, a CAPM
manteve o seu estatuto canónico e a teoria dos mercados eficientes permaneceu
sem beliscadura apesar da falta de suporte empírico.
Porque razão uma profissão académica adoptou
uma metodologia como o positivismo, que defende teorias baseadas em assunções
irrealistas? Vendo bem, existe uma alternativa óbvia: começar com um conjunto
de assunções realistas e usá-lo para derivar resultados realistas sobre o
comportamento dos mercados financeiros. É este o médtodo usado por Keynes e Minsky
para mostrar que os mercados financeiros não têm nenhumas propriedades de
eficiência e podem apropriadamente ser comparados a casinos de jogo. [Marx sustentou o mesmo ponto de
vista muito antes de Keynes e Minsky; temos vindo a repeti-lo desde o início do nosso blog.] A
resposta é esta: os profissionais da Economia estão ideologicamente
comprometidos com a defesa do postulado de que os mercados financeiros são
eficientes, embora seja impossível derivar esse postulado a partir de um
conjunto de assunções realistas. Não lhes resta, assim, outra opção senão
adoptar a metodologia positivista que avalizou o uso de assunções irrealistas, ainda
que absurdas, na construção teórica. Dado que as assunções realistas conduzem a
teorias que mostram os aspectos positivos [não entendemos o que o autor tinha em mente como “aspectos
positivos” (“strengths” no original),
tanto mais que acabou de reconhecer que as assunções realistas levam a
considerar os mercados como casinos] mas também os inúmeros perigos e
falências do capitalismo desregulado, revelado pelo registo histórico, elas
tiveram de ser substituídas por um grande número de assunções absurdas
requeridas para sustentar a inerente convicção dos economistas [convencionais] de que os mercados
não regulados ou só ligeiramente regulados criam o melhor dos mundos possíveis,
maximizando simultaneamente a eficiência económica e a liberdade individual. O
positivismo é a varinha mágica que torna possível construir uma defesa
“científica” do postulado de que o capitalismo de mercado livre está livre de
sérias falhas e perigos.
O objectivo do projecto ideológico da
profissão em Economia, na época actual, é fornecer uma fundamentação teórica
dos mercados financeiros desregulados e do capitalismo desregulado. O facto de
que este projecto teve êxito, apesar da lógica e da história é, temos de
admitir, um fantástico truque de prestidigitação; mas é ridículo atribuir um Prémios
Nobel aos prestidigitadores. Não devíamos atribuir prémios a pessoas que
criaram e propagaram uma teoria ideologicamente fundamentada que fortaleceu a
implantação da desregulação financeira e ajudou, assim, a criar a depressão
global.
Referências e Notas:
[1] James R. Crotty usa a expressão “economics
profession”. A tradução literal seria, assim, “O objectivo [...] da profissão
em economia [...]”. A forma, porém, como Crotty usa esta expressão em outras
partes do texto, não deixa dúvidas de que se está a referir àqueles cuja
profissão é desenvolver a disciplina de Economia como área do conhecimento.
[2] James R. Crotty, («The Man Who Won a Nobel Prize for Helping
Create a Global Financial Crisis», Dollars and Sense, Real World Economics,
November 4, 2013. http://www.dollarsandsense.org/archives/2013/1013crotty.html
[6] A corrente filosófica do positivismo foi
criada por Auguste Comte cerca de 1830, quando a Revolução Francesa já tinha há
muito acabado e a burguesia aspirava a consolidar o seu domínio e a desempenhar
um papel progressista de desenvolvimento da indústria e comércio. A ideologia
materialista que tinha inspirado os revolucionários avançados já não
interessava; mas também não interessava o idealismo da nobreza e do clero
reaccionário. O positivismo de Comte era uma corrente centrista, um casamento
forçado do materialismo com o idealismo, que respondia aos anseios de «ordem e
progresso» da burguesia. Na sociologia, defendeu a colaboração de classes. Na
teoria do conhecimento, rejeitou a necessidade objectiva da natureza à margem
do homem, defendendo só nos ser acessível o conhecimento de algumas leis da
natureza. O positivismo disfarça-se periodicamente com uma nova designação;
actualmente como «pós-modernismo». É fácil entender porque Milton Friedman
defendia uma certa variante de positivismo.
[7] O autor usa “hypotheses” com o significado
de resultados previstos por uma teoria que é necessário verificar.
[8] Steve Keen, “Debunking Economics. The naked emperor
dethroned?”, Zed Books, 2011.
[9] De forma muito simples, podemos entender
uma teoria explicativa da realidade como uma função y = f(x).
A função f é, no caso da
Economia, construída empiricamente; isto é, por observação de muitos exemplos
de dados de entrada x procura-se uma determinada f (uma determinada teoria) que produz
valores, f(x), muito próximos (dentro dos erros de medição) dos valores y, observados na realidade (os dados de saída do processo real). A escolha de f guia-se por determinadas assunções. Dado
que o conjunto de possíveis funções f
é potencialmente infinito, então a probabilidade de escolher uma “má” f como consequência de “más” assunções é
arbitrariamente próxima de 1 (há só um conjunto de assunções correctas, mas
infinitos conjuntos de más assunções). Normalmente, maus f gerarão valores f(x) afastados dos y observados, levando à rejeição da teoria. Mas essa capacidade de
rejeição, logo a aceitação da “má” teoria, não pode assentar em testes
estatísticos, como veremos na nota 11. Este é um dos aspectos que Friedman convenientemente
“esquece”. Em suma, teorias baseadas em
assunções que não estão de acordo com a realidade podem, em casos particulares, gerar boas predições (f(x) próximo de y); mas num número potencialmente
infinito de casos gerarão más predições. Não são consistentes. O leitor pode
interrogar-se: então, e a Física das partículas, quando os teóricos inventaram
os quarks como constituintes dos
protões e neutrões? Ainda por cima com assunções tão “irrealistas” como quarks com cor? É preciso ter aqui em
conta: a) que a existência de quarks
e da propriedade designada arbitrariamente por “cor” foram entendidas pelos
físicos como meras hipóteses de trabalho, até que foi provada a existência dessas partículas com o comportamento
estipulado para a propriedade designada por cor; b) que a prova foi física, materialmente objectiva (em 1972 e 1979) e não
por meros testes estatísticos, como em econometria.
[10] A “regressão” é um método matemático que
permite avaliar o grau de aproximação entre os valores f(x) -- gerados por uma
dada teoria (ou modelo matemático, f)
para certos dados de entrada x -- e
os valores de saída, y, que a teoria
deveria prever. Os dados x e y poderão conter desvios face aos
verdadeiros valores, por imprecisões de medições (situação corrente em dados
económicos) e, neste caso, o grau de aproximação baseia-se em testes estatísticos
que tomam em conta essas imprecisões.
[11] Consideremos o seguinte problema adaptado
do livro de Charmont Wang, “Sense and Nonsense of Statistical Inference: Controversy, Misuse, and Society”, CRC
Press, 1992: foram efectuadas medições de uma dada característica, y, de 22 objectos do mesmo tipo,
dependente apenas de outras duas, x1
e x2, cujos valores são conhecidos:
x1
|
2
|
2
|
2
|
2
|
2
|
2
|
2
|
2
|
2
|
2
|
3
|
3
|
3
|
3
|
4
|
4
|
4
|
4
|
5
|
5
|
5
|
5
|
x2
|
2,75
|
2,50
|
2,25
|
2,00
|
1,80
|
1,50
|
1,25
|
1,00
|
0.70
|
0,50
|
2,50
|
2,00
|
1,50
|
1,00
|
1,75
|
1,50
|
1,20
|
0,80
|
1,75
|
1,50
|
1,00
|
0,75
|
y
|
3,42
|
3,21
|
3,01
|
2,89
|
2,75
|
2,55
|
2,38
|
2,30
|
2,15
|
2,10
|
3,95
|
3,63
|
3,40
|
3,18
|
4,38
|
4,29
|
4,18
|
4,10
|
5,30
|
5,22
|
5,15
|
5,08
|
A natureza dos “objectos” é desconhecida.
Poderiam ser objectos naturais, animais, máquinas, transacções de valores
mobiliários, etc. Se os “objectos” fossem estrelas, x1 e x2 poderiam ser o
albedo e a intensidade luminosa, sendo y
a distância ao sistema solar; se fossem acções de uma dada empresa, x1 poderia ser a cotação hoje, x2 a taxa de juro hoje, y a cotação amanhã, ao longo de 22 dias;
etc. Seja o que forem, pretendemos obter a descrição funcional y = f(x1,x2):
a teoria ou lei que “explica” y em
função de x1 e x2. Por simplicidade, supomos x1
e x2 medições exactas e só y tem erros diminutos de medição.
Se não soubermos de que “objectos” se trata,
não há assunções a fazer. Qualquer tipo de função serve; trata-se de escolher (por
métodos apropriados, ditos de regressão)
uma que produza valores, digamos y*,
ajustando-se o melhor possível a y.
Uma possível solução y* é:
y* = 0,1134+ln(x1+x2)+0,9836sqrt(0,12x1+0,28x2+0,99x12+0,96x22-0,07x1x2), onde “ln” designa o logaritmo
natural e “sqrt” a raiz quadrada.
Podemos avaliar a aproximação de y* a y
calculando, para todos os 22 valores, a soma dos quadrados dos desvios y*-y (SQD).
Obtém-se: SQD(y*) = 0,0079. Trata-se
de um valor muito baixo (média de 0,000359 por valor) e os vários testes
estatísticos (de que não falaremos) mostrariam ser significativa a contribuição
dos vários termos da expressão.
Diz Charmont Wang que apresentou o problema a dezenas de alunos. Todos encontraram variadíssimas e boas soluções para y*. Acontece que a tabela acima foi
obtida por Wang medindo triângulos rectângulos: x1 e x2 eram os catetos; y, a hipotenusa com adição de uma
pequena quantidade de erro. (Erros são omnipresentes em medições.) Nenhum dos alunos descobriu a lei de Pitágoras:
y* = sqrt(x12+x22),
a qual tem bem maior SQD -- SQD(y*) = 0,026 -- indicativo de pior aproximação.
Ou seja, na ausência de assunções a boa
solução seria rejeitada a favor de uma má solução.
Suponhamos, agora, que nos dizem que y não pode ser negativo. Esta assunção
restringe o espaço de funções; já não podemos admitir o termo logarítmico
acima. Eliminando-o da expressão e procurando a melhor solução obtém-se SQD(y*) = 0,0094. Adicione-se nova assunção:
a simetria em x1 e x2. Obtém-se y* = 0,9872sqrt(0,26(x1+x2)+0,975(x12+x22)-0,07x1x2),
com SQD(y*) = 0,0218. Isto é, testes estatísticos baseados na qualidade da
aproximação levariam sempre a rejeitar soluções mais próximas da realidade em
favor das soluções baseadas em assunções irrealistas, que usam espaços de
funções mais largos.
Na realidade, no caso em discussão dos
mercados financeiros, há que inverter as designações realista-irrealista. Neste
caso, as assunções irrealistas são as que impõem mais restrições, não conformes
com a realidade, a saber: toda a informação relevante para o correcto
apreçamento é conhecida de todos os investidores; todas as carteiras têm a
mesma composição; a possibilidade dos investidores contraírem empréstimos é
ilimitada; nenhum investidor transacciona títulos da carteira; etc. As
assunções realistas correspondem a descartar tais restrições. Por conseguinte,
os defensores da HME-TAO querem fazer-nos acreditar que os mercados financeiros
desregulados são “certinhos” como triângulos rectângulos, quando, de facto,
admitem uma vastíssima gama de soluções; como as combinações diferentes de
jogos num casino.
Além disso, quando Friedman (e os que o
seguem) afirma que o único teste aceitável de uma teoria “é a comparação das
suas predições com a experiência”, sem ter em conta quaisquer assunções, cai
num óbvio erro científico que podemos comparar com o erro incorrido pela
primeira expressão de y* no cálculo
de hipotenusas: ela funciona muitíssimo bem nos 22 casos apresentados, mas
tremendamente mal numa infinidade de outros casos, de pequenos e de grandes
catetos. Por exemplo, para x1=x2=0,1 obtém-se y* = 0,032 em vez de 0,1414; para x1=x2=100 obtém-se y* = 135,37 em vez de 141,4. "A
comparação de predições com a experiência” nunca foi o único critério de aceitabilidade de uma teoria, a considerar
isoladamente. As experiências que se fazem são sempre em número finito; fica
sempre um número infinito delas por fazer.
[12] “data mining” = “mineração de dados”.
Processo computacional em que inúmeras combinações de subconjuntos de dados de
entrada e de saída, juntamente com relações funcionais, são investigadas com
vista a detectar relações preditoras significativas.