Num mundo em que existem até cientistas que se declaram leigos fora do nicho de especialização de sua disciplina, muitas pessoas se utilizam de um modo indireto de argumentar chamado "heurística da autoridade": procuramos especialistas que nos ensine o caminho. Confiar em especialistas usualmente é considerado um caminho para ter mais acesso ao conhecimento ou fazer proposições mais provavelmente verdadeiras, mas isso não resolve o seguinte questionamento. Quem é o real especialista? Quem decide quem é ou quem não é o especialista?
Dado o prestígio que a ciência tem na sociedade, uma resposta simplista comum a esse questionamento é dizer que o especialista seria o agente representativo do
establishment científico de determinada disciplina. Só que esse argumento circular não explica como a ciência pode corrigir a si mesma se o simples fato de discordar de teorias convencionais é suficiente para tirar a razão e a credibilidade de um pesquisador.
Um escapismo para a objeção anterior, seria dizer que, embora não seja garantido que os especialistas estejam sempre certos, eles tem maior chance de acerto na sua área de especialização. Outros problemas surgem de usar esse argumento. Em domínios complexos - o objeto de estudo envolve o que a teoria da complexidade chama de "sistemas dinâmicos"-, geralmente há um dissenção SIGNIFICATIVA em relação aquilo que usualmente é aceito. E, o que é pior, mesmo que algo seja considerado consensual ou quase consensual na academia científica, de onde vem a certeza de que esse pessoal tem uma maior chance de acerto na sua área de especialização? Se você disser "Do prestígio das universidades e revistas acadêmicas, em que eles, respectivamente, vieram e publicam", haverá o mesmo argumento circular mencionado. Também nesse caso, a ciência não poderia corrigir a si mesma, pois o simples fato de discordar de teorias convencionais seria suficiente para tirar a razão e a credibilidade de um pesquisador. Fica difícil, então, checar a credibilidade da "autoridade" sem fazer um apelo a alguma forma de argumentação direta.
E isso é possível. Já foram realizados testes empíricos em especialistas para verificar seus históricos - e isso está acessível para entende coisas como epistemologia e "índice de Brier". Os psicólogos Philip Tetlock e James Shanteau (além de Paul Meeh e Robin Dawes) são exemplos de intelectuais que examinaram esses especialistas:
../forum/topic=29582.50.html#msg885731Outras pessoas fizeram isso foram os estatísticos, tais como Nassim Taleb, autor de
A Lógica do Cisne Negro, e Nate Silver, autor de
O Sinal e o Ruído, que examinou nessa obra o histórico das previsões de economistas.
Uma conclusão independente de diversos autores foi a seguinte. Em disciplinas conhecidas como
hard-science, o poder preditivo é alto e há especialistas verdadeiros, tais como físicos e astrônomos. Já em diversos domínios complexos, o "especialista" típico é a coisa mais próxima que há de uma fraude; em certos casos, com um desempenho nada superior ao de um computador que usa uma única métrica.
Dito tudo isso, como ainda ouvimos argumentos de que não devemos levar algum argumento a sério pois ele não é levado a sério pelos intelectuais do
establishment científico? Um paradoxo é que, nas disciplinas em que o apelo ao especialista mais faz sentido, pelas razões que já expus, há pouca ou nenhuma necessidade de se recorrer ao "prestígio" das universidades dos acadêmicos, assim como ao "prestígio" das revistas acadêmicas em que os acadêmicos publicam. Nassim Taleb, mostra um curioso, interessante e divertido caso de heurística de detecção de
bullshit baseado nesse paradoxo:
(...)
A BS detection Heuristic.
The heuristic here would be to use education in reverse: hire, conditional on equal set of skills, the person with the least label-oriented education. It means that the person had to succeed in spite of the credentialization of his competitors and overcome more serious hurdles. In addition, people who didn’t go to Harvard are easier to deal with in real life.
You can tell if a discipline is BS if the degree depends severely on the prestige of the school granting it. I remember when I applied to MBA programs being told that anything outside the top 10 or 20 would be a waste of time. On the other hand a degree in mathematics is much less dependent on the school (conditional on being above a certain level, so the heuristic would apply to the difference between top 10 and top 2000 schools).
The same applies to research papers. In math and physics, a result posted on arXiv (with a minimum hurdle) is fine. In low quality fields like academic finance (where almost all academics are charlatans and all papers some form of complicated storytelling), the “prestige” of the journal is the sole criterion.
(...)
Fonte: https://medium.com/incerto/surgeons-should-notlook-like-surgeons-23b0e2cf6d52