Autor Tópico: A mentira de que "as teorias acadêmicas originaram e desenvolveram a tecnologia"  (Lida 3625 vezes)

0 Membros e 1 Visitante estão vendo este tópico.

Offline Cinzu

  • Nível 27
  • *
  • Mensagens: 1.312
Re:A mentira de que "as teorias acadêmicas originaram e desenvolveram a tecnologia"
« Resposta #75 Online: 22 de Janeiro de 2020, 12:15:16 »
demais, a engenharia pré-formalização não está restrita apenas aos objetos relativamente simples como pontes e aquedutos. Eu já disse aqui que Terence Kealey já demonstrou que a máquina a vapor e certas tecnologias têxteis do início da revolução industrial inglesa foram inventadas por homens de pouca instrução (amadores) que aplicaram bom senso aos problemas mecânicos que os afligiam nas suas fábricas. Esses senhores também seriam "não-engenheiros" ou "não-seguidores de normas técnicas"?!?!

Como eu já disse, a função do engenheiro não é só criar uma máquina. Leigos fazem isso no cotidiano muito bem. Várias são as "engenhocas" e "gambiarras" feitas pelos brasileiros.

Porém, não vemos a Boeing e a Weg contratanto estes leigos. Ao invés disso, preferem engenheiros especializados e bem capacitados a não apenas desenvolverem uma máquina, mas uma máquina otimizada, que atenda a critérios mínimos de segurança, durabilidade e funcionalidade, com o menor custo de fabricação possível.
"Não é possível convencer um crente de coisa alguma, pois suas crenças não se baseiam em evidências; baseiam-se numa profunda necessidade de acreditar"

Offline Sergiomgbr

  • Nível Máximo
  • *
  • Mensagens: 11.712
  • Sexo: Masculino
  • uê?!
Re:A mentira de que "as teorias acadêmicas originaram e desenvolveram a tecnologia"
« Resposta #76 Online: 22 de Janeiro de 2020, 12:54:07 »
Vi alguém falando alhures sobre o mito da criatividade brasileira com suas engenhocas com coisas do tipo, "brasileiro tem que ser estudado pela Nasa". Na verdade essas feitos atribuídos a brasileiros são  na mmaioria tosquices e arremedos de real criatividade em comparação com muitos outros povos, estes sim merecedores de algum real crédito no quesito criatividade, ao menos pelo critério de coisas legais que aparecem no You Tube. Alemães, russos, americanos, indianos, chinesesetc. dão  de lavada.
Até onde eu sei eu não sei.

Offline -Huxley-

  • Nível Máximo
  • *
  • Mensagens: 13.616
Re:A mentira de que "as teorias acadêmicas originaram e desenvolveram a tecnologia"
« Resposta #77 Online: 22 de Janeiro de 2020, 19:44:50 »
Citar
Até achei que estivesse falando sério a princípio, mas parece estar trollando. Com todo o respeito, mas dizer isso é desconhecer absolutamente a função de um engenheiro nos dias de hoje.

Você tem alguma ideia do que é um software de elementos finitos, utilizado por praticamente qualquer engenheiro estrutural ou mecânico? É pura matemática e física aplicada.

É impossível você saber com precisão numérica como um objeto de geometria irregular vai se comportar quando sujeito a determinado esfoço, em outras palavras, quais vão ser as tensões e deformações em cada ponto deste objeto, sem utilizar qualquer simulação que utilize física e matemática.

Sobre sistemas complexos, já existem diversas aplicações deles, e que funcionam. O fato de não sermos capazes de estimar com acurácia aceitável a previsão do tempo daqui 1 mês, não significa que não podemos prevê-la amanhã, ou daqui 2 dias, com uma taxa de acerto superior à 90%.


Quando algum fenômeno é extremamente sensível às condições iniciais e depende de uma quantidade enorme de fatores (aka Teoria do Caos), sua previsão torna-se difícil devido à falta de dados disponíveis, e não porque as teorias científicas são furadas.

Ou seja, conforme foi admitido na citação acima, as disciplinas de domínios complexos que são alvos das simulações computacionais só se saem bem preditivamente quando lidam com processos físicos de curto prazo. Todavia, recompensas e riscos na vida não estão restritos a processos físicos de curto prazo. Eventos raros e de alto impacto que só acontecem uma vez a cada período longo de tempo X têm peso igual ou maior na questão do gerenciamento de risco/recompensa.

Citar
Para isso, existe algo chamado coeficiente de segurança, que leva em conta as incertezas do modelo matemático.

Se você usa um coeficiente de segurança alto demais a ponto de blindar sua estrutura contra eventos extremamente raros (como um terremoto de magnitude muito superior à qualquer outra já registrada na região), então sua estrutura torna-se inviável do ponto de vista econômico.

Segurança, a partir de certo ponto, passa a ser um fator desfavorável, e não favorável.

As análises tradicionais de custo-benefício, que buscam avaliar quantitativamente os resultados para determinar a melhor opção de política, não se aplicam, pois os resultados podem ter custos infinitos. Mesmo os resultados de alto benefício e alta probabilidade não superam a existência de baixa probabilidade, opções de custo infinito - ou seja, ruína.

Para problemas de ruína e repetição de exposições, mesmo um teste estatístico com intervalo de confiança de 98% é nada perante o risco que se corre. Imagine você subir no avião que tem só 98% de chance de não cair. Mesmo esse "muito provavelmente verdadeiro" da ciência seria insuficiente. Quando se chega a um conjunto de 35 exposições, a probabilidade cumulativa de o avião cair superaria a probabilidade de o avião não cair.

Citar

Como eu já disse, a função do engenheiro não é só criar uma máquina. Leigos fazem isso no cotidiano muito bem. Várias são as "engenhocas" e "gambiarras" feitas pelos brasileiros.

Porém, não vemos a Boeing e a Weg contratanto estes leigos. Ao invés disso, preferem engenheiros especializados e bem capacitados a não apenas desenvolverem uma máquina, mas uma máquina otimizada, que atenda a critérios mínimos de segurança, durabilidade e funcionalidade, com o menor custo de fabricação possível.

Não foi falado meramente de criar máquinas, coisa que seria possível até para "brasileiros criadores de engenhocas insignificantes historicamente". Terence Kealey se referiu a amadores que tiveram o papel de INVENTAR e DESENVOLVER inovações tecnológicas que contribuiram grandemente para melhorar as condições de vida da população inglesa. Se fosse verdade que as invenções foram meramente engenhocas mal-otimizadas e que não se desenvolveram a ponto de evoluírem e terem impacto elevado na sociedade, então não teria acontecido o fato histórico sem precedentes de que foi no início dessa revolução industrial que aconteceu a primeira era de crescimento econômico sustentado do PIB per capita.  Não faz sentido que engenhocas mal-otimizadas e análogas a gambiarras de brasileiros liderem um grande crescimento de produtividade na Inglaterra. Assim, podemos reverter o ônus da prova e declarar que não há nada que indique que Kealey esteja errado sobre os aventureiros amadores que originaram e desenvolveram a máquina a vapor e as primeiras tecnologias têxteis na revolução industrial.

Certo, a Boeing e a Weg não contratam engenheiros sem formação acadêmica. Mas, segundo Phil Scranton, a etapa da origem e do desenvolvimento do motor a jato foi feita de maneira completamente experimental, por tentativa e erro, feitos por engenheiros que promoveram ajustes sem compreender "por que isso funciona" (teoricamente). Isso aqui não foi desmentido. Até agora, só li argumento de incredulidade pessoal contra isso.

Offline Cinzu

  • Nível 27
  • *
  • Mensagens: 1.312
Re:A mentira de que "as teorias acadêmicas originaram e desenvolveram a tecnologia"
« Resposta #78 Online: 22 de Janeiro de 2020, 22:13:22 »
Citar
Até achei que estivesse falando sério a princípio, mas parece estar trollando. Com todo o respeito, mas dizer isso é desconhecer absolutamente a função de um engenheiro nos dias de hoje.

Você tem alguma ideia do que é um software de elementos finitos, utilizado por praticamente qualquer engenheiro estrutural ou mecânico? É pura matemática e física aplicada.

É impossível você saber com precisão numérica como um objeto de geometria irregular vai se comportar quando sujeito a determinado esfoço, em outras palavras, quais vão ser as tensões e deformações em cada ponto deste objeto, sem utilizar qualquer simulação que utilize física e matemática.

Sobre sistemas complexos, já existem diversas aplicações deles, e que funcionam. O fato de não sermos capazes de estimar com acurácia aceitável a previsão do tempo daqui 1 mês, não significa que não podemos prevê-la amanhã, ou daqui 2 dias, com uma taxa de acerto superior à 90%.


Quando algum fenômeno é extremamente sensível às condições iniciais e depende de uma quantidade enorme de fatores (aka Teoria do Caos), sua previsão torna-se difícil devido à falta de dados disponíveis, e não porque as teorias científicas são furadas.

Ou seja, conforme foi admitido na citação acima, as disciplinas de domínios complexos que são alvos das simulações computacionais só se saem bem preditivamente quando lidam com processos físicos de curto prazo. Todavia, recompensas e riscos na vida não estão restritos a processos físicos de curto prazo. Eventos raros e de alto impacto que só acontecem uma vez a cada período longo de tempo X têm peso igual ou maior na questão do gerenciamento de risco/recompensa.

Qual a definição de "curto prazo" e "saem bem"? A ciência trabalha com estimativas, confiabilidade e probabilidade para determinados períodos de tempo, de acordo com o objeto de estudo em questão.

Em metereologia, previsões com mais de um mês terão baixa probabilidade de acerto devido à falta de controle e medidas de dados. Não há nenhum mistério e nenhuma falha no método devido à isso. O fato de não ser capaz de prever o clima daqui 1 ano não significa que não possa prever amanhã com uma taxa de 90 a 95% de acerto.

Em ambientes em que há controle das variáveis, é comum modelos matemáticos predizerem fenômenos que ocorrem em períodos de anos e até décadas. Exemplo disso é a degradação de materiais em laboratórios, onde os principais parâmetros que afetam a análise - temperatura e composição química do ar - são conhecidos.

Até mesmo construções como edifícios, pontes e barragens são projetadas estimando um tempo de vida útil mínimo, podendo ser de 50, 100 ou até 200 anos.

Isso significa que modelos de previsão, seja de qualquer área, metereologia, engenharia, finanças, etc, funcionam sempre? Pelo contrário, na maioria das vezes erram, porém, é a melhor forma de fornecer uma estimativa razoável sobre um dado fenômeno. E é exatamente por isso que continuam a serem usados por profissionais, e aliás, estão sendo cada vez mais usados, estudados e aperfeiçoados por acadêmicos.

Citar
Citar
Para isso, existe algo chamado coeficiente de segurança, que leva em conta as incertezas do modelo matemático.

Se você usa um coeficiente de segurança alto demais a ponto de blindar sua estrutura contra eventos extremamente raros (como um terremoto de magnitude muito superior à qualquer outra já registrada na região), então sua estrutura torna-se inviável do ponto de vista econômico.

Segurança, a partir de certo ponto, passa a ser um fator desfavorável, e não favorável.

As análises tradicionais de custo-benefício, que buscam avaliar quantitativamente os resultados para determinar a melhor opção de política, não se aplicam, pois os resultados podem ter custos infinitos. Mesmo os resultados de alto benefício e alta probabilidade não superam a existência de baixa probabilidade, opções de custo infinito - ou seja, ruína.

Para problemas de ruína e repetição de exposições, mesmo um teste estatístico com intervalo de confiança de 98% é nada perante o risco que se corre. Imagine você subir no avião que tem só 98% de chance de não cair. Mesmo esse "muito provavelmente verdadeiro" da ciência seria insuficiente. Quando se chega a um conjunto de 35 exposições, a probabilidade cumulativa de o avião cair superaria a probabilidade de o avião não cair.

Desculpe, mas o que você está dizendo não faz o menor sentido e não possuem qualquer relação com o que expus.

Fatores de segurança utilizados em engenharia são determinados por meio de estudos que levam em consideração imprecisão de modelos matemáticos simplificados, incertezas de parâmetros e estatísticas baseadas em eventos passados. Trata-se portanto de estudos semi-probabilísticos.

E você está a confundir intervalo de confiabilidade com margem de erro.

Se um elevador é projetado para suportar um peso de, por exemplo, 1000 kg, com precisão de 95%, não significa que ele terá 95% de chance de suportar um peso de 1000 kg, mas que ele suportará, na verdade, um peso entre 950 e 1050 kg. Coeficientes de segurança são calculados levando em conta não apenas estas imprecisões devido à simplificações de modelos matemáticos, mas também margens adicionais para abranger fatores não levados em conta durante a análise. De forma a ser possível fabricar equipamentos seguros pelo menor custo possível.

Falhas, é claro, ocorrem. E curiosamente são mais frequentes quanto mais grotesco e menos científico é o processo de fabricação.

Citar
Citar

Como eu já disse, a função do engenheiro não é só criar uma máquina. Leigos fazem isso no cotidiano muito bem. Várias são as "engenhocas" e "gambiarras" feitas pelos brasileiros.

Porém, não vemos a Boeing e a Weg contratanto estes leigos. Ao invés disso, preferem engenheiros especializados e bem capacitados a não apenas desenvolverem uma máquina, mas uma máquina otimizada, que atenda a critérios mínimos de segurança, durabilidade e funcionalidade, com o menor custo de fabricação possível.

Não foi falado meramente de criar máquinas, coisa que seria possível até para "brasileiros criadores de engenhocas insignificantes historicamente". Terence Kealey se referiu a amadores que tiveram o papel de INVENTAR e DESENVOLVER inovações tecnológicas que contribuiram grandemente para melhorar as condições de vida da população inglesa. Se fosse verdade que as invenções foram meramente engenhocas mal-otimizadas e que não se desenvolveram a ponto de evoluírem e terem impacto elevado na sociedade, então não teria acontecido o fato histórico sem precedentes de que foi no início dessa revolução industrial que aconteceu a primeira era de crescimento econômico sustentado do PIB per capita.  Não faz sentido que engenhocas mal-otimizadas e análogas a gambiarras de brasileiros liderem um grande crescimento de produtividade na Inglaterra. Assim, podemos reverter o ônus da prova e declarar que não há nada que indique que Kealey esteja errado sobre os aventureiros amadores que originaram e desenvolveram a máquina a vapor e as primeiras tecnologias têxteis na revolução industrial.

Certo, a Boeing e a Weg não contratam engenheiros sem formação acadêmica. Mas, segundo Phil Scranton, a etapa da origem e do desenvolvimento do motor a jato foi feita de maneira completamente experimental, por tentativa e erro, feitos por engenheiros que promoveram ajustes sem compreender "por que isso funciona" (teoricamente). Isso aqui não foi desmentido. Até agora, só li argumento de incredulidade pessoal contra isso.

Minha mensagem não foi em resposta à afirmação de Terence Kealey. Foi à sua afirmação de que "engenheiros" antigos faziam coisas semelhantes ao que fazem os engenheiros de hoje.

Não é de fato necessário utilizar otimização matemática em uma inovação, mesmo nos tempos de hoje. A partir do momento em que a inovação é única e não há concorrência capaz de fabricar a mesma coisa por um preço menor, sua inovação continuará a ser vendida e fazer sucesso.

Em um período onde não havia conhecimentos profundos de ciência e matemática, isto funcionava perfeitamente bem. Gambiarras eram criadas a todo momento, vendiam e faziam sucesso.

No mundo de hoje, por outro lado, com conhecimento disponível, procedimentos matemáticos e engenheiros capazes de reduzir ao máximo processos de fabricação, é praticamente impossível produzir em larga escala alguma tecnologia sem estudos de otimização. Alguém com conhecimento matemático irá inevitavelmente produzir o mesmo que o leigo metido a inovador produz por 1/5 do preço. A não ser que o leigo, é claro, seja inteligente e contrate algum profissional capacitado para otimizar seu produto.

O fato dos primeiros motores a jato terem sido criados de maneira completamente experimental não significa que os modelos atuais ainda são feitos assim.
« Última modificação: 22 de Janeiro de 2020, 22:15:50 por Cinzu »
"Não é possível convencer um crente de coisa alguma, pois suas crenças não se baseiam em evidências; baseiam-se numa profunda necessidade de acreditar"

Offline -Huxley-

  • Nível Máximo
  • *
  • Mensagens: 13.616
Re:A mentira de que "as teorias acadêmicas originaram e desenvolveram a tecnologia"
« Resposta #79 Online: 23 de Janeiro de 2020, 17:52:19 »
Citar
Qual a definição de "curto prazo" e "saem bem"? A ciência trabalha com estimativas, confiabilidade e probabilidade para determinados períodos de tempo, de acordo com o objeto de estudo em questão.

Em metereologia, previsões com mais de um mês terão baixa probabilidade de acerto devido à falta de controle e medidas de dados. Não há nenhum mistério e nenhuma falha no método devido à isso. O fato de não ser capaz de prever o clima daqui 1 ano não significa que não possa prever amanhã com uma taxa de 90 a 95% de acerto.

Em ambientes em que há controle das variáveis, é comum modelos matemáticos predizerem fenômenos que ocorrem em períodos de anos e até décadas. Exemplo disso é a degradação de materiais em laboratórios, onde os principais parâmetros que afetam a análise - temperatura e composição química do ar - são conhecidos.

Até mesmo construções como edifícios, pontes e barragens são projetadas estimando um tempo de vida útil mínimo, podendo ser de 50, 100 ou até 200 anos.

Isso significa que modelos de previsão, seja de qualquer área, metereologia, engenharia, finanças, etc, funcionam sempre? Pelo contrário, na maioria das vezes erram, porém, é a melhor forma de fornecer uma estimativa razoável sobre um dado fenômeno. E é exatamente por isso que continuam a serem usados por profissionais, e aliás, estão sendo cada vez mais usados, estudados e aperfeiçoados por acadêmicos.

Pode colocar o computador simulacional mais potente do mundo e o maior banco de dados do mundo e a incerteza forte em certos domínios ainda assim seria um problema irremediável. A distribuição de probabilidade da maioria das variáveis em domínios complexos tende a ter "caudas gordas" por causa da curtose tipicamente envolvida nela (curtose é o nome estatístico para o grau de influência que eventos de alto impacto exercem na distribuição de resultados). Mas só é possível conhecer a distribuição de probabilidade exata fazendo uma amostra estatística de dados existentes. Ademais, se os dados são do domínio das caudas gordas, então eventos maiores e mais importantes só acontecerão muito raramente. Para estimar um evento raro, você precisa de uma amostra cada vez maior em proporção inversa à ocorrência do evento. Quanto menor a probabilidade, mais observações serão necessárias e maior será o erro de estimativa para um número definido de observações. Para entender isso com dados, eu já pus aqui no fórum uma conclusão técnica do artigo "Quarto Quadrante" publicada no International Journal of Forecasting: "80% da curtose em 10 mil fontes de dados podem surgir de uma única observação, significando que todas as mensurações das caudas grossas são apenas erros de amostragem".

Há casos particulares mais extremos em que há riscos multiplicativos (como as epidemias), sistêmicos e de cauda gorda. E sistemas artificiais criados pelo homem tendem a exarcebar esse tipo de complexidade.



Citar

Desculpe, mas o que você está dizendo não faz o menor sentido e não possuem qualquer relação com o que expus.

Fatores de segurança utilizados em engenharia são determinados por meio de estudos que levam em consideração imprecisão de modelos matemáticos simplificados, incertezas de parâmetros e estatísticas baseadas em eventos passados. Trata-se portanto de estudos semi-probabilísticos.

E você está a confundir intervalo de confiabilidade com margem de erro.

Se um elevador é projetado para suportar um peso de, por exemplo, 1000 kg, com precisão de 95%, não significa que ele terá 95% de chance de suportar um peso de 1000 kg, mas que ele suportará, na verdade, um peso entre 950 e 1050 kg. Coeficientes de segurança são calculados levando em conta não apenas estas imprecisões devido à simplificações de modelos matemáticos, mas também margens adicionais para abranger fatores não levados em conta durante a análise. De forma a ser possível fabricar equipamentos seguros pelo menor custo possível.

Falhas, é claro, ocorrem. E curiosamente são mais frequentes quanto mais grotesco e menos científico é o processo de fabricação.

O exemplo do elevador que você pôs é muito fraco para descrever a dificuldade crítica no gerenciamento quantitativo de risco, pois o peso corporal dos humanos que usam elevador é uma variável não-escalável. Não há aí valores extremos como os das variáveis estudadas pela Teoria dos Valores Extremos. Isso é assim, pois, mesmo observando um mutante de obesidade improbabilíssimo, você jamais irá encontrar um único caso de outlier que pese centenas de vezes o peso de um homem médio (em contrapartida, você encontrará alguém que tem patrimônio líquido centenas ou até mesmo milhões de vezes maior do que o do homem de riqueza média).

Redundância pode ser uma opção custosa, mas pode ser necessária a sobrevivência. Para coisas que envolvem problemas de ruína e exposição de repetições, a prescrição certa é amar a redundância e evitar a otimização. Sobretudo em campos repletos de não linearidades. Melhor heurística: enorme fator de segurança para que o risco de ruína perseguido seja aproximadamente 0. Como já demonstrei, não é possível mensurar precisamente a probabilidade de eventos extremos para gerenciar risco. Todavia, cientistas ou acadêmicos envolvidos no estudo da complexidade afirmam que é possível detectar a fragilidade do sistema e estimar a progressão de danos das não linearidades (mesmo meio impreciso, isso já seria suficiente para criar um princípio de precaução). Mas isso aí seria uma abordagem não preditiva e que não foca em quantificação de probabilidades para tomar decisões. Ademais, eles também acham que a "otimização" dos dias atuais não economiza tantos recursos quanto as pessoas pensam por causa disso: deve-se subtrair dos "benefícios econômicos" da "otimização" os efeitos do "barato que sai caro". Vide isto... Pontes caindo e matando pessoas (em contraste com obras antigas romanas que estão de pé até hoje), caso Fukushima 2011, caos em tráfego aéreo ou rodoviário que acontece até em países desenvolvidos, crise no sistema bancário em 2008, etc.


Citar
Minha mensagem não foi em resposta à afirmação de Terence Kealey. Foi à sua afirmação de que "engenheiros" antigos faziam coisas semelhantes ao que fazem os engenheiros de hoje.

Não é de fato necessário utilizar otimização matemática em uma inovação, mesmo nos tempos de hoje. A partir do momento em que a inovação é única e não há concorrência capaz de fabricar a mesma coisa por um preço menor, sua inovação continuará a ser vendida e fazer sucesso.

Em um período onde não havia conhecimentos profundos de ciência e matemática, isto funcionava perfeitamente bem. Gambiarras eram criadas a todo momento, vendiam e faziam sucesso.

No mundo de hoje, por outro lado, com conhecimento disponível, procedimentos matemáticos e engenheiros capazes de reduzir ao máximo processos de fabricação, é praticamente impossível produzir em larga escala alguma tecnologia sem estudos de otimização. Alguém com conhecimento matemático irá inevitavelmente produzir o mesmo que o leigo metido a inovador produz por 1/5 do preço. A não ser que o leigo, é claro, seja inteligente e contrate algum profissional capacitado para otimizar seu produto.

O fato dos primeiros motores a jato terem sido criados de maneira completamente experimental não significa que os modelos atuais ainda são feitos assim.


Grande parte dos grandes avanços tecnológicos recentes dispensaram ou dispensariam estudos de otimização (tais como foram concebidos na citação acima) para prosperarem. Explico. Você está associando uma aposta rentável na tecnologia com um bom prognóstico. Ambas não são a mesma coisa. Alguém que tenha um retorno linear precisa estar certo em mais de 50% do tempo. Alguém com um retorno convexo, muito menos do que isso. Se a função da coisa é bastante convexa, podemos fazer suposições piores do que o acaso e, ainda assim, acabar registrando bons resultados. Podemos estar errados e ainda assim ser bem-sucedidos - quanto mais incerteza no objeto de estudo, mais essa estratégia funciona. Nas tecnologias, é comum haver o "ajuste bricolagem", que é uma espécie de tentativa e erro, com os pequenos erros sendo o tipo "certo" de erros. A mesma coisa que é responsável pelo retorno elevado da origem de uma inovação tecnológica sem a presença de muita formalização de conhecimento também  é responsável pelo retorno elevado do desenvolvimento dessa inovação tecnológica sem muita formalização de conhecimento. Isso não quer dizer que os engenheiros da atualidade não tenham conhecimento sofisticado. Ajustes aleatórios, heurísticas, prática e aprendizagem muito predominantemente empírica, todo esse conjunto, não deixa de ser um conhecimento sofisticado. Além da questão dos efeitos da convexidade, existe também o conceito de "opcionalidade" no oportunismo da tecnologia: não ficar preso a determinado esquema, de modo que se possa mudar de opinião enquanto se segue adiante, com base em novas descobertas ou informações.

Sendo assim, tem fundamento a proposição de que, em qualquer período da história, a contribuição do conhecimento tácito na inovação tecnológica foi grande, seja na sua origem, seja no seu desenvolvimento.  E isso é explicado tanto pelo viés da convexidade quanto pela opcionalidade.
« Última modificação: 23 de Janeiro de 2020, 19:34:12 por -Huxley- »

Offline Cinzu

  • Nível 27
  • *
  • Mensagens: 1.312
Re:A mentira de que "as teorias acadêmicas originaram e desenvolveram a tecnologia"
« Resposta #80 Online: 23 de Janeiro de 2020, 22:07:55 »
Citar
Qual a definição de "curto prazo" e "saem bem"? A ciência trabalha com estimativas, confiabilidade e probabilidade para determinados períodos de tempo, de acordo com o objeto de estudo em questão.

Em metereologia, previsões com mais de um mês terão baixa probabilidade de acerto devido à falta de controle e medidas de dados. Não há nenhum mistério e nenhuma falha no método devido à isso. O fato de não ser capaz de prever o clima daqui 1 ano não significa que não possa prever amanhã com uma taxa de 90 a 95% de acerto.

Em ambientes em que há controle das variáveis, é comum modelos matemáticos predizerem fenômenos que ocorrem em períodos de anos e até décadas. Exemplo disso é a degradação de materiais em laboratórios, onde os principais parâmetros que afetam a análise - temperatura e composição química do ar - são conhecidos.

Até mesmo construções como edifícios, pontes e barragens são projetadas estimando um tempo de vida útil mínimo, podendo ser de 50, 100 ou até 200 anos.

Isso significa que modelos de previsão, seja de qualquer área, metereologia, engenharia, finanças, etc, funcionam sempre? Pelo contrário, na maioria das vezes erram, porém, é a melhor forma de fornecer uma estimativa razoável sobre um dado fenômeno. E é exatamente por isso que continuam a serem usados por profissionais, e aliás, estão sendo cada vez mais usados, estudados e aperfeiçoados por acadêmicos.

Pode colocar o computador simulacional mais potente do mundo e o maior banco de dados do mundo e a incerteza forte em certos domínios ainda assim seria um problema irremediável. A distribuição de probabilidade da maioria das variáveis em domínios complexos tende a ter "caudas gordas" por causa da curtose tipicamente envolvida nela (curtose é o nome estatístico para o grau de influência que eventos de alto impacto exercem na distribuição de resultados). Mas só é possível conhecer a distribuição de probabilidade exata fazendo uma amostra estatística de dados existentes. Ademais, se os dados são do domínio das caudas gordas, então eventos maiores e mais importantes só acontecerão muito raramente. Para estimar um evento raro, você precisa de uma amostra cada vez maior em proporção inversa à ocorrência do evento. Quanto menor a probabilidade, mais observações serão necessárias e maior será o erro de estimativa para um número definido de observações. Para entender isso com dados, eu já pus aqui no fórum uma conclusão técnica do artigo "Quarto Quadrante" publicada no International Journal of Forecasting: "80% da curtose em 10 mil fontes de dados podem surgir de uma única observação, significando que todas as mensurações das caudas grossas são apenas erros de amostragem".

Há casos particulares mais extremos em que há riscos multiplicativos (como as epidemias), sistêmicos e de cauda gorda. E sistemas artificiais criados pelo homem tendem a exarcebar esse tipo de complexidade.

Bem, você basicamente repetiu com outras palavras o que disse anteriormente. Gostaria de saber como isso contrapõe com minha afirmação:

"Em metereologia, previsões com mais de um mês terão baixa probabilidade de acerto devido à falta de controle e medidas de dados. Não há nenhum mistério e nenhuma falha no método devido à isso. O fato de não ser capaz de prever o clima daqui 1 ano não significa que não possa prever amanhã com uma taxa de 90 a 95% de acerto."

Ou seria apenas um espantalho?

Citar
Citar

Desculpe, mas o que você está dizendo não faz o menor sentido e não possuem qualquer relação com o que expus.

Fatores de segurança utilizados em engenharia são determinados por meio de estudos que levam em consideração imprecisão de modelos matemáticos simplificados, incertezas de parâmetros e estatísticas baseadas em eventos passados. Trata-se portanto de estudos semi-probabilísticos.

E você está a confundir intervalo de confiabilidade com margem de erro.

Se um elevador é projetado para suportar um peso de, por exemplo, 1000 kg, com precisão de 95%, não significa que ele terá 95% de chance de suportar um peso de 1000 kg, mas que ele suportará, na verdade, um peso entre 950 e 1050 kg. Coeficientes de segurança são calculados levando em conta não apenas estas imprecisões devido à simplificações de modelos matemáticos, mas também margens adicionais para abranger fatores não levados em conta durante a análise. De forma a ser possível fabricar equipamentos seguros pelo menor custo possível.

Falhas, é claro, ocorrem. E curiosamente são mais frequentes quanto mais grotesco e menos científico é o processo de fabricação.

O exemplo do elevador que você pôs é muito fraco para descrever a dificuldade crítica no gerenciamento quantitativo de risco, pois o peso corporal dos humanos que usam elevador é uma variável não-escalável. Não há aí valores extremos como os das variáveis estudadas pela Teoria dos Valores Extremos. Isso é assim, pois, mesmo observando um mutante de obesidade improbabilíssimo, você jamais irá encontrar um único caso de outlier que pese centenas de vezes o peso de um homem médio (em contrapartida, você encontrará alguém que tem patrimônio líquido centenas ou até mesmo milhões de vezes maior do que o do homem de riqueza média).

Seria este outro espantalho?

O exemplo não descreve a "dificuldade crítica no gerenciamento quantitativo de risco", mas simplesmente mostra a eficácia prática de coeficientes de ajustes para corrigir erros de imprecisão em modelos físico-matemático que são utilizados no cotidiano de engenheiros civis, mecânico, naval, elétrico, ou qualquer outra engenharia que "construa coisas".


Citar
Redundância pode ser uma opção custosa, mas pode ser necessária a sobrevivência. Para coisas que envolvem problemas de ruína e exposição de repetições, a prescrição certa é amar a redundância e evitar a otimização. Sobretudo em campos repletos de não linearidades. Melhor heurística: enorme fator de segurança para que o risco de ruína perseguido seja aproximadamente 0. Como já demonstrei, não é possível mensurar precisamente a probabilidade de eventos extremos para gerenciar risco. Todavia, cientistas ou acadêmicos envolvidos no estudo da complexidade afirmam que é possível detectar a fragilidade do sistema e estimar a progressão de danos das não linearidades (mesmo meio impreciso, isso já seria suficiente para criar um princípio de precaução). Mas isso aí seria uma abordagem não preditiva e que não foca em quantificação de probabilidades para tomar decisões. Ademais, eles também acham que a "otimização" dos dias atuais não economiza tantos recursos quanto as pessoas pensam por causa disso: deve-se subtrair dos "benefícios econômicos" da "otimização" os efeitos do "barato que sai caro". Vide isto... Pontes caindo e matando pessoas (em contraste com obras antigas romanas que estão de pé até hoje), caso Fukushima 2011, caos em tráfego aéreo ou rodoviário que acontece até em países desenvolvidos, crise no sistema bancário em 2008, etc.

A maior parte dos acidentes que ocorrem em engenharia nos dias de hoje são causados por falhas humanas, não por falhas de modelos que "não calcularam eventos catastróficos". Mesmo acidentes causados por modelos teóricos, foram muitas vezes devido a falta de conhecimento científico à época (vide Ponte de Tacoma Narrows) o que reforça ainda mais a importância da ciência.

Ainda, o fato de não existirem modelos matemáticos capazes de predizer eventos catastróficos não significa que os especialistas e autoridades não estejam cientes de que eles são possíveis e podem ocorrer.

No Brasil, por exemplo, não há Normas que determinam que deve-se considerar efeitos sísmicos em edificações, apesar de existirem registros de sismos em várias regiões do país, que já chegaram inclusive a 5.1 pontos e causaram danos em construções. É perfeitamente plausível que eventos de tamanha magnitude voltem a ocorrer em escala ainda maior.

Isso significa então que devemos construir como antigamente exagerando em tudo, de forma a gastar 10000000 vezes mais do que gastamos hoje, apenas para projetar nossos prédios a resistirem a terremotos de até 10 pontos? Deveríamos também projetar nossas usinas nucleares para resistirem a meteoros?

Se fizéssemos isso, muito provavelmente nossas construções também durariam milênios como a dos antigos romanos. Com a diferença de que o motivo foi o exagero de segurança adotado, e não desconhecimento de métodos de cálculo.

Não preciso nem mencionar que isso beira ao ridículo e não teríamos mais nenhum desenvolvimento tecnológico devido a indisponibilidade de recursos.

Citar
Citar
Minha mensagem não foi em resposta à afirmação de Terence Kealey. Foi à sua afirmação de que "engenheiros" antigos faziam coisas semelhantes ao que fazem os engenheiros de hoje.

Não é de fato necessário utilizar otimização matemática em uma inovação, mesmo nos tempos de hoje. A partir do momento em que a inovação é única e não há concorrência capaz de fabricar a mesma coisa por um preço menor, sua inovação continuará a ser vendida e fazer sucesso.

Em um período onde não havia conhecimentos profundos de ciência e matemática, isto funcionava perfeitamente bem. Gambiarras eram criadas a todo momento, vendiam e faziam sucesso.

No mundo de hoje, por outro lado, com conhecimento disponível, procedimentos matemáticos e engenheiros capazes de reduzir ao máximo processos de fabricação, é praticamente impossível produzir em larga escala alguma tecnologia sem estudos de otimização. Alguém com conhecimento matemático irá inevitavelmente produzir o mesmo que o leigo metido a inovador produz por 1/5 do preço. A não ser que o leigo, é claro, seja inteligente e contrate algum profissional capacitado para otimizar seu produto.

O fato dos primeiros motores a jato terem sido criados de maneira completamente experimental não significa que os modelos atuais ainda são feitos assim.


Grande parte dos grandes avanços tecnológicos recentes dispensaram ou dispensariam estudos de otimização (tais como foram concebidos na citação acima) para prosperarem. Explico. Você está associando uma aposta rentável na tecnologia com um bom prognóstico. Ambas não são a mesma coisa. Alguém que tenha um retorno linear precisa estar certo em mais de 50% do tempo. Alguém com um retorno convexo, muito menos do que isso. Se a função da coisa é bastante convexa, podemos fazer suposições piores do que o acaso e, ainda assim, acabar registrando bons resultados. Podemos estar errados e ainda assim ser bem-sucedidos - quanto mais incerteza no objeto de estudo, mais essa estratégia funciona. Nas tecnologias, é comum haver o "ajuste bricolagem", que é uma espécie de tentativa e erro, com os pequenos erros sendo o tipo "certo" de erros. A mesma coisa que é responsável pelo retorno elevado da origem de uma inovação tecnológica sem a presença de muita formalização de conhecimento também  é responsável pelo retorno elevado do desenvolvimento dessa inovação tecnológica sem muita formalização de conhecimento. Isso não quer dizer que os engenheiros da atualidade não tenham conhecimento sofisticado. Ajustes aleatórios, heurísticas, prática e aprendizagem muito predominantemente empírica, todo esse conjunto, não deixa de ser um conhecimento sofisticado. Além da questão dos efeitos da convexidade, existe também o conceito de "opcionalidade" no oportunismo da tecnologia: não ficar preso a determinado esquema, de modo que se possa mudar de opinião enquanto se segue adiante, com base em novas descobertas ou informações.

Sendo assim, tem fundamento a proposição de que, em qualquer período da história, a contribuição do conhecimento tácito na inovação tecnológica foi grande, seja na sua origem, seja no seu desenvolvimento.  E isso é explicado tanto pelo viés da convexidade quanto pela opcionalidade.

Invenções de novas tecnologias de fato exigem criatividade e conhecimento empírico. Porém a viabilidade técnica de tais tecnologias, como em um sistema de produção, requerem estudos de otimização e aperfeiçoamento por especialistas.

Não podemos esquecer ainda, que a ciência em nada deslegitima o processo de tentativa e erro e o método empírico. A própria metodologia de Popper surgiu da junção entre o empirismo e racionalismo, com a adição é claro da falseabilidade dos experimentos e validação prévia das conjecturas antes de testá-las experimentalmente. Tentativa e erro, na verdade, faz parte também do método científico. O fato de existir hoje uma metodologia científica mais bem estruturada, não significa que a mesma já não era praticada antes.
« Última modificação: 23 de Janeiro de 2020, 23:41:20 por Cinzu »
"Não é possível convencer um crente de coisa alguma, pois suas crenças não se baseiam em evidências; baseiam-se numa profunda necessidade de acreditar"

Offline -Huxley-

  • Nível Máximo
  • *
  • Mensagens: 13.616
Re:A mentira de que "as teorias acadêmicas originaram e desenvolveram a tecnologia"
« Resposta #81 Online: 24 de Janeiro de 2020, 00:42:15 »
Citar
Bem, você basicamente repetiu com outras palavras o que disse anteriormente. Gostaria de saber como isso contrapõe com minha afirmação:

"Em metereologia, previsões com mais de um mês terão baixa probabilidade de acerto devido à falta de controle e medidas de dados. Não há nenhum mistério e nenhuma falha no método devido à isso. O fato de não ser capaz de prever o clima daqui 1 ano não significa que não possa prever amanhã com uma taxa de 90 a 95% de acerto."

Ou seria apenas um espantalho?

Bem, eu afirmo aqui que um engenheiro de simulação computacional no caso descrito acima só é útil na medida em que ele é metereologista ou está acompanhado de um ou mais meteorologistas (há evidências convincentes de que um estatístico puro e um banco de dados enorme não conseguem chegar nem próximo da acurácia preditiva do meteorologista, como Nate Silver demonstrou no capítulo 12 do livro O Sinal e o Ruído). Mas, como eu já disse, a maioria das disciplinas acadêmicas em que uma simulação de computador pode ser utilizada tem histórico recente de acurácia preditiva sofrível, incluindo aí a climatologia e quase todos os campos chamados de "ciências sociais". Na maioria das disciplinas acadêmicas, um engenheiro de simulação computacional não tem utilidade alguma como "assessor científico".

Citar
Seria este outro espantalho?

O exemplo não descreve a "dificuldade crítica no gereniamento quantitativo de risco", mas simplesmente mostra a eficácia prática de coeficientes de ajustes para corrigir erros de imprecisão em modelos físico-matemático que são utilizados no cotidiano de engenheiros civis, mecânico, naval, elétrico, ou qualquer outra engenharia que "construa coisas".

Tais coeficientes de segurança são suficientemente sólidos no gerenciamento de riscos? Não vi demonstração convincente disso aqui neste tópico.


Citar
A maior parte dos acidentes que ocorrem em engenharia nos dias de hoje são causados por falhas humanas, não por falhas de modelos que "não calcularam eventos catastróficos". Mesmo acidentes causados por modelos teóricos, foram muitas vezes devido a falta de conhecimento científico à época (vide Ponte de Tacoma Narrows) o que reforça ainda mais a importância da ciência.

Ainda, o fato de não existirem modelos matemáticos capazes de predizer eventos catastróficos não significa que os especialistas e autoridades não estejam cientes de que eles são possíveis e podem ocorrer.

No Brasil, por exemplo, não há Normas que determinam que deve-se considerar efeitos sísmicos em edificações, apesar de existirem registros de sismos em várias regiões do país, chegando a 5.1 pontos e causando dano em construções. É perfeitamente plausível que evento de tal magnitude se repita ou volte a ocorrer em escala ainda maior.

Isso significa então que devemos construir como antigamente e projetar nossos prédios para resistirem a terremotos de até 10 pontos? Deveríamos também projetar nossas usinas nucleares para resistirem a meteoros?

Se fizéssemos isso, muito provavelmente nossas construções também durariam milênios como a dos antigos romanos. Com a diferença de que o motivo foi o exagero de segurança adotado, e não ignorância por desconhecer métodos de cálculo.

Não preciso nem mencionar que isso beira ao ridículo e não teríamos mais nenhum desenvolvimento tecnológico devido a indisponibilidade de recursos.

Não vi nenhuma demonstração convincente alguma da validade da primeira frase da citação acima.

Ademais, o texto acima ignorou que, no post anterior, eu mostrei casos em que existiu negligência, baseada em raciocínio talvez similar ao que você tem sobre a necessidade de otimização. O caso Fukushima 2011 sequer foi criticado por você. A tragédia é a seguinte. Suponha que você esteja obtendo probabilidades de ocorrências futuras a partir dos dados, assumindo (generosamente) que o passado é representativo do futuro. Agora, digamos que você estima que um evento ocorra a cada 1.000 dias. Você precisará de muito mais dados do que 1.000 dias para verificar sua frequência, digamos 3.000 dias. Agora, e se o evento acontecer uma vez a cada 5.000 dias? A estimativa dessa probabilidade requer um número maior, 15.000 ou mais. O reator nuclear de Fukushima fora construído para suportar um terremoto de magnitude 8,6, mas não um de 9,1. Desde o início do século 20 - quando as medições passaram a ser mais confiáveis - já se registraram três terremotos iguais ou maiores do que esse último no mundo todo. Ademais, indícios arqueológicos sugeriram a ocorrência de tsunamis no passado com ondas de quarenta metros como as produzidas pelo terremoto de 2011. No Japão, porém, alguns cientistas e planejadores do governo descartaram a possibilidade por completo. É esse tipo de "otimização" que você acha razoável? Ademais, nem preciso falar de outros casos de absurdos ainda mais óbvios e quase auto-evidentes, como o uso do "valor em risco" pelos "engenheiros financeiros" americanos na década de 2000.

Citar
Invenções de novas tecnologias de fato exigem criatividade e conhecimento empírico. Porém a viabilidade técnica de tais tecnologias, como em um sistema de produção, requerem estudos de otimização e aperfeiçoamento por especialistas.

Não podemos esquecer ainda, que a ciência em nada deslegitima o processo de tentativa e erro e o método empírico. A própria metodologia de Popper surgiu da junção entre o empirismo e racionalismo, com a adição é claro da falseabilidade dos experimentos e validação prévia das conjecturas antes de testá-las experimentalmente. Tentativa e erro, na verdade, faz parte também do método científico. O fato de existir hoje uma metodologia científica mais bem estruturada, não significa que a mesma já não era praticada antes.

Sobre o primeiro parágrafo, você apenas repetiu a alegação de que os resultados dos desenvolvimentos de inovações tecnológicas são de responsabilidade das otimizações dos teóricos da ciência acadêmica. E eu já tinha respondido que tal contribuição poderia ser resultado do viés da convexidade (heurística convexa) e da opcionalidade, com a tão falada "contribuição dos estudos acadêmicos de otimização", sendo, em grande parte, um epifenômeno.

Ademais, a heurística convexa na tecnologia não pode ser incluída como aquilo que Karl Popper e outros filósofos da ciência falseacionistas reconheceriam como "teoria científica". Heurísticas são estratégias informais, intuitivas, especulativas que conduzem, algumas vezes, a uma solução eficaz, e outras vezes não. Isso definitivamente não descreveria uma teoria científica na visão de Popper e assemelhados.
« Última modificação: 24 de Janeiro de 2020, 09:02:31 por -Huxley- »

Offline Cinzu

  • Nível 27
  • *
  • Mensagens: 1.312
Re:A mentira de que "as teorias acadêmicas originaram e desenvolveram a tecnologia"
« Resposta #82 Online: 24 de Janeiro de 2020, 10:21:11 »
Citar
Citar
A maior parte dos acidentes que ocorrem em engenharia nos dias de hoje são causados por falhas humanas, não por falhas de modelos que "não calcularam eventos catastróficos". Mesmo acidentes causados por modelos teóricos, foram muitas vezes devido a falta de conhecimento científico à época (vide Ponte de Tacoma Narrows) o que reforça ainda mais a importância da ciência.

Ainda, o fato de não existirem modelos matemáticos capazes de predizer eventos catastróficos não significa que os especialistas e autoridades não estejam cientes de que eles são possíveis e podem ocorrer.

No Brasil, por exemplo, não há Normas que determinam que deve-se considerar efeitos sísmicos em edificações, apesar de existirem registros de sismos em várias regiões do país, chegando a 5.1 pontos e causando dano em construções. É perfeitamente plausível que evento de tal magnitude se repita ou volte a ocorrer em escala ainda maior.

Isso significa então que devemos construir como antigamente e projetar nossos prédios para resistirem a terremotos de até 10 pontos? Deveríamos também projetar nossas usinas nucleares para resistirem a meteoros?

Se fizéssemos isso, muito provavelmente nossas construções também durariam milênios como a dos antigos romanos. Com a diferença de que o motivo foi o exagero de segurança adotado, e não ignorância por desconhecer métodos de cálculo.

Não preciso nem mencionar que isso beira ao ridículo e não teríamos mais nenhum desenvolvimento tecnológico devido a indisponibilidade de recursos.

Não vi nenhuma demonstração convincente alguma da validade da primeira frase da citação acima.

Ademais, o texto acima ignorou que, no post anterior, eu mostrei casos em que existiu negligência, baseada em raciocínio talvez similar ao que você tem sobre a necessidade de otimização. O caso Fukushima 2011 sequer foi criticado por você. A tragédia é a seguinte. Suponha que você esteja obtendo probabilidades de ocorrências futuras a partir dos dados, assumindo (generosamente) que o passado é representativo do futuro. Agora, digamos que você estima que um evento ocorra a cada 1.000 dias. Você precisará de muito mais dados do que 1.000 dias para verificar sua frequência, digamos 3.000 dias. Agora, e se o evento acontecer uma vez a cada 5.000 dias? A estimativa dessa probabilidade requer um número maior, 15.000 ou mais. O reator nuclear de Fukushima fora construído para suportar um terremoto de magnitude 8,6, mas não um de 9,1. Desde o início do século 20 - quando as medições passaram a ser mais confiáveis - já se registraram três terremotos iguais ou maiores do que esse último no mundo todo. Ademais, indícios arqueológicos sugeriram a ocorrência de tsunamis no passado com ondas de quarenta metros como as produzidas pelo terremoto de 2011. No Japão, porém, alguns cientistas e planejadores do governo descartaram a possibilidade por completo. É esse tipo de "otimização" que você acha razoável? Ademais, nem preciso falar de outros casos de absurdos ainda mais óbvios e quase auto-evidentes, como o uso do "valor em risco" pelos "engenheiros financeiros" americanos na década de 2000.

Parece que você sequer leu meu texto, pois continua a confundir negligência e ignorância humana com metodologias científicas.

Como eu bem disse, "o fato de não existirem modelos matemáticos capazes de predizer eventos catastróficos não significa que os especialistas e autoridades não estejam cientes de que eles são possíveis e podem ocorrer". Como você bem mencionou, haviam evidências de terremotos superiores a 9.1 pontos e mesmo assim Fukushima foi projetada para resistir a um terremoto de 8.6.

Da mesma forma que:

"No Brasil, por exemplo, não há Normas que determinam que deve-se considerar efeitos sísmicos em edificações, apesar de existirem registros de sismos em várias regiões do país, chegando a 5.1 pontos e causando dano em construções. É perfeitamente plausível que evento de tal magnitude se repita ou volte a ocorrer em escala ainda maior" e cause mais estragos ainda.

Métodos científicos são utilizados e aplicados, mas processos de decisão ainda são critérios humanos. Especialistas e autoridades estão cientes dos riscos existentes, mesmo não existindo métodos capazes de calcular sua probabilidade de ocorrência. Isto não significa que ciência e matemática são inválidos quando aplicados em processos que são perfeitamente previsíveis e calculáveis, como no funcionamento de um motor.

Você simplesmente está desviando completamente o assunto, e eu basicamente estou a repetir o que já disse. Não vejo necessidade de continuar a discussão.
"Não é possível convencer um crente de coisa alguma, pois suas crenças não se baseiam em evidências; baseiam-se numa profunda necessidade de acreditar"

Offline Cinzu

  • Nível 27
  • *
  • Mensagens: 1.312
Re:A mentira de que "as teorias acadêmicas originaram e desenvolveram a tecnologia"
« Resposta #83 Online: 24 de Janeiro de 2020, 10:28:42 »
Ademais, na medida em que o conhecimento científico e tecnológico avança, mais situações inusitadas são evitadas. Você utiliza as obras romanas superdimensionadas que sobreviveram durante milênios como justificativa à ineficácia do método científico, mas ignora as construções que caíam durante aquele período e não foram capazes de ficar de pé. Acidentes de engenharia hoje são proporcionalmente muito menores do que em qualquer outro período do passado. Os que ocorrem, como já citei e novamente estou repetindo, "são causados por falhas humanas, não por falhas de modelos que não calcularam eventos catastróficos. Mesmo acidentes causados por modelos teóricos, foram muitas vezes devido a falta de conhecimento científico à época (vide Ponte de Tacoma Narrows) o que reforça ainda mais a importância da ciência."
« Última modificação: 24 de Janeiro de 2020, 10:38:46 por Cinzu »
"Não é possível convencer um crente de coisa alguma, pois suas crenças não se baseiam em evidências; baseiam-se numa profunda necessidade de acreditar"

Offline -Huxley-

  • Nível Máximo
  • *
  • Mensagens: 13.616
Re:A mentira de que "as teorias acadêmicas originaram e desenvolveram a tecnologia"
« Resposta #84 Online: 24 de Janeiro de 2020, 20:43:27 »
Citar
Parece que você sequer leu meu texto, pois continua a confundir negligência e ignorância humana com metodologias científicas.

Como eu bem disse, "o fato de não existirem modelos matemáticos capazes de predizer eventos catastróficos não significa que os especialistas e autoridades não estejam cientes de que eles são possíveis e podem ocorrer". Como você bem mencionou, haviam evidências de terremotos superiores a 9.1 pontos e mesmo assim Fukushima foi projetada para resistir a um terremoto de 8.6.

Da mesma forma que:

"No Brasil, por exemplo, não há Normas que determinam que deve-se considerar efeitos sísmicos em edificações, apesar de existirem registros de sismos em várias regiões do país, chegando a 5.1 pontos e causando dano em construções. É perfeitamente plausível que evento de tal magnitude se repita ou volte a ocorrer em escala ainda maior" e cause mais estragos ainda.

Métodos científicos são utilizados e aplicados, mas processos de decisão ainda são critérios humanos. Especialistas e autoridades estão cientes dos riscos existentes, mesmo não existindo métodos capazes de calcular sua probabilidade de ocorrência. Isto não significa que ciência e matemática são inválidos quando aplicados em processos que são perfeitamente previsíveis e calculáveis, como no funcionamento de um motor.

Você simplesmente está desviando completamente o assunto, e eu basicamente estou a repetir o que já disse. Não vejo necessidade de continuar a discussão.

É impossível eu ter dito que associo ignorância e negligência com metodologia científica. A começar pelo fato que já deixei claro que sequer considero que a maioria das engenharias e as ciências sociais sejam ciências. Eu acho que elas são disciplinas técnicas. Mais especificamente, disciplinas técnicas que se assemelham muito mais a culinária do que a física pura no que diz respeito a capacidade (ou incapacidade) de gerar um corpo de teorias a partir do qual outras teorias podem ser diretamente derivadas. As razões pelas quais acredito nisso já expliquei em diversos posts anteriores deste tópico.
 
De qualquer forma, aqui vai uma nota de rodapé a minha resposta à citação... Criticar a ciência e criticar a academia são coisas totalmente distintas. Uma crença pode ser não científica, mesmo que todos acreditem nela. Uma crença pode ser científica, mesmo que só uma única pessoa no Universo acredite nela. Várias áreas da academia usam ferramentas estatísticas sem saber direito como elas funcionam e onde elas se aplicam adequadamente. Diversos matemáticos, estatísticos, filósofos da probabilidade e cientistas já demonstraram isso.


Citar
Ademais, na medida em que o conhecimento científico e tecnológico avança, mais situações inusitadas são evitadas. Você utiliza as obras romanas superdimensionadas que sobreviveram durante milênios como justificativa à ineficácia do método científico, mas ignora as construções que caíam durante aquele período e não foram capazes de ficar de pé. Acidentes de engenharia hljioje são proporcionalmente muito menores do que em qualquer outro período do passado. Os que ocorrem, como já citei e novamente estou repetindo, "são causados por falhas humanas, não por falhas de modelos que não calcularam eventos catastróficos. Mesmo acidentes causados por modelos teóricos, foram muitas vezes devido a falta de conhecimento científico à época (vide Ponte de Tacoma Narrows) o que reforça ainda mais a importância da ciência."

Eu ignorei os trechos de textos citados, pois não vi significado relevante algum neles. Foi "falha humana", mas não foi falha do modelo?!?! Se o uso de "valor em risco" nas finanças nas vésperas da Grande Recessão de 2008-2009 não é falha de modelo, o que é falha de modelo então? Isso é equivalente a dizer "socialismo marxista não foi falha de modelo, mas foi falha humana dos bolcheviques, maoístas, castristas, etc." E se os "cientistas" japoneses da Tecpo e da Agência Nacional de Segurança Nuclear estavam cientes da possibilidade do terremoto de Fukushima em 2011, então por que permitiram por o grau de resistência do reator nuclear limitado a 8,6 de magnitude? Se você diz que alguém esteve ciente de um risco, mas fez ação incongruente com as preferências declaradas, então as crenças declaradas não passam de conversa fiada. A única maneira pela qual podemos dizer com certeza que uma crença não é só papo furado é observando as preferências reveladas nas ações.

Offline Cinzu

  • Nível 27
  • *
  • Mensagens: 1.312
Re:A mentira de que "as teorias acadêmicas originaram e desenvolveram a tecnologia"
« Resposta #85 Online: 24 de Janeiro de 2020, 21:08:57 »
Se a usina foi projetada para resistir a um sismo de 8.6 e, de fato era capaz de resistir àquilo, não há falha alguma no modelo de cálculo utilizado para projetar a usina, e sim no processo de decisão de ignorar a possibilidade de um sismo de magnitude superior.

Exatamente como ocorre com o exemplo dos prédios no Brasil que citei. Não são projetados para resistirem a terremotos, apesar de existirem casos comprovados de patologias em edificações causadas por terremotos. Modelos matemáticos e físicos apenas atendem a finalidade das quais são aplicados.

Não vejo como isso de alguma forma descaracteriza estudos de mecânica dos sólidos, resistências dos materiais, estática e dinâmica de estruturas, ou tudo mais que é desenvolvido pela comunidade científica e utilizado por especialistas para descrever o comportamento físico-mecânico de estruturas.
"Não é possível convencer um crente de coisa alguma, pois suas crenças não se baseiam em evidências; baseiam-se numa profunda necessidade de acreditar"

Offline Cinzu

  • Nível 27
  • *
  • Mensagens: 1.312
Re:A mentira de que "as teorias acadêmicas originaram e desenvolveram a tecnologia"
« Resposta #86 Online: 24 de Janeiro de 2020, 21:17:26 »
Vale ressaltar ainda que há pesquisadores defendendo revisão da Norma Sísmica no Brasil, a fim de contemplar tremores que possam causar danos às edificações brasileiras (https://www.cimentoitambe.com.br/por-que-o-brasil-nao-tem-graduacao-em-engenharia-sismica/), de forma semelhante ao que estão fazendo com a Norma de Ventos em Edificações (https://www.cimentoitambe.com.br/norma-de-vento-em-revisao/), baseados em pontos de coleta de características do vento no país, ensaios em túneis de vento, e simulações computacionais, visando diminuir os acidentes que são causados devido às ações de vento em estruturas. Acidentes estes, que inclusive foram reduzidos no Brasil após publicação da Norma anterior, em 1980.

Isso mostra que o conhecimento acadêmico não é completo e perfeito, e ainda estamos em processo de desenvolvimento. Casos de falhas não deslegitimam a ciência e a academia, pelo contrário, dão mais motivos para aumentarem as pesquisas e estudos científicos.
« Última modificação: 24 de Janeiro de 2020, 21:22:33 por Cinzu »
"Não é possível convencer um crente de coisa alguma, pois suas crenças não se baseiam em evidências; baseiam-se numa profunda necessidade de acreditar"

 

Do NOT follow this link or you will be banned from the site!