Eu andei pegando algumas pérolas desse Waldemar Jazen.Veja só como ele tenta invalidar a Evolução utilizando a Entropia como sinônimo de desordem.Imagine quantas deturpações , ele fará para a Teoria da Informação.Utilizará o mesmo método
"Depois disto o universo passou a operar conforme as leis da física, e especialmente conforme as duas principais leis da termodinâmica: 1- Nada se cria nada se destrói, tudo só se transforma, 2-2- Tudo tende ao equilíbrio térmico, ao grau de maior desordem, ao estado de morte termodinâmica. As variações dos seres vivos acontecem apenas dentro de suas espécies. "
Entropia ainda é sinônimo de "desordem" para criacionistas ...Tsc, tsc, tsc
"Um cristal possui uma pseudo entropia mais baixa apenas do que o seu estado amorfo. Apesar de o cristal ter estruturalmente uma formação mais ordenada o seu estado amorfo tem a "informação" sobre como cristalizar o que é hoje considerado um estado mais baixo de entropia.
A Segunda lei da termodinâmica também não é somente válida para o calor. Ela também se aplica, p.ex., para o seu Jardim: quando não cuidado, esforço para impor a ordem, reduzir a entropia, ele vira mato. "
Agora as leis da termodinâmicas não podem utilizar apenas equações matemáticas, utilizando correlações de calor e trabalho.Agora tem que incluir "mecanismos conversores de energia" em suas equações.Tudo devido a esse gênio.
"Fato é que não há elos transitórios. O reconhecimento disto levou Carl Sagan, ou foi Stephen Jay Gold, a postular a teoria "Punctuated Equilibria" também chamada a teoria do "Hopefull Monster". Esta teoria postula que variações aconteceram rapidamente em pequenas populações sem deixar algum registro fóssil."
Carl Sagan formulador do Equilíbrio Pontuado?Pontuacionismo diz que não existem fósseis de trasição?Até onde sei observação de transições foi justamente um dos pontos mais importantes da pesquisa de Gould.
Tudo isso verá nos links:
http://www.origemedestino.org.br/debate/debate02htmlhttp://www.origemedestino.org.br/debate/debate04.html------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Enfim, a informação é que permite a redução da incerteza prévia para a certeza posterior(a escolha bem-sucedida entre as probabilidades prévias).Então, a seleção natural é um processo pelo o qual a informação é introduzida no conjunto de genes da próxima geração.Engana-se quem acha que nenhum cientista evolucionista respondeu a esse desafio, onde você ver o que eu escrevi a pouco no artigo "O Desafio da Informação", de Richard Dawkins:
(tô repetindo esse artigo para que não se esqueçam dele)
Publicado: 08/07/2000
Atualizado: 13/01/2002
O "DESAFIO DA INFORMAÇÃO"
de Richard Dawkins
Em Setembro de 1997, permiti que uma equipe de filmagem australiana viesse até minha casa em Oxford sem perceber que o propósito deles era fazer propaganda criacionista. No decorrer da suspeitosa entrevista amadora, eles fizeram um desafio truculento para que eu "desse um exemplo de mutação genética ou processo evolucionário que pudesse ser visto aumentando a informação no genoma." Esse é o tipo de pergunta que apenas um criacionista iria fazer dessa forma, e foi nessa parte que percebi o fato que fui feito de bobo ao garantir uma entrevista a criacionistas - uma coisa que normalmente não faço, por boas razões. Na minha raiva recusei discutir mais a questão, e mandei eles desligarem a câmera. Entretanto, eu finalmente voltei atrás na minha finalização peremptória da entrevista como um todo. Foi assim exclusivamente porque eles alegaram que vieram lá da Austrália especificamente para me entrevistar. Mesmo que isso fosse uma exageração considerável, parecia, após reflexão, nada generoso romper a forma legal de publicar e expulsá-los. Eu portanto abrandei.
Minha generosidade foi recompensada de uma forma que qualquer um familiar com as táticas fundamentalistas poderia ter previsto. Quanto finalmente vi o filme um ano depois1, descobri que ele foi editado para dar a falsa impressão que fui incapaz de responder o conteúdo da pergunta2. Em imparcialidade, isso pode não ter sido tão intencional quanto parece ser enganador. Você deve entender que essas pessoas realmente acreditam que suas perguntas não podem ser respondidas! Tão patético quanto pode parecer, a jornada inteira deles da Austrália parece ter sido uma expedição para filmar um evolucionista falhando ao respondê-la.
Pensando melhor agora - dado que fui feito de bobo ao deixá-los entrar na minha casa para começo de conversa - teria sido mais sábio simplesmente responder à pergunta. Mas gosto de ser compreendido quando quer que abra minha boca - tenho um horror de cegar as pessoas com a ciência - e essa não era uma pergunta que podia ser respondida em um pronunciamento rápido. Primeiro você tem que explicar o significado técnico de "informação". Então a relevância da evolução, também, é complicada - não é realmente complicada mas leva tempo. Ao invés de engajar agora em mais recriminações e discordâncias sobre o que exatamente aconteceu na hora da entrevista (para ser justo, eu deveria dizer que a memória de eventos dos produtores Australianos parece ser diferente da minha), devo tentar consertar o problema agora de uma maneira construtiva ao responder a pergunta original, o "Desafio da Informação", com um espaço adequado - o tipo de espaço que você pode conseguir em um artigo apropriado.
Informação
A definição técnica de "informação" foi introduzida pelo engenheiro Americano Claude Shannon em 1948. Um empregado da Bell Telephone Company, Shannon estava preocupado em medir a informação como uma comodidade econômica. Era caro mandar mensagens através de uma linha de telefone. Muito do que é passado em uma mensagem não é informação: é redundante. Você pode economizar dinheiro ao gravar a mensagem para remover a redundância. Redundância foi um segundo termo técnico introduzido por Shannon, como o inverso de informação. Ambas definições eram matemáticas, mas podemos exprimir o significado intuitivo de Shannon em palavras.
Redundância é qualquer parte da mensagem que não é informativa, ou porque o destinatário já a conhece (não fica surpreso com ela) ou porque ela duplica outras partes da mensagem. Na frase "Rover é um cão poodle", a palavra "cão" é redundante porque "poodle" já nos diz que Rover é um cachorro. Um telegrama econômico iria omitir isso, portanto aumentando a proporção informativa da mensagem. "Chg JFK sex nte pfv enc vo Cncrd BA" carrega a mesma informação que a mensagem bem maior, mas mais redundante, "Vou chegar no aeroporto John F Kennedy na sexta-feira a noite; por favor me encontre no vôo Concorde da British Airways". Obviamente a breve mensagem telegráfica é mais barata para enviar (embora o destinatário possa ter que dar duro para decifrá-la - redundância tem suas virtudes se esquecermos a economia). Shannon quis encontrar uma maneira matemática de capturar a idéia que qualquer mensagem poderia ser quebrada em informação (que valia a pena ser paga), em redundância (que pode, com vantagem econômica, ser apagara da mensagem porque, em efeito, pode ser reconstruída pelo destinatário), e o ruído (que é apenas lixo aleatório).
"Choveu em Oxford todos os dias essa semana" carrega relativamente pouca informação, porque o destinatário não fica surpreso com isso. Por outro lado, "Choveu no deserto do Saara todos os dias essa semana" seria uma mensagem de conteúdo altamente informativo, digna de se pagar a mais para enviar. Shannon queria capturar esse senso de conteúdo informativo como "valor surpresa". É relacionado com o outro sentido - "que o que não é duplicado em outras partes da mensagem" - porque repetições perdem seu poder de surpreender. Note que a definição de Shannon da quantidade de informação é independente de se ela é ou não verdadeira. A medida que ele criou foi engenhosa e intuitivamente satisfatória. Vamos estimar, ele sugeriu, a ignorância ou incerteza do destinatário após receber a mensagem. A quantidade de redução-de-ignorância é o conteúdo da informação. A unidade de informação Shannon é o bit, abreviação para "dígito binário". Um bit é definido como a quantidade de informação necessária para dividir pela metade a incerteza prévia do destinatário, não importa quão grande essa incerteza prévia era (leitores matemáticos irão notar que o bit é, portanto, uma medida logarítmica).
Na prática, você primeiro tem que encontrar uma maneira de medir a incerteza prévia - essa que é reduzida pela informação quando ela chega. Para tipos particulares de mensagens simples, isso é facilmente feito em termos de probabilidades. Um pai observa o nascimento por cesariana de seu filho através da janela na sala de operações. Ele não pode ver nenhum detalhe, então uma enfermeira combinou levantar um cartão rosa se for uma menina, azul se for um menino. Quanta informação é passada quando, digamos, a enfermeira acena o cartão rosa para o pai deliciado? A resposta é um bit - a incerteza prévia foi dividida pela metade. O pai sabe que um bebê de algum tipo nasceu, então sua incerteza é de apenas duas possibilidades - menino ou menina - e elas são (para propósitos desta discussão) iguais. O cartão rosa divide pela metade a incerteza prévia do pai de duas possibilidades para uma (menina). Se não houvesse nenhum cartão rosa mas um médico tivesse saído da sala de operações, apertado a mão do pai e dito "Parabéns velho amigo, estou feliz em ser o primeiro a lhe dizer que você tem uma filha", a informação passada pela mensagem de 17 palavras continuaria sendo apenas um bit.
Informação de computador
Informação de computador é mantida numa seqüência de zeros e uns. Existem apenas duas possibilidades, então cada 0 ou 1 pode carregar um bit. A capacidade de memória de um computador, ou a capacidade de armazenamento de um disco ou fita, é freqüentemente medida em bits, e esse é o número total de 0s ou 1s que eles podem carregar. Por alguns propósitos, unidades mais convenientes de medida são o byte (8 bits), o kilobyte (1000 bytes ou 8000 bits), o megabyte (um milhão de bytes ou 8 milhões de bits) ou o gigabyte (1 bilhão de bytes ou 8 bilhões de bits)3. Note que esses números se referem à capacidade total disponível. Essa é a quantidade máxima de informação que o dispositivo é capaz de armazenar. O tamanho real de informação armazenada é outra coisa. A rapacidade do meu disco rígico é de 4,2 gigabytes. Disso tudo, aproximadamente 1,4 gigabytes estão realmente sendo utilizados para armazenar dados no momento. Mas até mesmo isso não é o verdadeiro conteúdo de informação do disco no sentido de Shannon. O verdadeiro conteúdo de informação é menor, porque a informação poderia ser armazenada mais economicamente. Você pode ter uma idéia do verdadeiro conteúdo de informação ao usar um desses engenhosos programas de compressão como o "Stuffit"4. Stuffit procura por redundância na seqüência de 0s e 1s, e remove uma considerável proporção deles ao gravar - retirando a previsibilidade interna. O máximo de conteúdo de informação seria alcançado (provavelmente nunca na prática) apenas se cada 1 ou 0 nos surpreendesse igualmente. Antes dos dados serem amplamente transmitidos pela Internet, eles são rotineiramente comprimidos para reduzir a redundância.
Essa é uma boa economia. Mas por outro lado é também uma boa idéia manter alguma redundância nas mensagens, para ajudar a corrigir erros. Numa mensagem totalmente livre de redundância, após ter acontecido um erro não há meios de reconstruir o que foi intencionado. Códigos de computador freqüentemente incorporam "bits de paridade" deliberadamente redundantes para ajudar na detecção de erros. O DNA também tem vários procedimentos de correção de erro que dependem de redundância. Quando eu vier a falar de genomas, vou retornar à distinção de três tipos entre capacidade de informação total, capacidade de informação realmente usada e conteúdo de informação real.
Informação do DNA
O DNA carrega informação de uma forma muito parecida com os computadores, e nós podemos medir a capacidade do genoma em bits também, se quisermos. O DNA não usa um código binário, mas um quaternário. Onde a unidade de informação no computador é um 1 ou um 0, a unidade do DNA pode ser T, A, C ou G. Se eu disser a você que um local particular no DNA em uma seqüência é T, quanta informação é passada da mim à você? Comece medindo a incerteza prévia. Quantas possibilidades estavam abertas antes da mensagem "T" chegar? Quatro. Quantas possibilidades restam após sua chegada? Uma. Então você pode pensar que a informação transferida é de quatro bits, mas na verdade é de dois. Aqui está o por quê (assumindo que as quatro letras são igualmente prováveis, como os quatro naipes num baralho de cartas). Lembre que a métrica de Shannon é preocupada com a maneira mais econômica de passar a mensagem. Pense nisso como um número de perguntas sim/não que você teria que perguntar para poder reduzir até a certeza, de uma incerteza inicial de quatro possibilidades, assumindo que você planejou suas perguntas da maneira mais econômica. "A letra misteriosa está antes do D no alfabeto?" Não. Reduz para T ou G, e agora nós precisamos de apenas mais uma pergunta para resolver. Então, com esse método de medição, cada "letra" do DNA tem uma capacidade de informação de 2 bits.
Toda vez que a incerteza prévia do destinatário pode ser expressa como um número de N alternativas igualmente prováveis, o conteúdo de informação da mensagem que restringe essas alternativas a um é log2N (a potência que 2 deve ser elevado para produzir o número de N alternativas). Se você pegar uma carta, qualquer carta, de um baralho normal, uma declaração da identidade da carta carrega log252, ou 5,7 bits de informação. Em outras palavras, dado um número grande de jogos de adivinhação, levaria uma média de 5,7 perguntas do tipo sim/não para adivinhar a carta, contanto que as perguntas sejam feitas da maneira mais econômica. As duas primeiras perguntas podem estabelecer o naipe. (É vermelha? É de ouros?) as três ou quatro perguntas restantes iriam dividir sucessivamente e conquistar o naipe (ela é um 7 ou maior que isso?), finalmente apontando para a carta escolhida. Quando a incerteza prévia é alguma mistura de alternativas que não são igualmente prováveis, a fórmula de Shannon se torna uma média ponderada um pouco mais elaborada, mas ela é essencialmente parecida. Por falar nisso, a média ponderada de Shannon é a mesma fórmula que os físicos tem usado, desde o século dezenove, para a entropia. A questão tem implicações interessantes, mas não devo discuti-las aqui.
Informação e evolução
Já temos uma digressão suficiente sobre teoria da informação. Essa é uma teoria que há muito me fascina, e eu a usei em várias das minhas pesquisas durante os anos. Vamos agora pensar como podemos usar isso para perguntar se o conteúdo de informação do genoma aumenta na evolução ou não. Primeiro, lembre-se da distinção de três tipos entre a capacidade total de informação, a capacidade que é realmente usada, e conteúdo de informação real quando armazenada na maneira mais econômica possível. A capacidade total de informação do genoma humano é medida em gigabits. A da bactéria comum de intestino Escherichia coli é medida em megabits. Nós, como todos os outros animais, somos descendentes de um ancestral que, se estivesse disponível para nossos estudos hoje, classificaríamos como uma bactéria. Então talvez, durante os bilhões de anos de evolução desde que esse ancestral viveu, a capacidade de informação do nosso genoma cresceu três ordens de magnitude (potências de dez) - em torno de mil vezes. Isso é satisfatoriamente plausível e confortante para a dignidade humana. Então, a dignidade humana deveria se sentir machucada pelo fato da salamandra de crista, Triturus cristatus, ter uma capacidade de genoma estimada em 40 gigabits, uma ordem de magnitude maior que a do genoma humano? Não, porque, nesse caso, a maioria da capacidade do genoma de qualquer animal não é usada para armazenar informações úteis. Existem muitos pseudogenes não funcionais (veja abaixo) e muita repetição sem sentido, útil para detetives forenses mas não traduzida em proteínas pelas células vivas. A salamandra de crista tem um "disco rígido" maior do que o nosso, mas já que a maior parte de nossos discos rígidos não é usada, não precisamos nos sentir insultados. Espécies parecidas de salamandra possuem genomas bem menores. Por que o Criador teria brincado a tordo e a direito com o tamanho dos genomas das salamandras de forma tão caprichosa é um problema que os criacionistas podem querer ponderar. Do ponto de vista evolucionário a explicação é simples (veja O Gene Egoísta págs. 44-45 e p 275 na Segunda Edição).
Duplicação do gene
Evidentemente a capacidade total de informação dos genomas é muito variável através dos reinos vivos, e ela deve ter mudado muito na evolução, presumivelmente em ambas as direções. Perdas de material genético são chamadas de deleções (eliminações). Novos genes surgem através dos vários tipos de duplicação. Isso é bem ilustrado pela hemoglobina, a complexa molécula de proteína que transporta o oxigênio no sangue.
A hemoglobina humana adulta é na verdade um composto de quatro cadeias de proteínas chamadas globinas, presas em nós uma em torno da outra. Suas seqüências detalhadas mostram que as quatro cadeias de globinas são intimamente relacionadas umas com as outras, mas não são idênticas. Duas delas são chamadas de globinas alfa (cada uma, uma corrente de 141 aminoácidos), e duas são blobinas beta (cada uma, uma corrente de 146 aminoácidos). Os genes que codificam as globinas alfa estão no cromossomo 11; aqueles que codificam as globinas beta estão no cromossomo 16. Em cada um desses cromossomos, há um grupo de genes de globina numa seqüência, intercalados com um pouco de DNA lixo. O grupo alfa, no cromossomo 11, contém sete genes de globina. Quatro deles são pseudogenes, versões de alfa desabilitados por falhas em suas seqüências e não traduzidos em proteínas. Dois são verdadeiros globinas alfa, usados no adulto. O último é chamado de zeta e é usado apenas nos embriões. Similarmente o grupo beta, no cromossomo 16, possui seis genes, alguns dos quais são desabilitados, e um que é usado apenas no embrião. A hemoglobina adulta, como vimos contém duas correntes alfa e duas beta.
Esqueça toda essa complexidade. Aqui está outra questão fascinante. Uma análise minuciosa letra-a-letra mostra que os diferentes tipos de genes de globina são literalmente primos uns dos outros, literalmente membros de uma família. Mas esses primos distantes ainda coexistem dentro do nosso próprio genoma, e são todos os vertebrados. Na escala de um organismo inteiro, os vertebrados são nossos primos também. A árvore da evolução vertebrada é a árvore genealógica que todos estamos familiarizados, e seus pontos de ramificação representam os eventos de especiação - a divisão das espécies em pares de espécies filhas. Mas há outra árvore genealógica ocupando o mesmo espaço de tempo, com ramificações que não representam eventos de especiação mas eventos de duplicação de genes dentro de seus genomas.
A aproximada dúzia de globinas diferentes dentro de você é descendente dos antigos genes de globina que, em um ancestral remoto que viveu mais ou menos meio bilhão de anos atrás, duplicou, após o qual ambas as cópias permaneceram no genoma. Haviam então duas cópias dele, em partes diferentes do genoma de todos os animais descendentes. Uma cópia era destinada a gerar o grupo alfa (onde finalmente iria se tornar o Cromossomo 11 no nosso genoma), e o outro grupo beta (no Cromossomo 16). Conforme as eras passaram, houveram duplicações posteriores (e sem dúvida algumas deleções também). Há cerca de 400 milhões de anos atrás o gene alfa ancestral duplicou-se novamente, mas dessa vez as duas cópias permaneceram vizinhos próximos uma da outra, num grupo no mesmo cromossomo. Uma delas foi destinada a se tornar a zeta de nossos embriões, a outra se tornou os genes de globina alfa dos humanos adultos (outras ramificações deram origem aos pseudogenes sem função que mencionei). A história foi parecida com a ramificação beta da família, mas com duplicações em outros momentos na história geológica.
Agora aqui está uma questão igualmente fascinante. Dado que a divisão entre o grupo alfa e o grupo beta ocorreu há 500 milhões de anos, não seria obviamente apenas o nosso genoma humano que mostraria a divisão - possui genes alfa numa parte diferente do genoma do que os genes beta. Deveríamos ver o mesmo nas divisões dentro de genomas se olhássemos para qualquer outro mamífero, em pássaros, répteis, anfíbios e peixes vertebrados, pois nosso ancestral comum com todos eles viveu há menos do que 500 milhões de anos. Onde quer que seja investigada, essa expectativa se mostrou correta. Nossa maior esperança de encontrar um vertebrado que não compartilha conosco a antiga divisão alfa/beta seria um peixe sem mandíbula como um tipo de lampreia, pois eles são nossos primos mais remotos entre os vertebrados sobreviventes; eles são os únicos vertebrados sobreviventes cujo ancestral comum com o resto dos vertebrados é antigo o suficiente para poder ter existido antes da divisão alfa/beta. Com certeza o suficiente, esses peixes sem mandíbula são os únicos vertebrados conhecidos que não possuem a divisão alfa/beta.
Duplicação de genes, dentro do genoma, tem um impacto histórico similar na duplicação de espécies ("especiação") na filogenia. Ela é responsável pela diversidade dos genes, da mesma maneira que a especiação é responsável pela diversidade filética. Começando com um único ancestral universal, a magnífica diversidade da vida surgiu através de uma série de ramificações de novas espécies, que finalmente deram origem aos maiores ramos dos reinos vivos e as centenas de milhões de espécies que tem agraciado a terra. Uma série similar de ramificações, mas dessa vez dentro dos genomas - duplicação de genes - causou a grande e diversificada população de grupos de genes que constituem o genoma moderno.
A estória das globinas é apenas mais uma dentre muitas. Duplicações e deleções de genes tem ocorrido de tempos em tempos nos genomas. É por esses motivos, e outros similares, que o tamanho dos genomas pode aumentar na evolução. Mas lembre-se da distinção entre a capacidade total do genoma e a capacidade da porção que é realmente usada. Recorde que nem todos os genes de globina realmente são usados. Alguns deles, como o theta no grupo alfa dos genes de globina, são pseudogenes, parentes reconhecíveis dos genes funcionais no mesmo genoma, mas nunca realmente traduzidos na linguagem de proteínas. O que acontece com as globinas acontece com a maioria dos outros genes. Os genomas estão abarrotados com pseudogenes sem função, duplicatas com defeito de genes funcionais que não fazem nada, enquanto seus primos funcionais (a palavra primos nem mesmo precisa de aspas) continuam com seus afazeres em partes diferentes no mesmo genoma. E há muito mais DNA que nem mesmo merece o nome pseudogene. Essa parte é também derivada da duplicação, mas não a duplicação de genes funcionais. Ela consiste de múltiplas cópias de lixo, "repetições tandem", e outras coisas sem sentido que podem ser úteis para detetives forenses mas que não parecem ser usadas pelo corpo.
Novamente, os criacionistas podem gastar um bom tempo especulando sobre por que o Criador deveria se preocupar em abarrotar os genomas com pseudogenes não traduzidos e repetições tandem lixo no DNA.
Informação no genoma
Podemos medir a capacidade de informação dessa porção do genoma que é realmente usada? Podemos pelo menos estimá-la. No caso do genoma humano é de cerca de 2% - consideravelmente menos do que a porção do meu disco rígido que usei desde que o comprei. Presumivelmente o equivalente para a salamandra de crista é muito menor, mas não sei se ela foi medida. Em todo caso, não devemos nos perder com uma idéia chovinista que o genoma humano de alguma forma deve ter o maior banco de dados de DNA porque nós somos tão maravilhosos. O grande biólogo evolucionário George C. Williams mostrou que os animais com ciclos de vida complicados precisam codificar todos os estágios de desenvolvimento no ciclo de vida, mas eles tem apenas um genoma para fazê-lo. O genoma de uma borboleta tem que armazenar as informações completas necessárias para fazer uma lagarta tanto quanto uma borboleta. Um verme de fígado de ovelha tem seis estágios distintos no seu ciclo de vida, cada um especializado para um meio diferente de viver. Não deveríamos nos sentir tão insultados se os vermes de fígado acabarem tendo genomas maiores do que os nossos (na verdade eles não tem).
Lembre-se também que até mesmo a capacidade total do genoma que é realmente usada não é a mesma coisa que o conteúdo de informação verdadeiro no sentido de Shannon. O conteúdo de informação verdadeiro é o que sobra quando a redundância foi comprimida na mensagem, pelo equivalente teórico do Stuffit. Existem até alguns vírus que parecem usar um tipo de compressão como o Stuffit. Eles fazem uso do fato que o código do RNA (não o DNA nesses vírus, conforme acontece, mas o princípio é o mesmo) é lido em tripletos. Existe um "quadro" que se move pela seqüência de RNA, lendo três letras de uma vez. Obviamente, sob circunstâncias normais, se a fôrma começa lendo no lugar errado (como nas supostas mutações de mudança de quadro), ela não faz nenhum sentido: as "trincas" que ela lê estão fora de compasso com os que possuem significado. Mas esses vírus esplêndidos realmente exploram a leitura de mudança de quadro. Eles tem duas mensagens pelo preço de uma, ao terem uma mensagem completamente diferente embutida na mesma série de letras quando lêem em mudança de quadro. Em princípio você poderia até ter três mensagens pelo preço de uma, mas não sei se existem ou não quaisquer exemplos.
Informação no corpo
Uma coisa é estimar a capacidade total de informação de um genoma, e a quantidade do genoma que realmente é utilizada, mas é mais difícil estimar seu conteúdo de informação verdadeiro no sentido de Shannon. O melhor que podemos fazer é provavelmente deixar pra lá o genoma e olhar o seu produto, o "fenótipo", o corpo funcional de um animal ou planta. Em 1951, J W S Pringle, que depois se tornou Professor em Oxford, sugeriu usando uma medida de informação do tipo de Shannon para estimar a "complexidade". Pringle quis expressar a complexidade em bits matematicamente, mas há muito tempo eu acho a seguinte forma verbal útil em explicar a idéia dele aos alunos.
Temos um senso intuitivo que, digamos, uma lagosta é mais complexa (mais "avançada", alguém poderia dizer mais "evoluída") do que outro animal, talvez uma centopéia. Podemos medir algo para confirmar ou negar nossa intuição? Sem literalmente transformar em bits, podemos fazer uma estimativa aproximada do conteúdo de informação dos dois corpos como explicado a seguir. Imagine-se escrevendo um livro descrevendo a lagosta. Agora escreva outro livro descrevendo a centopéia no mesmo nível de detalhes. Divida o número de palavras em um livro pelo número de palavras no outro, e você tem uma estimativa aproximada do conteúdo de informação relativo entre a lagosta e a centopéia. É importante especificar que ambos os livros descrevem seus respectivos animais "no mesmo nível de detalhes". Obviamente se descrevemos a centopéia em detalhes no nível celular, mas ficamos apenas nas características anatômicas grosseiras no caso da lagosta, a centopéia acabaria bem adiante.
Mas se fazemos o teste de forma justa, aposto que o livro da lagosta iria acabar sendo muito maior do que o livro da centopéia. É um argumento simples e plausível, conforme segue. Ambos os animais são feitos de segmentos - módulos de arquitetura corporal que são fundamentalmente similares uns aos outros, com os arrumados um após o outro como os vagões de um trem. Os segmentos da centopéia são praticamente idênticos uns aos outros. Os segmentos da lagosta, embora sigam o mesmo plano básico (cada um com um gânglio nervoso, um par de membros, e assim por diante) são na maior parte diferentes entre si. O livro da centopéia iria consistir em um capítulo descrevendo um segmento típico, seguido da frase "Repita N vezes" onde N é o número de segmentos. O livro da lagosta iria precisar de um capítulo diferente para cada segmento. Isso tudo não é tão justo com a centopéia, cujos segmentos da frente e de trás são um pouco diferentes do resto. Mas eu ainda apostaria que, se alguém se propusesse a fazer a experiência, o conteúdo de informação estimado da lagosta acabaria sendo substancialmente maior do que o conteúdo de informação estimado da centopéia.
Não é de interesse evolucionário direto comparar uma lagosta com uma centopéia dessa maneira, porque ninguém pensa que as lagostas evoluíram das centopéias. Obviamente nenhum animal moderno evoluiu de qualquer outro animal moderno. Ao invés disso, qualquer par de animais modernos tiveram um ancestral comum que viveu em algum momento (em princípio) capaz de ser descoberto na história geológica. Quase toda a evolução aconteceu muito no passado, o que torna difícil estudar os detalhes. Mas podemos usar a experiência mental do "tamanho do livro" para saber qual a resposta se perguntarmos se o conteúdo de informação aumenta ou não com a evolução, se tivéssemos animais ancestrais para observar.
A resposta na prática é complicada e controversa, amarrada num vigoroso debate se a evolução é ou não, no geral, progressiva. Sou um dos associados a responder com uma forma limitada de sim. Meu colega Stephen Jay Gould tende a responder um não. Não penso que ninguém iria negar isso, por qualquer método de medida - seja por conteúdo de informação corporal, capacidade de informação total do genoma, capacidade do genoma realmente usada, ou conteúdo de informação verdadeiro ("compactado com Stuffit") do genoma - houve uma ampla tendência global para um conteúdo de informação maior durante o curso da evolução humana desde nossos ancestrais bacterianos. As pessoas podem discordar, entretanto, sobre duas questões importantes: primeiro; onde é que tal tendência está em toda, ou na maioria, das linhagens evolucionárias (por exemplo a evolução parasita freqüentemente mostra uma tendência para uma complexidade corporal cada vez menor, porque os parasitas se saem melhor sendo simples); segundo, onde é que, mesmo nas linhagens onde há uma clara tendência geral sobre o termo muito longo, está sendo propelido por tantos reversos e re-reversos no termo mais curto para minar a idéia de progresso. Esse não é o lugar para resolver essa interessante controvérsia. Existem biólogos eminentes com bons argumentos em ambos os lados.
Simpatizantes do "design inteligente" guiando a evolução, por falar nisso, deveriam estar profundamente comprometidos com a visão que o conteúdo de informação aumenta durante a evolução. Mesmo se a informação vem de Deus, talvez especialmente se ela vem, ela deveria com certeza aumentar, e o aumento deveria presumivelmente se mostrar no genoma. A não ser, é claro, - vale tudo em tal estúpida e confusa teorização - que Deus faça seus milagres evolucionários por meios não-genéticos.
Talvez a lição principal que devemos aprender de Pringle é que o conteúdo de informação de um sistema biológico é outro nome para a sua complexidade. Portanto o desafio criacionista com o qual começamos é equivalente ao desafio padrão de explicar como a complexidade biológica pode evoluir de antecedentes mais simples, um desafio que devotei três livros para responder (O Relojoeiro Cego, O Rio Que Saía do Éden, A Escalada do Monte Improvável) e não pretendo repetir seus conteúdos aqui. O "desafio da informação" acaba sendo nada além do que o nosso velho amigo: "Como algo tão complexo quanto um olho evolui?" Está apenas vestido numa linguagem matemática luxuosa - talvez numa tentativa de ludibriar. Ou talvez aqueles que perguntam isso já tenham se ludibriado, e não percebem que é a mesma velha - e respondida minuciosamente - pergunta.
O Livro Genético dos Mortos
Deixe-me usar, finalmente, outra maneira de ver se o conteúdo de informação dos genomas aumenta ou não na evolução. Nós agora mudamos do amplo alcance da história evolucionária para os detalhes da seleção natural. A própria seleção natural, quando você pensa sobre ela, é uma pequena parte de um amplo campo inicial de alternativas possíveis, para o campo mais estreito de alternativas realmente escolhidas. Erro genético aleatório (mutação), recombinação sexual e mistura migratória, todas fornecem um amplo campo de variação genética: as alternativas disponíveis. A mutação não é um aumento no conteúdo de informação verdadeiro, ao invés disso é o inverso, porque a mutação, na analogia de Shannon, contribui para um aumento da incerteza prévia. Mas agora chegamos na seleção natural, que reduz a "incerteza prévia" e portanto, no sentido de Shannon, contribui com informação para o conjunto de genes. Em cada geração, a seleção natural remove os genes que não são bem sucedidos do conjunto de genes, e então o conjunto de genes restante é um subgrupo mais estreito. O estreitamento é não-aleatório, na direção do melhoramento, onde melhoramento é definido, na maneira Darwiniana, como melhoramento na adaptação para sobreviver e se reproduzir. Claro que a amplitude total de variação é refeita novamente em cada geração por novas mutações e outros tipos de variações. Mas ainda continua sendo verdade que a seleção natural é um estreitamento de um campo de possibilidades inicial mais amplo, incluindo na maioria as que não são bem sucedidas, até um campo mais estreito com as bem sucedidas. É análogo à definição de informação com a qual começamos: informação é o que permite a redução da incerteza prévia (a gama inicial de possibilidades) para a certeza posterior (a escolha "bem sucedida" entre as probabilidades prévias). De acordo com essa analogia, a seleção natural é por definição um processo pelo qual a informação é introduzida no conjunto de genes da próxima geração.
Se a seleção natural introduz informação nos conjuntos de genes, sobre o que é essa informação? Ela é sobre como sobreviver. Estritamente é sobre como sobreviver e se reproduzir, nas condições que prevaleceram quando gerações prévias estavam vivas. Ao ponto que as condições atuais são diferentes das condições ancestrais, o conselho genético ancestral estará errado. Em casos extremos, a espécie pode então ser extinta. Ao ponto que as condições para a geração presente não são tão diferentes quanto as condições para gerações passadas, a informação introduzida nos genomas atuais pelas gerações passadas é útil. A informação do passado ancestral pode ser vista como um manual para sobreviver no presente: uma bíblia familiar de "conselhos" ancestrais sobre como sobreviver hoje. Precisamos apenas de uma pequena licença poética para dizer que a informação introduzida nos genomas modernas pela seleção natural é na verdade informação sobre ambientes antigos no qual os ancestrais sobreviveram.
Essa idéia de informação introduzida por gerações ancestrais nos conjuntos de genes descendentes é um dos temas do meu novo livro, Decompondo o Arco-Íris. Toma um capítulo inteiro, "O Livro Genético dos Mortos", para desenvolver a noção, então não vou repeti-lo aqui exceto por dizer duas coisas. Primeiro, é o conjunto de genes inteiro da espécie como um todo, não o genoma de um indivíduo particular, que é melhor visto como o destinatário da informação ancestral sobre como sobreviver. Os genomas de indivíduos particulares são exemplos aleatórios do atual conjunto de genes, embaralhados pela recombinação sexual. Segundo, nós somos privilegiados ao "interceptar" a informação que desejarmos, e "ler" um corpo de animal, ou até mesmo seus genes, como uma descrição codificada de mundos ancestrais. Citando Decompondo o Arco-Íris: "E esse não é um pensamento cativante? Somos arquivos digitais da África Pliocenica, até mesmo dos mares Devorianos; repositórios ambulantes da sabedoria desses dias antigos. Você poderia passar uma vida inteira lendo essa biblioteca antiga e morrer de pé maravilhado com ela."
Notas:
1 - Os produtores nunca tiveram a dignidade de me mandar uma cópia: esqueci completamente sobre o fato até que um colega Americano me chamou a atenção. Voltar
2 - Veja Barry Williams (1998): "Enganação Criacionista Exposta", The Skeptic 18, 3, págs. 7-10, para um relato sobre como minha longa pausa (tentando decidir se expulsava eles ou não) foi feita parecer como se fosse uma hesitante inabilidade para responder a pergunta, seguida de uma aparente resposta evasiva para uma pergunta completamente diferente. Voltar
3 - Na verdade 1 kilobyte possui 1.024 bytes ou 8.192 bits, 1 megabyte possui 1.048.576 bytes ou 8.388.608 bits e 1 gigabyte possui 1.073.741.824 bytes ou 8.589.934.592 bits. Não sei se o professor Dawkins simplificou os valores corretos arredondando-os para facilitar a leitura do ensaio ou se realmente errou ao informar os valores imprecisos. Voltar
4 - Outros programas que fazem o que o Stuffit faz são o WinZIP, WinARJ, WinRAR, LHA e o ACE. Voltar
http://www.str.com.br/Scientia/desafio.htm