Quero dizer no sentido crocodilo x jacaré de relevância.[....]
De modo geral as pessoas não tem em mente um literalismo técnico, e são algo mais mais verdadeiras as resposta que "crocodilos" (na verdade jacarés) podem ser perigosos no Brasil, bem como que o cérebro é um computador e em tese um computador poderia ser construído ou programado para funcionar como um cérebro, embora se esteja distante de fazer isso. Além de não ter pedantismo/preciosismo semântico-técnico, ainda tem a vantagem de fugir de passar uma noção misticista quanto a cérebro/mente.
É "pedantismo técnico" só porque você quer que seja. Porque isto já foi suficientemente explicado.
De todo modo faço um último esforço.
Primeiramente não existe uma "definição estrita" de computador. E esse é o problema.
Ciência da computação, por ser abstrata, precisa que as coisas sejam rigorosamente definidas. Sem ambiguidade. Um exemplo: a Lógica Formal é uma ciência que estuda os argumentos pelas suas estruturas, ou seja, suas formas. Daí o "formal".
Por ser formal, sem uma definição de argumento, não há o que se fazer.
"Um argumento é uma lista de sentenças afirmativas que só podem ser verdadeiras ou falsas das quais uma é conclusão e as outras são as premissas bla, bla, bla..."
Definir computador é mais ou menos como tentar definir o que é cadeira. Se eu disser que cadeira é um objeto que serve para sentar não define porque um sofá também é. Uma poltrona também é. Uma sela de cavalo também.
Não funcionou porque essa definição é muito geral. Acaba abrangendo outras coisas que não são cadeiras.
Mas se eu disser que cadeira é um objeto que serve para sentar e tem quatro pernas, assento e encosto, também não define porque existe cadeira com três pernas, apoiada em coisas que não são pernas, etc.
Essa não funcionou porque é muito particular. Não abrange todas as cadeiras.
Definir é indicar uma condição SUFICIENTE e NECESSÁRIA para a pertinência a um conjunto.
Você vai ter dificuldade semelhante se tentar definir computador com base em tecnologias reais. Ou fica muito vago ou abrangente demais para os propósitos de uma ciência abstrata.
Isso pode ser contornado através de um modelo minimalista de máquina capaz de realizar as funcionalidades fundamentais do que se espera que venha a ser um computador. Se não estou enganado modelos já haviam sido propostos antes de construírem as primeiras máquinas. A tese de Church-Turing conjectura sobre as características que devem apresentar dispositivos mecânicos que executem algoritmos.
A tese: "Toda função computável é computável em uma máquina de Turing."
E algoritmo é entendido como:
- Conjunto finito de instruções precisas e simples, que são descritas com um número finito de símbolos.
- Sempre chega ao resultado em um número finito de passos.
- Pode, a princípio, ser executado por um ser humano com apenas papel e lápis.
- Não exige inteligência para ser executado.
Por meio de um modelo como esse ( um modelo conceitual ) podemos desenvolver uma teoria da computação. Então você não precisa de uma definição que lide com as particularidades físicas e de engenharia de uma determinada tecnologia de computação. Se você demonstrar que as funções de um dispositivo computacional qualquer podem ser, todas elas, implementadas em uma máquina de Turing, ou coisa equivalente, como uma combinação das funções simples dessa máquina, então você garante que toda a teoria existente se aplica também a este outro dispositivo.
Do mesmo modo, se algum dispositivo não puder ser simulado em uma máquina de Turing, então a teoria é inaplicável.
E o que isso tem a ver? Ter pelo menos uma ideia sobre isso é o que explica aquela analogia que eu fiz com a máquina de lavar, sobre a expectativa de que rodar um determinado programa possa tornar um computador consciente não seja muito diferente do que esperar que se realizarmos determinadas operações de lavagem a lava-roupas também poderia se tornar um dispositivo consciente.
Porque se você olhar lá dentro desse troço vai ver algo como a linha de montagem de uma fábrica, só que em vez de produtos ela está fabricando, transportando e armazenando strings de bits. Estas strings não têm significado em si mesmas, o significado somos nós que atribuímos. Em um registrador de 4 bits 1111 poderia ser o número 15, mas pode ser conveniente também calcular como se fosse -1. Se você somar 1010 com esse 1111 a operação é a mesma, mas o resultado você interpreta o significado.
Então suponha que alguém finalmente escreveu o programa que simula a mente humana. Em tese, um engenheiro de produção de uma fábrica de Lego poderia ter projetado uma linha de montagem que produz somente peças amarelas e azuis. Inadvertidamente, sem que ele percebesse, a tal linha de produção poderia, por puro acaso, estar realizando as mesmas funções, passo a passo, do tal programa emulador de mente. De forma que quando o programa gera bit 1 a linha de produção faz um peça amarela, e quando o programa gera bit 0 a peça é azul.
Se aceitamos a tese funcionalista como plausível temos que aceitar que essa fábrica se tornaria consciente também. Para surpresa do próprio engenheiro e dos funcionários.
Várias perplexidades emergem desta conjectura: não estamos vendo, em lugar nenhum, processos que poderiam ser interpretados como algoritimicos ( e nossa vida é cercada deles ) desenvolverem mentes em seus substratos. Os únicos exemplos são os processos que ocorrem em sistemas nervosos de máquinas biológicas.
Se estes seres são máquinas computacionais, da forma como atualmente entendemos que seja uma, então as mesmas funcionalidades poderiam ser reproduzidas em infinitos substratos diferentes. Não só isso! Deveria haver muitos, talvez uma infinidade, de processos algorítimicos diferentes capazes de produzir os mesmos resultados.
Por exemplo: não há só uma forma de ordenar uma lista, há inúmeras.
Então, se o funcionalismo deve ser levado a sério, a natureza, por puro acaso, entre infinitas possibilidades, programou os algorítimos "certos" nos sistemas nervosos das máquinas biológicas. Tipo... já dá para imaginar, já não parece tão longe, o tal robô-formiga. Que vai fazer tudo que a formiga faz. Contudo não terá uma mente primitiva como talvez seja o caso da formiga.
Se levarmos em consideração que consciência não traz nenhuma vantagem do ponto de vista evolutivo, fica difícil explicar até mesmo sob a luz da Teoria da Evolução, o porquê do surgimento dessa especificidade, se na perspectiva funcionalista ela parece ser apenas uma possibilidade entre inúmeras.
No sentido de que uma máquina biológica autômata que fizesse tudo que uma máquina biológica consciente faz, porém sem consciência, não teria nenhuma desvantagem de sobrevivência e reprodutiva, em relação a seres conscientes.
Aí é que surge a relevância do que você chama de "modelo computacional estrito". Porque se você diz, como realmente disse, que:
[...] não tem nenhuma abordagem teórica do problema de inteligência ou até mesmo consciência que não possa ser em última instância dita "computacionalista", ainda que possa requerer programas mais complexos, ou a interação entre diferentes programas rodando simultâneamente, versus um cenário mais extremamente simplificado.
é preciso saber com base em quê você diz isso. Porque para a abordagem "computacionalista", e isso estou especificamente tentando demonstrar, o que não é relevante é se o programa é simples ou complexo, se executado com múltiplos processadores ou apenas um, etc... Estas características e outras não ampliam os limites da computabilidade de uma máquina de Turing.
A relevância reside no fato de que tudo que o homem sabe construir até hoje e que pode ser chamado de computador pode ser reduzido a uma máquina de Turing. Inclusive os computadores quânticos.
Embora eu não esteja muito inteirado sobre computadores quânticos, sei que podem ser simulados por máquinas Turing. Embora estes computadores prometam resolver alguns daqueles problemas que mencionamos, considerados intratáveis no atual paradigma. Mas isto devido a rapidez de cálculo, que seria realizado de uma forma não semelhante a dos computadores atuais.
Não é portanto uma questão de jacaré ou crocodilo. Se tudo que conseguimos conceber como "computacionalista" até hoje, pode ser equiparado a um modelo do tipo de máquina Turing, e se, aparentemente ( talvez só aparentemente ) o cérebro faz algumas coisas que parecem não computáveis, isso significaria que a abordagem computacionalista não é capaz de resolver o problema.
Ainda dentro desse conceito de "computacionalista" não tenho grandes objeções a que o cérebro possa ser comparado a uma máquina ( e até que essa máquina tenha como resultado a mente ), mas... tenho muitas dúvidas legítimas de que:
o cérebro é um computador e em tese um computador poderia ser construído ou programado para funcionar como um cérebro,
Por todas estas considerações já feitas o cérebro pode até ser uma máquina, mas devemos considerar a hipótese de que não seja uma máquina programável.
Eu chutaria que não é. Por isso a importância de saber se é jacaré ou crocodilo.