Não é prova de nada. É apenas apelo a incredulidade.
E acho que há uma confusão aí entre um programa com instruções definidas, que não poderia ser consciente, e o programa em execução num computador (ou ainda, o programa em execução "isolado" do computador, consciente de um "ambiente" definido no computador -- mas não de estar em execução num computador*), que teoricamene talvez possa, talvez dependendo do hardware permitir quaisquer operações necessárias, ou ainda, disso que se atribui ao hardware poder ser simulado de maneira suficientemente "isomórfica", sem ele.
Apelo a incredulidade é quando alguém considera que algo é muito difícil de entender, ou então não é capaz de conceber como funciona, e a partir disso conclui equivocadamente que seja impossível a ocorrência de tal fenômeno.
Você está subestimando imensamente a Ciência da Computação.
Não sei. Acho que é o contrário. Acho que mencionei que praticamente toda "teoria da mente" fisicalista/materialista é em algum grau "computacional", ao menos em termos leigos de "computacional". Só deixa de ser nalgum sentido bem mais técnico estrito, que provavelmente nem é um limite real do que computadores podem fazer, ou, teoricamente poderiam fazer.
Só não poderia ser o caso da consciência poder ser reproduzida por computadores se o "hardware" neuronal necessário tiver algo intrínseco a sua física em algum nível mais baixo (molecular, quântico) que não possa ser de alguma forma reproduzido no que isso confere em termos de processamento de dados. Teoricamente poderia ser reproduzido talvez só em resultado, talvez houvesse a necessidade de uma reprodução mais literal (fugindo então do hipotético problema da sala chinesa, se realmente se aplicar). E simplesmente não sabemos se é o caso.
O problema da parada do programa é formalmente demonstrável como um destes problemas não computáveis por qualquer sistema equivalente a uma máquina de Turing. Assim como existem outros problemas também demonstravelmente não computáveis.
Contudo um programador é capaz de identificar se um programa pára ou entra em loop.
Programas supervisores também podem fazer isso, talvez até subrotinas supervisoras possam fazer isso.
Se partirmos do pressuposto que é unicamente a atividade cerebral do programador a responsável por solucionar este problema podemos inferir disso que o cérebro humano não pode ser inteiramente simulado pelo atual paradigma de computadores eletrônicos.
Esse pressuposto não tem sentido. Nesse contexto, parece ter como outro pressuposto que a idéia fosse que um programa consciente fosse ter no máximo uns 2 mb, e ser só um "thread" de processamento, em vez de ter processamentos paralelos e etc e tal.
[...]
Porém o programa visto como uma semântica é um substantivo abstrato. A semântica é a funcionalidade do programa, que tarefa realiza, para que serve, a sua função. A semântica não pode ser identificada com nada físico, não tem existência em si mesma, mas é a forma como a mente interpreta e atribui um significado àquela sequência de instruções. A semântica é a experiência necessariamente consciente da interpretação do programa.
Cortei todo o resto porque não entendo exatamente o que constitui uma "máquia de Turing", e me parece que simplesmente tem limitações arcaicas que não fazem sentido se levar em consideração mais como limitação de máquinas em ter mentes.
Quanto ao trecho sublinhado, acho que não. Semântica da execução é em última instância algo físico. OU computadores são conscientes porque sabem executar os programas, o que só pode ser verdadeiro num sentido como de "consciência fraca", em vez de uma "antropomorfização" dos computadores. São em última instância restrições físicas ao comportamento de um sistema. O próprio DNA e o genoma têm semântica. A "interpretação do programa", ou da semântica, é meramente o sistema em funcionamento, agindo sob suas restrições físicas, inerentes a sua própria constituição.
Então quaisquer animais (e mesmo não-animais; na verdade, qualquer ser vivo ou vírus com DNA, sob essa perspectiva do DNA como programa e hardware) podem ter programas rudimentares sem ser já conscientes e entenderem eles mesmo qualquer semântica inerente ao seu funcionamento.
Tente atentar para um detalhe importante ao qual eu já havia aludido implicitamente: o MESMO programa pode ser executado por infinitos processos físicos diferentes. O mesmíssimo programa, exatamente da mesma forma, pode ser executado por um computador eletrônico, por um dispositivo mecânico como o que Babbage concebeu, por um computador hidráulico, ou até mesmo por um macaco treinado para reconhecer símbolos e realizar tarefas simples relativas a cada simbolo.
Talvez. No mínimo diferentes sistemas físicos têm enormes diferenças de velocidade de processamento. O que de qualquer forma suscita a interessante questão: um cérebro, fazendo tudo que faz, um bilhão de vezes mais
lento (digamos que ainda interagisse com um ambiente compatível com essa velocidade), seria ainda consciente? É um bocado contra-intuitivo, mas a resposta parece ser necessariamente "sim". "Apenas" demoraria um bilhão de vezes mais para interagir com um ambiente também um bilhão de vezes mais lento, exatamente da forma que rotulamos de "consciente" quando ocorre na velocidade natural. Por outro lado, esse cenário, bem como outros cenários alternativos que se imagine, talvez sofram de problemas equivalentes àqueles usados para ilustrar coisas "malucas" da física, como "seres bidimensionais assistindo a passagem de uma forma dridimensional". Coisas que não existem. Como talvez seja o caso com diversas hipóteses de hardware alternativo que faça exatamente aquilo que fazem cérebros quando conscientes. Continuo com esse ponto mais adiante.
Intuitivamente muitos parecem achar que é resultante da interação entre programa e máquina. Que se aprendermos a escrever o programa certo este despertaria a consciência no hardware, ou alguma consciência surgiria de alguma forma, não necessariamente localizada em alguma coisa.
Mas se assim fosse poderíamos inferir que esta sofisticada implementação de inteligência
artificial seria capaz de produzir o fenômeno da experiência subjetiva em qualquer meio
que a estivesse executando: fosse um desktop da IBM, um dispositivo hidráulico ou por meio de um chimpanzé executando tarefas por reflexo condicionado.
A essa perspectiva se dá o nome de "funcionalismo".
Não parece nem de longe ser uma hipótese razoável a se considerar.
Acho que é de longe a hipótese mais aceita. Não digo isso como corroboração, apenas é o que me parece ser o estado das coisas atualmente, e já há um bom tempo.
Especialmente quando se percebe que o sistema executor é absolutamente indiferente ao que está sendo executado. Da mesma forma que uma máquina de lavar é indiferente ao que você coloca dentro dela.
Se você carregar a memória do computador com uma sequência aleatória de instruções de máquina e apontar o registrador de instruções com o endereço da primeira instrução ele vai começar a executar este programa que não faz absolutamente nada; e um programa que não faz absolutamente nada obriga a máquina a realizar os mesmos processos físicos de um programa que performe alguma função específica, identificável. Porque a identificação da função do programa, ou seja, a identificação da sua semântica, só existe para o usuário, não para a máquina.
Por outro lado o mesmíssimo programa sendo executado em outro hardware com tecnologia inteiramente diferente ( mas seguindo ainda o mesmo paradigma lógico ) estaria desencadeando fenômenos físicos absolutamente diversos.
Então temos a questão de se a consciência é real ou é uma ilusão. Se é um fenômeno concreto deve ter como causa algum fenômeno, ou conjunto de fenômenos, intrínsecos à natureza do universo. Assim como gravidade ou a força elétrica, embora não totalmente compreendidas, devem estar relacionadas com algo da própria estrutura do universo. De outra forma teríamos que atribuir uma condição sobrenatural a estes fenômenos.
Se assim for não há nenhuma razão para se conjecturar que a execução de um programa é capaz de originar o fenômeno da experiência subjetiva. Porque a execução de nenhum programa está necessariamente condicionada a nenhum fenômeno físico específico, sendo possível executar qualquer programa de uma máquina equivalente a de Turing, por meio de infinitos processos físicos diferentes. Como já mencionei.
Talvez o que ocorra seja de haver uma alta especificidade do programa para o hardware. Conforme disse antes, o programa e sua semântica são restrições físicas no comportamento de um sistema. No caso de cérebros, isso é tão mais forte a ponto de nem bem existir um "programa" fortemente análogo ao de computador, uma série de instruções "espacialmente delimitadas" que são lidas e postas em execução por parte do sistema. É um "híbrido" de hardware e software (mesmo o software de computador ainda é "parte hardware", não é uma mágica etérea, apenas é menos "híbrido" em computadores convencionais), e talvez então o funcionamento desse sistema tenha em sua física inerente algo fundamentais para certos aspectos a consciência. Uma analogia seria uma máquina ter, como parte fundamental de seu funcionamento, magnetismo gerado por eletricidade. Isso é algo inerente à física do sistema; a analogia hidráulica é boa para um entendimento didático de sistemas elétricos, mas você não gera um hidro-eletroíma com uma mangueira enrolada em torno de um outro cano com água. (Imagino que nem mesmo deve ocorrer qualquer variação significativamente proporcional no comportamento diamagnético da água, e não necessariamente na mesma direção, caso ocorra algo). Então aí se tem uma perspectiva mais Searlesca ou meio intermediária, menos taxativa nisso de "impossibilidade" de máquinas não-biológicas conscientes.
Mas acho que funcionalistas ainda poderiam continuar argumentando que, o que quer que a física específica da atividade cerebral faça, teoricamente poderia ser funcionalmente obtida com alguma outra estrutura. Algo como, naquilo que precisasse de um hidro-eletroíma, talvez pudesse trapacear e ter um motor hidráulico que puxa uma corda amarrada ao que fosse movido por magnetismo.
Contudo se a consciência é uma ilusão me parece dificil explicar o que é que está experenciando esta ilusão sem incorrer em lógica circular. Porque a ilusão em si é uma forma de experiência subjetiva; não faz sentido dizer que um tijolo ou um toco de pau está tendo ilusões. Ilusão também é um substantivo abstrato e portanto suposta, ela própria, como experiência subjetiva.
A experiência subjetiva de ter a ilusão de ter experiência subjetiva...