Vídeo interessante sobre o assunto:
http://www.youtube.com/v/QYfhwXrHwSs
(o som está terrivelmente baixo)
Kevin O'Regan
CNRS - University Paris Descartes
On the topic of:
Why red doesn't sound like a bell: the sensorimotor approach, with computational and empirical applications
ELSC-ICNC lecture hall (Silverman Bldg., Wing 3, 6th floor - Edmond J. Safra Campus)
February 17, 2011
Abstract:
Why does red look red, rather than looking green, or rather than sounding like a bell? Indeed why does red have a feel at all? Why do pains hurt instead of just provoking avoidance reactions?
The "sensorimotor" approach provides a way of answering these questions by appealing to the idea that feels like red and pain should not be considered as things that are generated in the brain, but rather as things that we do. I shall show how this a priori counter-intuitive idea gives rise to successful computational models and/or empirical predictions about space and color perception and sensory substitution. In addition to helping understand human consciousness, the approach has applications in virtual reality and in robotics.
Não sei se vou saber resumir o argumento. O básico talvez seja que ele rejeita a noção de que o cérebro criaria uma "realidade virtual" ou "representações" a partir dos estímulos sensoriais.
Talvez devesse ter só passado o link do site antes de escrever tudo que escrevi abaixo:
http://nivea.psycho.univ-paris5.fr/Acho que ele faz uma analogia com tato. A imagem que vemos seria algo como "tatear fótons", que calham de convenientemente estar incidindo na forma de uma imagem. Do tato talvez não se tenha tanta a sensação de ser requerida uma "representação", o tato parece ser mais "imediato". Achei curioso que ele ainda mencionou coisas como os "pontos cegos" da visão e outros fatores todos que, eu interpretaria até mais na outra direção, no sentido da visão ser algo menos "cru", mas com mais "filtros" para manter a representação coerente. Mas de alguma forma (que vou ter que ver de novo/ler mais para entender) ele vê isso dentro dessa perspectiva que nega a "geração" de imagens.
Ainda dentro dessa analogia, achei interessante uma explicação que acho que ele diz ser já de Descartes. As pessoas muitas vezes ficam meio confusas com o fato da imagem ser projetada invertida nos olhos, pensando que isso requer que seja novamente invertida, como se fosse ser projetada para um "homúnculo" que fica na mesma orientação do "corpo externo". Inclusive até mais ou menos recentemente acho que um criacionista aqui disse algo que passou essa impressão, ou talvez tenha dito mais explicitamente até, não me lembro se consegui dar alguma explicação simples e clara.
A analogia de Descartes era a de que você não vai ter qualquer confusão espacial entre o que está na esquerda e na direita se, de olhos vendados, usar duas bengalas cruzadas para se orientar. Outra analogia talvez seja com o fato de que colocar o gabinete do seu PC de cabeça para baixo não faz a imagem do monitor se inverter. Nem a imagem vinda da webcam.
Ele argumenta que sob essa perspectiva filosófica está essencialmente fadada ao fracasso ou gravemente equivocada a noção de busca por correlatos neurais da consciência. Também diz que essa perspectiva está sendo bastante frutífera como paradigma científico, em coisas como substituições sensoriais (uso de equipamentos para fornecer informações de um "sentido" ou tipo através de outro, como uma câmera que converte imagens em informação tátil).
Acho que é o que mais se aproxima do que o que consigo "entender" do que o Cientista posta aqui, embora ele não seja "eliminacionista" de qualia, e em forma diametralmente oposta, defende essas idéias como inovações filosóficas de grande importância, em contraste com iniciativas "científicas".
Eu acho que esse tipo de coisa pode ser relevante nas tentativas de desenvolvimento de inteligência artificial, em especial se a idéia for aproximação da inteligência humana. Acho que sugere algo como que seria meio fútil tentar pensar em uma inteligência muito análoga a humana mas "em um computador", estático, a inteligência seria mais ou menos intrinsicamente ligada aos "periféricos" e como eles exploram o mundo. Acho que até já existem algumas iniciativas assim, há algum tempo li qualquer coisa sobre a noção de ter algo análogo ao desenvolvimento/crescimento biológico/embrionário ou ao menos infância no desenvolvimento de IA. Mas talvez fosse apenas um "experimento mental" ou ainda algo de alguma forma ligado a uma questão moral hipotética, não lembro bem. Acho que também se parece com as idéias do Alva Noë nesse sentido, e talvez conflite com as noções de fazer cópias digitais do "eu" e colocar em "hardware" muito diferente, como sugerem as noções "funcionalistas" mais tradicionais.
Acho que essas noções de "não-representação" tem algum suporte em achados de neurologia (no sentido de não haver algo meio análogo a um "cockpit" ou processamento central dando ordem em tudo, no cérebro), mas acho que também é um pouco "misto". No fim acho que ele fala algo que talvez possa ser entendido dessa forma. Não achei tão esclarecedor quanto o título promete, de qualquer forma. Mas talvez só não tenha entendido direito.