Mas você concorda em que morcegos fazem um mapa em 3D, talvez até melhor que o nosso, enquanto voam ? É isso justamente que quero dizer quanto à dificuldade nesse exemplo (ou não, talvez o exemplo está certo e eu é que estou entendendo errado sobre 'qualia').
Os morcegos certamente fazem um mapa 3d, mas não sei se eles tem uma experiência/representação visual-mental, ou sequer auditiva-mental, desse mapa. Eu não digo que "não sei" com o intuito principal de colocar isso em dúvida, poderia ser muito bem que tivessem a experiência auditiva, mas fossem visualmente cegos, ou que tivessem uma experiência visual com base principalmente em informações não-óticas. Mas também poderia ser até que outras coisas que tipicamente não se pensa ter qualquer experiência subjetiva, tenham.
Justamente mencionar os morcegos me demonstra que você compreendeu exatamente o que quis dizer quanto a adjetivo: imagine um morcego inteligente tentar transmitir para você o que ele vê. Se ele conseguir, digamos com fórmulas matemáticas para fazer um mapa 3D do que ele 'vê' pela ecolocalização, então essa transmissão do conhecimento pressupõe uma inteligência.
Mas vermelho não, porque vermelho é um conceito humano.
Na verdade eu não estou nem um pouco certo de que estamos nos entendendo... a questão não é inteligência. Como dito no trecho do texto do Chalmers que eu coloquei, inteligência é um dos problemas "fáceis" que podem ser colocados no saco de conceitos rotulado de "consciência". Não tenho dúvida alguma que diversos animais tem diversos graus de inteligência bem análoga (ou melhor, até "homóloga") à humana.
Inteligência se dá com diferentes níveis de processamento das informações do ambiente que chegam através dos sentidos, isso é simples, "fácil". Agora, por que, ao menos no nosso caso, e presumivelmente em outros, as informações provenientes dos sentidos e outras coisas nas nossas mentes são acompanhadas de experiências subjetivas, é uma incógnita. Teoricamente, poderiam não existir, se supomos que outras coisas com capacidade de processamento de informação, não as tem.
Podemos fazer um robô que seja razoavelmente inteligente, que ande por aí e execute algumas funções, mas geralmente não pensamos que eles tenham qualquer tipo de experiência, seja como a nossa, ou como de outros os animais.
Intuitivamente não conseguimos pensar que faz sentido nos colocarmos "na pele" do robô simplese imaginarmos como seria sê-lo, ou julgamos que isso é um tipo de antropomorfização infantil. Intuitivamente, é mais aceitável com outros animais, e não com plantas ou animais antes do desenvolvimento do cérebro.
Mas temos razão para essa distinção? O que há no nosso cérebro, ou nos cérebros de outros animais que julgamos fazer mais sentido nos imaginarmos como "sendo" eles, que difere tanto de um robô?
Por que o processamento das informações ambientais captadas pelo robô não resultaria em experiência cognitiva, enquanto que as de uma barata, ou talvez de um camundongo, resultariam? Precisa ser em circuitos de neurônios, e com silício não daria certo? Por que? Não fazemos idéia.
Talvez a experiência subjetiva de um robô fique mais crível se supusermos um que simulasse o cérebro humano em todos os fluxos de processamento de informação - como demonstrou o Agnóstico. Mas não temos razão verdadeira para dizer que isso realmente daria ao robô a experiência subjetiva igual à que temos. Não que não seja uma boa aposta, de qualquer forma.
A coisa é evidenciada como um tiro no escuro se pensamos em então ir regredindo evolutivamente o grau de complexidade do robô, de forma análoga à complexidade decrescente conforme voltamos na árvore filogenética humana. Quando é que "desapareceriam" as experiências subjetivas dos robôs? Não sabemos (e nem na filogenia "de verdade), porque simplesmente não sabemos exatamente o que as produz.