Autor Tópico: Inteligência artificial  (Lida 15212 vezes)

0 Membros e 1 Visitante estão vendo este tópico.

Offline Pedro Reis

  • Nível 39
  • *
  • Mensagens: 4.085
Re:Inteligência artificial
« Resposta #25 Online: 28 de Fevereiro de 2016, 17:59:42 »
Será que houve uma vez algum robô que se rebelou ou executou algo no qual não estava programado?

Isso seria a prova que se trata de um robô consciente.

http://www1.folha.uol.com.br/mercado/2015/07/1650682-trabalhador-e-morto-por-robo-em-fabrica-da-volkswagen-na-alemanha.shtml

Isso é impossível para uma máquina de Turing a não ser por defeito.

Quando você liga um processador ele é construído para buscar a primeira instrução em algum endereço pré-definido da memória. O processador executa esta instrução e está projetado de tal forma que após executar esta instrução ele irá buscar a instrução seguinte na sequência da memória. A não ser que esta instrução seja uma instrução de desvio, que pode ser um desvio absoluto, ou condicional. Condicional quando o desvio depende do dado da instrução.

Esse processo continua enquanto a máquina estiver ligada. A não ser que ocorra um defeito no hardware o processador não pode ganhar vida própria e decidir executar uma outra instrução qualquer, do mesmo modo que uma máquina de lavar não vai, por conta própria, separar as roupas coloridas, a não ser que algum brilhante engenheiro a tenha projetado para fazer isto.

Offline Luiz F.

  • Nível 30
  • *
  • Mensagens: 1.752
  • Sexo: Masculino
Re:Inteligência artificial
« Resposta #26 Online: 28 de Fevereiro de 2016, 18:05:11 »
"Você realmente não entende algo se não consegue explicá-lo para sua avó."
Albert Einstein

Offline Pedro Reis

  • Nível 39
  • *
  • Mensagens: 4.085
Re:Inteligência artificial
« Resposta #27 Online: 28 de Fevereiro de 2016, 18:08:09 »
Aliás, por isso uma das coisas que você pode demonstrar que um computador não é capaz de fazer, um exemplo de problema não computável, é a geração de números aleatórios.

Os programas precisam trabalhar com um tabela pré-gravada de números pseudo-aleatórios, e uma função de geração.

A sua questão seria equivalente a questionar se o robô poderia gerar um evento aleatório. Ele não pode. É possível simular eventos aleatórios perfeitamente, como você deve ter visto em jogos de cartas ou games, mas não um evento aleatório real.

No sentido de que sempre é possível ( em tese ) prever o que a máquina de vai fazer se você conhece o programa, a tabela de números pseudo-aleatórios, a função de geração e a "semente" usada para simulação do evento aleatório.

Um evento realmente aleatório, por definição, não pode ser determinístico.

Offline Luiz F.

  • Nível 30
  • *
  • Mensagens: 1.752
  • Sexo: Masculino
Re:Inteligência artificial
« Resposta #28 Online: 28 de Fevereiro de 2016, 18:16:30 »
Bom, tem toda a questão quase filosófica da existência de aleatoriedade real no universo, ou se toda a aparente aleatoriedade vem na verdade de impossibilidade de se conhecer e controlar todas as variáveis, não havendo de fato eventos que se pudesse chamar de aleatórios "de verdade".
"Você realmente não entende algo se não consegue explicá-lo para sua avó."
Albert Einstein

Offline Pedro Reis

  • Nível 39
  • *
  • Mensagens: 4.085
Re:Inteligência artificial
« Resposta #29 Online: 28 de Fevereiro de 2016, 18:25:21 »
Bom, tem toda a questão quase filosófica da existência de aleatoriedade real no universo, ou se toda a aparente aleatoriedade vem na verdade de impossibilidade de se conhecer e controlar todas as variáveis, não havendo de fato eventos que se pudesse chamar de aleatórios "de verdade".

Isso é verdade. Mas para efeitos práticos consideramos como evento aleatório um evento para o qual você não é capaz de construir um modelo de previsão exata.

Neste sentido é que um programa não pode gerar por si mesmo um evento aleatório. No máximo ele poderia usar um artifício de, por exemplo, para tomar uma decisão utilizar o dado corrente no buffer do teclado. Como o programa não pode prever o que o usuário irá teclar isto seria um evento pseudo-aleatório.

Mas se você conhece o programa e os dados a qualquer momento o que ele vai fazer pode ser determinado.


Offline Gigaview

  • Nível Máximo
  • *
  • Mensagens: 15.604
Re:Inteligência artificial
« Resposta #30 Online: 28 de Fevereiro de 2016, 18:33:10 »
Quando fazemos uso do nosso cérebro (pensando, calculando ou raciocinando), significa que por dentro, sinais elétricos são transmitidos via sinapse (o sinal elétrico é convertido num sinal químico, que em seguida é reconvertido num sinal elétrico) de um neurônio para outro, através de redes de trilhões de neurônios.

Mais ou menos, a maioria das sinapses dos mamíferos são sinapses químicas, mas existe uma forma simples de sinapse elétrica que permite a transferência direta da corrente iônica de uma célula para a célula seguinte. As sinapses elétricas ocorrem em locais especializados chamados junções. Elas formam canais que permitem que os ions passem diretamente do citoplasma de uma célula para o citoplasma da outra. A transmissão nas sinapses elétricas é muito rápida; assim, um potencial de ação no neurônio pré-sináptico, pode produzir quase que instantaneamente um potencial de ação no neurônio pós-sináptico. Sinapses elétricas no sistema nervoso central de mamíferos, são encontradas principalmente em locais especiais onde funções normais exigem que a atividade dos neurônios vizinhos seja altamente sincronizada. Embora as junções sejam relativamente raras entre os neurônios de mamíferos adultos, eles são muito comuns em uma grande variedade de células não neurais, inclusive as células do músculo liso cardíaco, células epiteliais, algumas células glandulares, glia, etc. Elas também são comuns em vários invertebrados.

Seria como comparar aquilo a um conjunto de trilhões de dominós em linhas. Quando derrubamos um dominó, ele vai derrubar progressivamente os outros dominós na mesma linha ou das outras linhas que se conectam.
A questão é: como explicar a ação responsável por derrubar o primeiro dominó?

Não se explica, se eu entendi sua pergunta. Seria como perguntar como surgiu o "primeiro coelho".


Você esqueceu de citar a fonte do seu texto: http://www.biomania.com.br/bio/conteudo.asp?cod=4058
Brandolini's Bullshit Asymmetry Principle: "The amount of effort necessary to refute bullshit is an order of magnitude bigger than to produce it".

Pavlov probably thought about feeding his dogs every time someone rang a bell.

Offline Sdelareza

  • Nível 15
  • *
  • Mensagens: 392
Re:Inteligência artificial
« Resposta #31 Online: 28 de Fevereiro de 2016, 19:14:40 »

Essa é a apostila na qual me baseei em grande parte para citar meus exemplos:
http://docente.ifrn.edu.br/avelinolima/disciplinas/filosofia-da-mente/livro-mentes-e-maquinas

Bem escrita, vale a pena ler para quem conhece pouco ou nada do assunto.

Offline Buckaroo Banzai

  • Nível Máximo
  • *
  • Mensagens: 38.735
  • Sexo: Masculino
Re:Inteligência artificial
« Resposta #32 Online: 28 de Fevereiro de 2016, 21:35:09 »
Será que houve uma vez algum robô que se rebelou ou executou algo no qual não estava programado?

Isso seria a prova que se trata de um robô consciente.

Não. Primeiramente pode ser só um bug de programação, se por "não estar programado para isso" se puder incluir uma "programação acidental". Em segundo lugar, e mais importante, não deve ser exatamente o caso de que a consciência permita a humanos "fugirem do seu programa". O que acontece é que o "programa" humano não determina um comportamento rígido -- é antes disso um "programa de sobrevivência autônoma", que para isso, é extremamente amplo em possibilidades de resultados, inclusive podendo chegar a falhar nessa função, como com suicídio. Isso não é algo fundamentalmente diferente de alguns programas de computador, que estabelece prioridades, que podem ser variáveis, e determinam diferentes comportamentos sob diferentes condições (incluindo condições de "aprendizado"/experiência passada).

Offline Buckaroo Banzai

  • Nível Máximo
  • *
  • Mensagens: 38.735
  • Sexo: Masculino
Re:Inteligência artificial
« Resposta #33 Online: 28 de Fevereiro de 2016, 22:31:59 »

Não é prova de nada. É apenas apelo a incredulidade.

E acho que há uma confusão aí entre um programa com instruções definidas, que não poderia ser consciente, e o programa em execução num computador (ou ainda, o programa em execução "isolado" do computador, consciente de um "ambiente" definido no computador -- mas não de estar em execução num computador*), que teoricamene talvez possa, talvez dependendo do hardware permitir quaisquer operações necessárias, ou ainda, disso que se atribui ao hardware poder ser simulado de maneira suficientemente "isomórfica", sem ele.


Apelo a incredulidade é quando alguém considera que algo é muito difícil de entender, ou então não é capaz de conceber como funciona, e a partir disso conclui equivocadamente que seja impossível a ocorrência de tal fenômeno.

Você está subestimando imensamente a Ciência da Computação.

Não sei. Acho que é o contrário. Acho que mencionei que praticamente toda "teoria da mente" fisicalista/materialista é em algum grau "computacional", ao menos em termos leigos de "computacional". Só deixa de ser nalgum sentido bem mais técnico estrito, que provavelmente nem é um limite real do que computadores podem fazer, ou, teoricamente poderiam fazer.

Só não poderia ser o caso da consciência poder ser reproduzida por computadores se o "hardware" neuronal necessário tiver algo intrínseco a sua física em algum nível mais baixo (molecular, quântico) que não possa ser de alguma forma reproduzido no que isso confere em termos de processamento de dados. Teoricamente poderia ser reproduzido talvez só em resultado, talvez houvesse a necessidade de uma reprodução mais literal (fugindo então do hipotético problema da sala chinesa, se realmente se aplicar). E simplesmente não sabemos se é o caso.



Citar
O problema da parada do programa é formalmente demonstrável como um destes problemas não computáveis por qualquer sistema equivalente a uma máquina de Turing. Assim como existem outros problemas também demonstravelmente não computáveis.

Contudo um programador é capaz de identificar se um programa pára ou entra em loop.

Programas supervisores também podem fazer isso, talvez até subrotinas supervisoras possam fazer isso.


Citar
Se partirmos do pressuposto que é unicamente a atividade cerebral do programador a responsável por solucionar este problema podemos inferir disso que o cérebro humano não pode ser inteiramente simulado pelo atual paradigma de computadores eletrônicos.

Esse pressuposto não tem sentido. Nesse contexto, parece ter como outro pressuposto que a idéia fosse que um programa consciente fosse ter no máximo uns 2 mb, e ser só um "thread" de processamento, em vez de ter processamentos paralelos e etc e tal.



Citar
[...]
Porém o programa visto como uma semântica é um substantivo abstrato. A semântica é a funcionalidade do programa, que tarefa realiza, para que serve, a sua função. A semântica não pode ser identificada com nada físico, não tem existência em si mesma, mas é a forma como a mente interpreta e atribui um significado àquela sequência de instruções. A semântica é a experiência necessariamente consciente da interpretação do programa.

Cortei todo o resto porque não entendo exatamente o que constitui uma "máquia de Turing", e me parece que simplesmente tem limitações arcaicas que não fazem sentido se levar em consideração mais como limitação de máquinas em ter mentes.

Quanto ao trecho sublinhado, acho que não. Semântica da execução é em última instância algo físico. OU computadores são conscientes porque sabem executar os programas, o que só pode ser verdadeiro num sentido como de "consciência fraca", em vez de uma "antropomorfização" dos computadores. São em última instância restrições físicas ao comportamento de um sistema. O próprio DNA e o genoma têm semântica. A "interpretação do programa", ou da semântica, é meramente o sistema em funcionamento, agindo sob suas restrições físicas, inerentes a sua própria constituição.

Então quaisquer animais (e mesmo não-animais; na verdade, qualquer ser vivo ou vírus com DNA, sob essa perspectiva do DNA como programa e hardware) podem ter programas rudimentares sem ser já conscientes e entenderem eles mesmo qualquer semântica inerente ao seu funcionamento.



Citar
Tente atentar para um detalhe importante ao qual eu já havia aludido implicitamente: o MESMO programa pode ser executado por infinitos processos físicos diferentes. O mesmíssimo programa, exatamente da mesma forma, pode ser executado por um computador eletrônico, por um dispositivo mecânico como o que Babbage concebeu, por um computador hidráulico, ou até mesmo por um macaco treinado para reconhecer símbolos e realizar tarefas simples relativas a cada simbolo.

Talvez. No mínimo diferentes sistemas físicos têm enormes diferenças de velocidade de processamento. O que de qualquer forma suscita a interessante questão: um cérebro, fazendo tudo que faz, um bilhão de vezes mais lento (digamos que ainda interagisse com um ambiente compatível com essa velocidade), seria ainda consciente? É um bocado contra-intuitivo, mas a resposta parece ser necessariamente "sim". "Apenas" demoraria um bilhão de vezes mais para interagir com um ambiente também um bilhão de vezes mais lento, exatamente da forma que rotulamos de "consciente" quando ocorre na velocidade natural. Por outro lado, esse cenário, bem como outros cenários alternativos que se imagine, talvez sofram de problemas equivalentes àqueles usados para ilustrar coisas "malucas" da física, como "seres bidimensionais assistindo a passagem de uma forma dridimensional". Coisas que não existem. Como talvez seja o caso com diversas hipóteses de hardware alternativo que faça exatamente aquilo que fazem cérebros quando conscientes. Continuo com esse ponto mais adiante.




Citar
Intuitivamente muitos parecem achar que é resultante da interação entre programa e máquina. Que se aprendermos a escrever o programa certo este despertaria a consciência no hardware, ou alguma consciência surgiria de alguma forma, não necessariamente localizada em alguma coisa.

Mas se assim fosse poderíamos inferir que esta sofisticada implementação de inteligência
artificial seria capaz de produzir o fenômeno da experiência subjetiva em qualquer meio
que a estivesse executando: fosse um desktop da IBM, um dispositivo hidráulico ou por meio de um chimpanzé executando tarefas por reflexo condicionado.

A essa perspectiva se dá o nome de "funcionalismo".


Citar
Não parece nem de longe ser uma hipótese razoável a se considerar.

Acho que é de longe a hipótese mais aceita. Não digo isso como corroboração, apenas é o que me parece ser o estado das coisas atualmente, e já há um bom tempo.


Citar
Especialmente quando se percebe que o sistema executor é absolutamente indiferente ao que está sendo executado. Da mesma forma que uma máquina de lavar é indiferente ao que você coloca dentro dela.

Se você carregar a memória do computador com uma sequência aleatória de instruções de máquina e apontar o registrador de instruções com o endereço da primeira instrução ele vai começar a executar este programa que não faz absolutamente nada; e um programa que não faz absolutamente nada obriga a máquina a realizar os mesmos processos físicos de um programa que performe alguma função específica, identificável. Porque a identificação da função do programa, ou seja, a identificação da sua semântica, só existe para o  usuário, não para a máquina.

Por outro lado o mesmíssimo programa sendo executado em outro hardware com tecnologia inteiramente diferente ( mas seguindo ainda o mesmo paradigma lógico ) estaria desencadeando fenômenos físicos absolutamente diversos.

Então temos a questão de se a consciência é real ou é uma ilusão. Se é um fenômeno concreto deve ter como causa algum fenômeno, ou conjunto de fenômenos, intrínsecos à natureza do universo. Assim como gravidade ou a força elétrica, embora não totalmente compreendidas, devem estar relacionadas com algo da própria estrutura do universo. De outra forma teríamos que atribuir uma condição sobrenatural a estes fenômenos.

Se assim for não há nenhuma razão para se conjecturar que a execução de um programa é capaz de originar o fenômeno da experiência subjetiva. Porque a execução de nenhum programa está necessariamente condicionada a nenhum fenômeno físico específico, sendo possível executar qualquer programa de uma máquina equivalente a de Turing, por meio de infinitos processos físicos diferentes. Como já mencionei.

Talvez o que ocorra seja de haver uma alta especificidade do programa para o hardware. Conforme disse antes, o programa e sua semântica são restrições físicas no comportamento de um sistema. No caso de cérebros, isso é tão mais forte a ponto de nem bem existir um "programa" fortemente análogo ao de computador, uma série de instruções "espacialmente delimitadas" que são lidas e postas em execução por parte do sistema. É um "híbrido" de hardware e software (mesmo o software de computador ainda é "parte hardware", não é uma mágica etérea, apenas é menos "híbrido" em computadores convencionais), e talvez então o funcionamento desse sistema tenha em sua física inerente algo fundamentais para certos aspectos a consciência. Uma analogia seria uma máquina ter, como parte fundamental de seu funcionamento, magnetismo gerado por eletricidade. Isso é algo inerente à física do sistema; a analogia hidráulica é boa para um entendimento didático de sistemas elétricos, mas você não gera um hidro-eletroíma com uma mangueira enrolada em torno de um outro cano com água. (Imagino que nem mesmo deve ocorrer qualquer variação significativamente proporcional no comportamento diamagnético da água, e não necessariamente na mesma direção, caso ocorra algo). Então aí se tem uma perspectiva mais Searlesca ou meio intermediária, menos taxativa nisso de "impossibilidade" de máquinas não-biológicas conscientes.

Mas acho que funcionalistas ainda poderiam continuar argumentando que, o que quer que a física específica da atividade cerebral faça, teoricamente poderia ser funcionalmente obtida com alguma outra estrutura. Algo como, naquilo que precisasse de um hidro-eletroíma, talvez pudesse trapacear e ter um motor hidráulico que puxa uma corda amarrada ao que fosse movido por magnetismo.



Citar
Contudo se a consciência é uma ilusão me parece dificil explicar o que é que está experenciando esta ilusão sem incorrer em lógica circular. Porque a ilusão em si é uma forma de experiência subjetiva; não faz sentido dizer que um tijolo ou um toco de pau está tendo ilusões. Ilusão também é um substantivo abstrato e portanto suposta, ela própria, como experiência subjetiva.

A experiência subjetiva de ter a ilusão de ter experiência subjetiva...

Offline Sdelareza

  • Nível 15
  • *
  • Mensagens: 392
Re:Inteligência artificial
« Resposta #34 Online: 28 de Fevereiro de 2016, 22:44:09 »
Será que um computador pode reconhecer uma piada?

Impossível, porque ele não tem nenhum conhecimento semântico da linguagem.

Será que um computador pode compor sozinho uma sinfonia ou uma bela melodia?

Impossível. Pelo mesmo motivo citado acima. Algum tipo de consciência é necessária para encaixar notas musicais em harmonias.

Alguém veria outros exemplos?

Offline Buckaroo Banzai

  • Nível Máximo
  • *
  • Mensagens: 38.735
  • Sexo: Masculino
Re:Inteligência artificial
« Resposta #35 Online: 28 de Fevereiro de 2016, 22:53:13 »
Existem programas que tentam fazer ambas as coisas, conseguindo com algum sucesso debatível, sem no entanto serem conscientes para isso, sem nem se "tentar" que sejam.

De modo geral ninguém pensa que computadores já sejam conscientes "em segredo", ou com esse potencial latente escondido de alguma forma, que fossem de repente "acordar". Qualquer possibilidade de computadores se tornarem/serem feitos conscientes de forma fortemente análoga à consciência animal/humana, é dependente de serem desenvolvidos programas (e talvez até hardware específico) voltados para isso, o que não ocorrerá do dia para a noite.

Offline Sdelareza

  • Nível 15
  • *
  • Mensagens: 392
Re:Inteligência artificial
« Resposta #36 Online: 28 de Fevereiro de 2016, 23:00:38 »
Você poderia citar exemplos desses programas?

Offline Buckaroo Banzai

  • Nível Máximo
  • *
  • Mensagens: 38.735
  • Sexo: Masculino
Re:Inteligência artificial
« Resposta #37 Online: 28 de Fevereiro de 2016, 23:10:25 »
Citar
WHAT do you get when you cross a fragrance with an actor?

Answer: a smell Gibson.

Groan away, but you should know that this joke was written by a computer. “Smell Gibson” is the C.P.U. child of something called Standup (for System to Augment Non-Speakers’ Dialogue Using Puns), a program that generates punning riddles to help kids with language disabilities increase their verbal skills.

Though it’s not quite Louis C. K., the Standup program, engineered by a team of computer scientists in Scotland, is one of the more successful efforts to emerge from a branch of artificial intelligence known as computational humor, which seeks to model comedy using machines.

[...]

http://www.nytimes.com/2013/01/06/opinion/sunday/can-computers-be-funny.html?_r=0

https://en.wikipedia.org/wiki/Computational_humor#Joke_recognition

https://en.wikipedia.org/wiki/Generative_music#Software

Offline Pedro Reis

  • Nível 39
  • *
  • Mensagens: 4.085
Re:Inteligência artificial
« Resposta #38 Online: 29 de Fevereiro de 2016, 04:15:47 »
Buckaroo, eu pretendo comentar seu comentário mas não na ordem em que você o fez, porque não sei se é a mais adequada e porque acho que alguma introdução se faz necessária para se ter certeza que estamos falando das mesmas coisas e com o mesmo enfoque.

Agora não terei condições de completar meu comentário mas espero que no decorrer desta semana possa fazê-lo.

1 - Máquina de Turing, ou qualquer coisa equivalente, é apenas uma máquina conceitual,
acredito que ninguém jamais tenha construído uma. O fato importante é que as operações
logicas de qualquer computador convencional podem ser simuladas em uma máquina conceitual deste tipo. Uma máquina conceitual é uma generalização de um determinado paradigma de computação. É útil para investigarmos as características e potencialidades do paradigma.

Quantidade de memória, rapidez de processamento, processadores de múltiplos núcleos,
implementação de "threads", etc, não permitem que uma máquina transcenda as limitações intrínsecas da arquitetura de Turing. No sentido de que qualquer problema computável nesta máquina seria também FORMALMENTE computável em uma máquina de Turing. Friso o "formalmente" porque é isto que interessa, já que se uma máquina de Turing fosse realmente construída seria tão ineficiente em termos de desempenho que não teria utilidade alguma.

De fato, como um exemplo, em um processador de único núcleo o processamento paralelo é apenas uma ilusão criada pelo sistema operacional. Todo o processamento é sequencial, mesmo que assim não pareça. Mas qualquer um sabe por experiência que se instalar o mesmo sistema em um computador dotado de processador de múltiplos núcleos a sua máquina não adquire "potencialidades extras", não passa a ser capaz de realizar coisas que antes não podia. Apenas o sistema se torna mais rápido.

2 - O teorema da incompletude de Kurt Godel, citado na abertura do tópico, sustenta que em qualquer sistema formal há pelo menos uma afirmativa verdadeira que não pode ser provada dentro do sistema. Apenas utilizando-se dos formalismos do sistema.

Este teorema é a base do argumento, muito consistente por sinal,  do físico Roger Penrose, que infere que uma máquina de Turing - um sistema formal - não poderia jamais simular um cérebro humano porque aparentemente a mente humana não está restrita por esta limitação. Nós somos capazes de reconhecer a verdade de algumas sentenças sem prova-las formalmente. Em outras palavras somos capazes de reconhecer postulados ou axiomas necessários a construção de um dado sistema formal mas não poderíamos "programar" o reconhecimento destes postulados.

O que o Mighell argumenta é um absurdo. Que redes neuronais supostamente não estariam sujeitas às limitações da máquina Turing, quando na verdade estes algoritmos são implementados em máquinas Turing! Como se um programa pudesse fazer algo que a máquina que o está rodando não pode!

Ainda certos problemas demonstrados como turing-indecidíveis também são aparentemente "humano-decidíveis".

Assim como o problema da "parada do programa", provado pelo próprio Alan Turing como Turing-indecidível. Ou seja, é algoritmicamente insolúvel. Assim como também não há solução algorítmica para o problema de se verificar se um programa funciona como especificado.

Não sei o que você quer dizer com "programa supervisor". Se é um programa supervisor de processos de automação industrial ou está se referindo a um "trap" do sistema operacional. Ambos nada têm a ver com o "problema da parada". Provavelmente está se referindo a um "trap" do sistema que retoma o controle da CPU de um processo.

O sistema não identifica se um determinado processo entrou em loop indefinido, muito menos seria capaz de fazer isso analisando o código. Ele apenas retoma o controle porque um evento de hardware solicitou interrupção ou uma interrupção é programada para ocorrer após um determinado número de pulsos do clock, o que evita que um processo trave o sistema. Quem se lembra do falecido Windows 3.1 sabe que frequentemente programas travavam a máquina. Este sistema rodava em uma arquitetura 286 ( mesmo que seu processador fosse um 386 ou superior ) que não tinha essa funcionalidade.

No entanto não há também uma prova de que tais problemas seriam "humano-decidíveis", o que estabeleceria definitivamente uma linha divisória entre cérebros e computadores. Mas por indução tudo leva a crer que este é um problema "humano-decidível", uma vez que jamais se encontrou um programa para o qual um programador suficientemente treinado não pudesse decidir corretamente se ele funciona de acordo com o especificado.

Também provamos que o conjunto de todas as linguagens possiveis não é Turing-reconhecível. A cardinalidade do conjunto de todas as linguagens possíveis é maior que a cardinalidade do conjunto de todas as máquinas turing que podem ser construídas. Há linguagens que não podem ser reconhecidas por uma máquina Turing. Indutivamente tudo leva fortemente a crer que o cérebro pode reconhecer linguagens que não são turing-reconhecíveis.

Poderia citar aqui uma infinidade do que me parecem fortes evidências de que o cérebro não é equivalente  a uma máquina de Turing.

Porém eu separo esta discussão em duas partes:

Uma coisa seria demonstrar que o funcionamento do cérebro pode ser simulado por um computador.

Outro problema diferente - pelo menos até que se demonstre o contrário - seria demonstrar que computadores poderiam ser conscientes.

Evidentemente se a resposta for não para o primeiro problema também é não para o segundo. Mas se a resposta for sim para o primeiro não significa necessariamente sim para o segundo.

Então faz sentido começar examinando o primeiro problema, que parece menos desafiador que o segundo.

Fisicamente o cérebro se assemelha tanto a um computador quanto uma cafeteira elétrica.

O número de neurônios no cérebro é de cerca de 86 bilhões e memórias de computadores já superam esta marca em quantidade de bits. No entanto são completamente diferentes: a do cérebro é tridimensional e não endereçável, a do computador é unidimensional e endereçável. Bits e posições de memória não interagem uns com os outros como os neurônios, mas podem apenas ser lidos e escritos por uma ou mais UCPs. Unidade central de processamento esta que o cérebro não possui. A UCP por sua vez é somente capaz de executar um pequeno número de operações de máquina e certamente o cérebro não é um sistema operando um reduzido conjunto invariável de instruções elementares, uma após a outra, em alguma estrutura pontualmente localizada.

Mais: uma instrução de máquina se parece muito com aqueles cartões perfurados de antes da Segunda Guerra. Um registrador que recebe o nome esquisito de "contador de programa" aponta a posição da instrução a ser executada. Esse padrão de bits é copiado para um registrador interno e dependendo se cada  bit da instrução é 1 ou 0 ele gera ou não tensão no barramento que o conecta a algum circuito digital no processador.   Dependendo de como foi projetado o circuito pode ser "ligado" pela presença ou pela ausência de tensão na entrada, e inicia-se uma complexa reação em cadeia que tipicamente resultará também em padrões de bits que serão armazenados em posições específicas.

Será que podemos encontrar no cérebro um desencadeador de processos específicos ( um número pequeno destes processos ) que possa ser comparado a um cartão perfurado Holerit?

O que ocorre no processador é muito semelhante a linha de montagem de uma fábrica. Todo o processo ocorre em etapas, uma depois da outra, em circuitos especializados. O clock sincroniza os circuitos para que quando uma etapa conclua a próxima inicie a execução. Muito análogo a uma fábrica automatizada.

O cérebro não faz nada semelhante a isso.

O funcionamento de cada circuito é invariável e determinado apenas pelo seu design. Não
conheço muito sobre neurônios mas acho muito dificil encontrar alguma analogia com isso.

Todas as células de memória de um computador se conectam em parelelo a um mesmo barramento de dados. Todas são solicitadas simultaneamente, mas apenas uma reage à requisição. Nenhuma relação com neurônios...

Claro que mesmo essa descrição sendo uma simplificação grosseira, ainda mais se comparada a arquiteturas modernas, podemos ver que cérebros e computadores são sistemas, pelo menos de um ponto de vista físico, completamente diferentes. Ainda assim permanece a questão de se um computador poderia emular inteiramente as funcionalidades de um cérebro. Porque pode-se argumentar que computadores e aviões a jato também são sistemas completamente diferentes e no entanto computadores podem ser simuladores de aviões.

A essa questão as evidências parecem muito mais indicar uma resposta negativa.

Posteriormente eu concluo...

Offline Sdelareza

  • Nível 15
  • *
  • Mensagens: 392
Re:Inteligência artificial
« Resposta #39 Online: 05 de Março de 2016, 11:34:43 »
Os computadores atualmente somente processam dados sem criar inteligência alguma.

Apesar das pesquisas em Inteligência Artificial abrangerem áreas diversas, os limites são claros.

Um tradutor artificial possui um desempenho ridículo em comparação com um tradutor humano. (Argumento do quarto chinês)

Uma máquina que entra num loop infinito permanecerá naquele estado até estourar a memória. Enquanto um humano pode
deduzir que a máquina entrou nesse estado e decidir parar o programa. (Argumento do problema da parada)

Para o matemático Roger Penrose, há algo na inteligência humana que é a intuição matemática, que não pode ser reproduzida através de um algoritmo.

Alguns dizem que aquilo é somente um problema de hardware, que no futuro hardware e processadores mais potentes e mais rápidos
permitirão contornar esses limites.

Mas outros argumentam que existem limites na arquitetura dos computadores, que vão impedir de executar algoritmos com complexidade transcomputável.

Offline Sdelareza

  • Nível 15
  • *
  • Mensagens: 392
Re:Inteligência artificial
« Resposta #40 Online: 05 de Março de 2016, 11:44:47 »
"Contudo, trabalhos pioneiros na área de teoria da Complexidade desenvolvidos por H.J. Bremermann (1977) mostram que há limites físicos na arquitetura de computadores de qualquer tipo e que estes limites físicos condicionam o tempo para computar problemas consumido por estas máquinas não importando o quanto seu hardware estiver aperfeiçoado.

 De acordo com Bremermann, há dois limites físicos a serem considerados: o tempo de propagação e o tempo de comutação.

 Estes dois limites compõem o chamado limite fundamental  para a velocidade dos computadores que não pode ser ultrapassado. Tal limite fundamental deriva-se da idéia de que a velocidade máxima  de transmissão de sinal entre os componentes internos de um computador é limitada pela velocidade da luz, ou seja, 3.108 m/segundo.

 O tempo de propagação ou intervalo de transmissão de sinal entre os componentes internos do computador é determinado pela distância na qual se situam tais componentes e, por sua vez, é limitado por aquilo que se chama tempo de comutação.

 O tempo de comutação é o intervalo para o processamento de informação através de dispositivos discretos. Mesmo que suponhamos a possibilidade tecnológica de construir um computador muito pequeno para minimizar e otimizar a trajetória de transmissão de sinal, tal limite fundamental não pode ser ultrapassado sob pena de estarmos ignorando tudo o que a Física contemporânea nos diz.

A possibilidade tecnológica de construir uma máquina ideal em tamanho, cuja velocidade de transmissão de sinal se aproximasse da velocidade da luz não pode ser descartada como algo a ser obtido no futuro. Contudo, mesmo com um hardware assim poderoso, haveria problemas cuja complexidade é transcomputável.

 Um problema transcomputável é um problema intratável cujo procedimento algorítmico de solução não pode ser obtido em tempo eficiente a despeito  de qualquer aperfeiçoamento do hardware do computador utilizado.

O intervalo de tempo requerido para rodar alguns algoritmos transcomputáveis pode ser tão longo quanto a própria idade do universo.
Este crescimento em complexidade temporal requerido para a realização de algoritmos transcomputáveis aplica-se igualmente ao cérebro humano se este for concebido como um sistema físico − e portanto submetido ao conceito de limite fundamental desenvolvido por Bremermann. Processamento de sinal  neuronal não pode ocorrer a uma velocidade maior do que a da luz.

Estes trabalhos pioneiros de Bremermann permitem-nos fazer uma especulação interessante acerca das limitações físicas exibidas pelos computadores. Como é possível que nossa mente, através de intuição matemática ou insight específico possa resolver, instantaneamente, alguns problemas transcomputáveis? Isto significa dizer que, se nossa mente funciona algoritmicamente, ela é capaz de processar informação com uma extraordinária rapidez − uma rapidez que superaria o limite fundamental proposto por Bremermann. A superação deste limite fundamental, ou seja, processar informação a uma velocidade maior que a da luz tem como conseqüência metafísica imediata a possibilidade de sustentar que pelo menos parte das atividades mentais humanas não teria as características atribuíveis a sistemas físicos.

 Mente e cérebro teriam de ser diferentes, caso contrário a intuição matemática não poderia existir. Estaríamos aqui diante de um forte argumento em favor da distinção entre mente e cérebro! − um tipo de argumento que parece ter passado completamente despercebido pelo próprio Penrose que, na Mente Nova do Rei, aborda, muito rapidamente e de passagem, os problemas suscitados pela teoria da Complexidade Computacional."

http://docente.ifrn.edu.br/avelinolima/disciplinas/filosofia-da-mente/livro-mentes-e-maquinas
« Última modificação: 05 de Março de 2016, 11:49:24 por Sdelareza »

Offline Sdelareza

  • Nível 15
  • *
  • Mensagens: 392
Re:Inteligência artificial
« Resposta #41 Online: 05 de Março de 2016, 12:08:21 »
Penrose pensa que a mente seria algo associado com a mecânica quântica. Será?

Offline Dr. Manhattan

  • Moderadores Globais
  • Nível Máximo
  • *
  • Mensagens: 8.342
  • Sexo: Masculino
  • Malign Hypercognitive since 1973
Re:Inteligência artificial
« Resposta #42 Online: 05 de Março de 2016, 12:32:48 »
Será que houve uma vez algum robô que se rebelou ou executou algo no qual não estava programado?

Isso seria a prova que se trata de um robô consciente.

http://www1.folha.uol.com.br/mercado/2015/07/1650682-trabalhador-e-morto-por-robo-em-fabrica-da-volkswagen-na-alemanha.shtml

Se por "robô" entendermos "computador", a resposta a sua pergunta é sim. Mas isso não seria prova de consciência.

Esse lugar-comum de que "um computador só faz o que é programado para fazer" é uma falácia. De fato, programamos computadores para realizar tarefas. Porém, quase sempre não podemos prever os resultados dessa tarefa. Se fosse o caso, nem precisaríamos de um computador para isso, né? O fato de podermos escrever um algoritmo não nos informa o que sairá dele. Mas, você poderia perguntar, e quanto a tarefas que exigem criatividade? Por incrível que pareça, é possível escrever programas que agem de forma "criativa": programas que produzem resultados que não estavam implícitos nas suas instruções. Por exemplo, existem programas que criam designs de produtos, ou que criam estratégias em jogos, usando por exemplo, os chamados algoritmos genéticos. Porém, isso não tem necessariamente algo a ver com consciência.
You and I are all as much continuous with the physical universe as a wave is continuous with the ocean.

Alan Watts

Offline Sdelareza

  • Nível 15
  • *
  • Mensagens: 392
Re:Inteligência artificial
« Resposta #43 Online: 05 de Março de 2016, 12:58:25 »
Entendo que computador não possui nenhuma criatividade - seus resultados provêm da análise mecânica de
milhares de dados e combinações. Isso é apenas simulação de criatividade.

Há programas que jogam xadrez, mas eles nunca fariam jogadas ousadas ou geniais como Bobby Fischer, que aos 13 anos,
derrotou um mestre sacrificando sua rainha logo no começo da partida.

https://en.wikipedia.org/wiki/The_Game_of_the_Century_%28chess%29

Offline Pedro Reis

  • Nível 39
  • *
  • Mensagens: 4.085
Re:Inteligência artificial
« Resposta #44 Online: 05 de Março de 2016, 18:42:12 »

 Um problema transcomputável é um problema intratável cujo procedimento algorítmico de solução não pode ser obtido em tempo eficiente a despeito  de qualquer aperfeiçoamento do hardware do computador utilizado.

O intervalo de tempo requerido para rodar alguns algoritmos transcomputáveis pode ser tão longo quanto a própria idade do universo.
Este crescimento em complexidade temporal requerido para a realização de algoritmos transcomputáveis aplica-se igualmente ao cérebro humano se este for concebido como um sistema físico − e portanto submetido ao conceito de limite fundamental desenvolvido por Bremermann. Processamento de sinal  neuronal não pode ocorrer a uma velocidade maior do que a da luz.

Estes trabalhos pioneiros de Bremermann permitem-nos fazer uma especulação interessante acerca das limitações físicas exibidas pelos computadores. Como é possível que nossa mente, através de intuição matemática ou insight específico possa resolver, instantaneamente, alguns problemas transcomputáveis? Isto significa dizer que, se nossa mente funciona algoritmicamente, ela é capaz de processar informação com uma extraordinária rapidez − uma rapidez que superaria o limite fundamental proposto por Bremermann. A superação deste limite fundamental, ou seja, processar informação a uma velocidade maior que a da luz tem como conseqüência metafísica imediata a possibilidade de sustentar que pelo menos parte das atividades mentais humanas não teria as características atribuíveis a sistemas físicos.

 Mente e cérebro teriam de ser diferentes, caso contrário a intuição matemática não poderia existir. Estaríamos aqui diante de um forte argumento em favor da distinção entre mente e cérebro! − um tipo de argumento que parece ter passado completamente despercebido pelo próprio Penrose que, na Mente Nova do Rei, aborda, muito rapidamente e de passagem, os problemas suscitados pela teoria da Complexidade Computacional."

http://docente.ifrn.edu.br/avelinolima/disciplinas/filosofia-da-mente/livro-mentes-e-maquinas

Perfeito. Isso vem mais ou menos ao encontro da linha de argumentos que eu gostaria de desenvolver, porém eu prefiro dar enfoque à Teoria da Computabilidade e não à Teoria da Complexidade, porque acho que a primeira é mais simples de ser entendida. Acho que pode ser explicada sem um tratamento matemático, ao contrário da Teoria da Complexidade.

Mesmo assim, aproveitando seu gancho, podemos tentar dar uma ideia do que seria complexidade transcomputacional.

A começar, complexidade aqui não é sinônimo de COMPLICADO. Nesse contexto o problema pode ser simples e ter alta complexidade. Complexidade é uma "medida" da quantidade de recursos computacionais necessários a resolução de algum algoritmo.

Podendo o tempo ser considerado também um recurso.

Problemas transcomputaves são computáveis, no sentido que é possível conceber algoritmo que resolva qualquer instância deste problema em um número finito de passos. No entanto o número de passos cresce exponencialmente ( ou super-exponencialmente ) em função do tamanho da entrada do problema.

O que faz com que resolver problemas como este seja uma espécie de corrida entre a lebre a tartaruga. A lebre representando a velocidade do aumento do número de passos necessários para resolver o algoritmo e a tartaruga a velocidade com que a tecnologia produz máquinas mais eficientes. Com a diferença de que nessa corrida, quanto mais longa, mais rápida a lebre se torna. De forma que a lebre tende a ser infinitamente mais rápida que a tartaruga se a corrida tende a ser ilimitadamente mais longa.

Mas como você observou esta corrida não pode ser ilimitada. Porque no paradigma atual qualquer máquina necessita de um tempo T finito para a realização de um passo computacional.

Um exemplo de problema desse tipo é o problema da classe NP-complexo de se determinar a rota mínima que um vendedor teria que realizar para visitar todas as cidades de uma dada lista  ( apenas uma vez cada uma ) retornando ao ponto de partida no final.

Intuitivamente é semelhante ao problema de se encontrar o caminho mínimo entre dois pontos quaisquer em um rota. Mas esse último possui complexidade polinomial. Isso significa que a quantidade de passos em função do "tamanho da entrada" é proporcional a alguma função polinomial identificável.

Quando tal função é exponencial ou pior, um pequeno acréscimo no tamanho da entrada representa um enorme aumento no tempo de processamento ( ou outro recurso qualquer ), e essa disparidade cresce tão mais rapidamente quanto maior for o tamanho da entrada.

Nesse caso temos um problema formalmente computável para o qual nunca obteremos uma **solução prática - implementavelmente eficiente - mesmo para instâncias de tamanho razoável deste problema.

Mas a Teoria da Computabilidade também pode nos dar uma chave para responder à questão de se o atual paradigma de computação pode teoricamente emular toda a funcionalidade de um cérebro humano. Na medida em que essa teoria demonstra que existem classes de problemas não computáveis.

A dificuldade reside no fato de que não existe um equivalente à Teoria da Computabilidade para o cérebro. Pelo motivo de não compreendermos ( ao contrário do que ocorre aos computadores ) inteiramente como o cérebro funciona.

Mas a medida em que a neurociência avança no conhecimento do cérebro nós poderemos encontrar essa linha divisória intransponível.

** Solução prática e ao mesmo tempo exata. Neste caso específico significaria encontrar o grafo ótimo indicando a rota para qualquer instância do problema.
« Última modificação: 05 de Março de 2016, 19:09:13 por Pedro Reis »

Offline Pedro Reis

  • Nível 39
  • *
  • Mensagens: 4.085
Re:Inteligência artificial
« Resposta #45 Online: 05 de Março de 2016, 18:52:20 »


Esse lugar-comum de que "um computador só faz o que é programado para fazer" é uma falácia. De fato, programamos computadores para realizar tarefas. Porém, quase sempre não podemos prever os resultados dessa tarefa.


Sempre podemos prever. Um algoritmo para o qual não podemos prever o resultado não é por definição um algoritmo.


 Se fosse o caso, nem precisaríamos de um computador para isso, né?


Precisaríamos e precisamos. Sem um computador você precisaria de mais de uma vida para calcular PI com 10 mil casas decimais, mas isso não é a mesma coisa que dizer que PI não pode ser calculado com essa precisão. Ou que você não possa prever o resultado do cálculo que será feito pelo computador.

Simplesmente rode o algoritmo em um computador X mais rápido e você terá a previsão do cálculo que será obtido no computador Y mais lento, antes que Y forneça o resultado.



 O fato de podermos escrever um algoritmo não nos informa o que sairá dele.


Informa.

A informação é o próprio algoritmo. O que "sairá dele" é função apenas dos dados de entrada e do próprio algoritmo.

Offline Buckaroo Banzai

  • Nível Máximo
  • *
  • Mensagens: 38.735
  • Sexo: Masculino
Re:Inteligência artificial
« Resposta #46 Online: 05 de Março de 2016, 19:36:48 »
Entendo que computador não possui nenhuma criatividade - seus resultados provêm da análise mecânica de
milhares de dados e combinações. Isso é apenas simulação de criatividade.

Há programas que jogam xadrez, mas eles nunca fariam jogadas ousadas ou geniais como Bobby Fischer, que aos 13 anos,
derrotou um mestre sacrificando sua rainha logo no começo da partida.

https://en.wikipedia.org/wiki/The_Game_of_the_Century_%28chess%29

Os computadores/programas farão aquilo que forem programados para fazer, nem mais, nem menos. Ninguém espera que "acidentalmente" os computadores ou programas tenham as faculdades e características da cognição humana sem que tenham sido projetados especificamente para isso, através da reprodução do que quer que faça o cérebro de relevante.

Os programas de xadrez não são "simuladores de criatividade (humana)", ao menos não a vasta maioria. Eles de fato calculam exaustivamente as jogadas que são objetivamente superiores, e que poderão ser tão ou mais surpreendentes/geniais/criativas que jogadas de gênios humanos (se a jogada "não existia" antes, foi criada pelo computador, isso foi sua criatividade). Não serão jogadas que exploram deliberadamente aos vieses cognitivos humanos, o que poderá ser o caso com jogadores humanos.

Isso poderia ser alcançado com computadores, seja numa inteligência mais ou menos especializada para imitar como humanos jogam (o que acho que já vem sendo feito), ou na reprodução da inteligência/mente humana, que ainda deve estar bem distante de ser conseguido, mas não é inerentemente impossível.

Offline Dr. Manhattan

  • Moderadores Globais
  • Nível Máximo
  • *
  • Mensagens: 8.342
  • Sexo: Masculino
  • Malign Hypercognitive since 1973
Re:Inteligência artificial
« Resposta #47 Online: 05 de Março de 2016, 21:31:51 »
Entendo que computador não possui nenhuma criatividade - seus resultados provêm da análise mecânica de
milhares de dados e combinações. Isso é apenas simulação de criatividade.

Há programas que jogam xadrez, mas eles nunca fariam jogadas ousadas ou geniais como Bobby Fischer, que aos 13 anos,
derrotou um mestre sacrificando sua rainha logo no começo da partida.

https://en.wikipedia.org/wiki/The_Game_of_the_Century_%28chess%29

Note que, talvez inadvertidamente, você está usando um argumento falacioso: você* já parte do pressuposto de que "um computador nunca seria capaz de fazer X". Mas isso é apena uma suposição. Nesse tipo de argumento circular, a mente tem um "algo mais" porque eu defino que ela tenha esse "algo mais".


*Aliás, não só você, o Penrose também.



Esse lugar-comum de que "um computador só faz o que é programado para fazer" é uma falácia. De fato, programamos computadores para realizar tarefas. Porém, quase sempre não podemos prever os resultados dessa tarefa.


Sempre podemos prever. Um algoritmo para o qual não podemos prever o resultado não é por definição um algoritmo.

Você está equivocado. Se eu lhe mostrar um algoritmo para a realização de previsão do tempo e lhe der as condições iniciais, você não será capaz de prever se irá chover nos próximos 3 dias. Note que, em princípio, estritamente falando, você estaria certo em afirmar que a informação está implícita no algoritmo (e nas condições iniciais), mas não é  a isso que se refere o lugar-comum. Segundo este, o que o programador coloca, é o que sai. Ou seja, existiria, digamos assim, uma cadeia de causas e efeitos rastreável entre o input e o output. Isso, na prática, não existe. E não se trata de um mero detalhe: o assombro causado pelos feitos mentais dos humanos se deve justamente à mesma ausência de rastreabilidade entre input e output. Isso é o que leva algumas pessoas a jogar as mãos para os céus e gritar: Mágica! :)
You and I are all as much continuous with the physical universe as a wave is continuous with the ocean.

Alan Watts

Offline Pedro Reis

  • Nível 39
  • *
  • Mensagens: 4.085
Re:Inteligência artificial
« Resposta #48 Online: 05 de Março de 2016, 23:40:32 »
Eu entendo que o caso do Bobby Fischer seja apenas uma ilustração do argumento e não a essência do argumento em si.

Como eu tinha dito antes ao Banzai isto é subestimar a Ciência da Computação. A Teoria da Computabilidade não supõe que existam classes de problemas não computáveis. Ela prova!

E por ser uma ciência abstrata prova de um jeito que a Física, a Química e a Biologia não podem provar suas teorias. Prova da mesma forma como a Matemática prova seus teoremas.

Essa questão ( compatibilidade máquina-cérebro ) pode ser reduzida inteiramente a demonstrar que um determinado problema turing-indecidível é "humano-decidível". Se demonstrarmos que existe pelo menos um problema turing-indecidível que seja "humano-decidível" estará provado que máquinas compatíveis com o modelo Turing não podem emular completamente todas as capacidades cognitivas do cérebro.

Aqui um parênteses: estou preferindo agora usar esta expressão ( "capacidades cognitivas" ) em vez de "funcionalidades" porque não sabemos se  a emulação das funcionalidades ( ou seja, de todo o processo bio-químico ) implicaria automaticamente na emulação da cognição.

Mas a dificuldade de se provar esta incompatibilidade resulta do fato de que não sabemos como demonstrar se um problema é ou não "humano-decidível". Para entender isso é preciso compreender que quando se diz que uma determinada classe de problemas é "turing-indecidível" isto NÃO significa que não existam uma ou mais instâncias ( casos particulares ) destes problemas que não possam ser resolvidos no computador. Mas sim que não existe, e é impossivel que venha a existir, uma solução geral que possa resolver todos os casos particulares do problema.

Então quando um humano resolve um destes problemas que seriam difíceis para a máquina ISTO NÃO É PROVA de que o problema é "humano-decidível". A prova consistiria em mostrar que o humano é capaz de resolver CADA UM dos casos particulares deste tipo de problema.

Isto não sabemos demonstrar, mas, por indução, podemos ter mais do que uma leve suspeita de que determinados problemas como o da "parada do programa" são humano solucionáveis.

Em relação à previsão do clima parece estar havendo uma confusão entre a dificuldade de prever o tempo e a dificuldade  de prever, em cada passo, o estado da máquina executando um determinado algoritmo. Essa confusão pode estar sendo inspirada pelo famoso "efeito borboleta".

Nos modelos clássicos podemos induzir uma variação tão pequena quanto quisermos no resultado de uma função para um determinado conjunto de valores de entrada fazendo uma variação suficientemente pequena nestes valores de entrada.

O que Edward Lorenz descobriu acidentalmente rodando em um computador um modelo de previsão meteorológica era que neste modelo variações infinitesimais nos dados iniciais podiam resultar em previsões muito díspares.

Mas sim, mesmo nestes modelos o programa rodando e os dados determinam em cada passo o estado da máquina. Não é diferente do exemplo do cálculo de PI: duas máquinas idênticas rodando o mesmo modelo, alimentado com os mesmos dados iniciais, e, se for o caso do modelo também solicitar dados de fontes externas durante o processamento, se estes dados forem idênticos em cada passo em ambas as máquinas, então as duas máquinas, em cada passo, apresentarão sempre o mesmo estado.

Sendo a máquina 1 a previsão do que fará a máquina 2 e vice-versa.

Offline Buckaroo Banzai

  • Nível Máximo
  • *
  • Mensagens: 38.735
  • Sexo: Masculino
Re:Inteligência artificial
« Resposta #49 Online: 06 de Março de 2016, 08:37:22 »
Entendo que computador não possui nenhuma criatividade - seus resultados provêm da análise mecânica de
milhares de dados e combinações. Isso é apenas simulação de criatividade.

Há programas que jogam xadrez, mas eles nunca fariam jogadas ousadas ou geniais como Bobby Fischer, que aos 13 anos,
derrotou um mestre sacrificando sua rainha logo no começo da partida.

https://en.wikipedia.org/wiki/The_Game_of_the_Century_%28chess%29

Note que, talvez inadvertidamente, você está usando um argumento falacioso: você* já parte do pressuposto de que "um computador nunca seria capaz de fazer X". Mas isso é apena uma suposição. Nesse tipo de argumento circular, a mente tem um "algo mais" porque eu defino que ela tenha esse "algo mais".

Também passa um pouco a impressão de uma expectativa (ou expectativa da expectativa alheia) de que computadores fossem ser "humanos" quase que "acidentalmente". Meio como se estivesse esperando alguma notícia onde revelariam que um programador conectou um programa de chat com o kernel do windows "e tinha uma pessoa lá", que respondia meio como se fosse entrevistado uma mistura de comatoso com memórias e alguma outra pessoa normal que descrevesse os afazeres cotidianos. "Oi. Quem são vocês? Eu sou o windows. Eu gerencio os programas que me são solicitados para executar, fecho eles. De vez em quando executo jogos. Algumas vezes fico entediado e então passo uma proteção de tela para me distrair."

Um pouco como a esperança que há de chimpanzés e gorilas poderiam aprender a falar e que seriam essencialmente cognitivamente indistinguíveis de humanos, depois disso. Um potencial humano pleno, latente inexplorado, apenas nunca desenvolvido sem a linguagem como catalizador.

Mas não se tem a mínima "esperança" de algo assim ocorrer. Para um computador ser "como um humano", ou precisa ser desenvolvido e programado para reproduzir o que o cérebro fizer de relevante, ou, no mínimo, para produzir uma imitação superficial de algum resultado específico.

Chimpanzés e gorilas ainda estariam mais próximos, de qualquer forma, mas algo na outra direção. Acho que nunca vão aprender a jogar xadrez. Talvez jogo da velha.




Como eu tinha dito antes ao Banzai isto é subestimar a Ciência da Computação. A Teoria da Computabilidade não supõe que existam classes de problemas não computáveis. Ela prova!

Acho que isso é irrelevante. O cérebro é uma máquina. Se por alguma definição técnica estrita, não é um "computador biológico", ainda assim um computador "de silício" com uma arquitetura/"fluxograma" tão próxima quanto for possível*, talvez até "neurônios de silício", ainda seria chamado disso, de computador, ainda que fosse talvez um erro como chamar jacaré de crocodilo. Mas talvez "processador" seja genérico o bastante para fugir dessa tecnicalidade.




* e não é "ousado" especular que seja possível: o relevante deve ser resumido como "processamento físico de informações". Físico = não-mágico, não-espiritual, etc. É na verdade mais onerosa a suposição de que algo do "processamento de informações" exigiria a física do substrato bioquímico neuronal especificamente.

 

Do NOT follow this link or you will be banned from the site!