Orgasim: experimentos em cognição corporificada

Comecei a construir um simulador em Processing para testar a cognição corporificada que defendo no meu livro Design sem Designer. Sem representações ou ginástica mental e apenas implementando affordances no sistema, esse robô está acoplado estruturalmente ao ambiente e seu comportamento de perceber-vaguear-desviar-lembrar-esquecer chega a ser surpreendente. É melhor do que tudo que já fiz utilizando computações simbólicas com Lego Mindstorms, por exemplo.

No histórico desse acoplamento, o robô aprende a desviar dos obstáculos oscilando entre a irresponsabilidade e a cautela por meio de uma única função que articula tempo de vida, o nível de stress do organismo e o próprio histórico das interações no ambiente. Não há imagens mentais do ambiente, não há memória explícita (o robô não lembra nem sabe onde estão os obstáculos que não vê, mas aprende sobre a “natureza” deles em relação ao seu próprio corpo e suas ações efetivas) nem é possível descrever o estado do organismo sem considerar o meio. Em pouquíssimo tempo o sistema atinge o equilíbrio e o robô simplesmente não colide mais. O comportamento do bicho é efetivamente “emergente”.

Meu objetivo é começar a oferecer métodos alternativos de pesquisa com usuários em interação humano-computador para quem não aguenta mais esse design mentalista.

8 comments

  1. fred

    Bacana o experimento, Hugo! Acho interessante demonstrar como é possível que um organismo desenvolva um processo cognitivo sem modelos mentais. Porém, tenho minhas ressalvas quanto à validade desta evidência para seres humanos, para designers.

    Minha experiência com simulações na Engenharia Civil reforçou a minha convicção de que elas são simplificações absurdas de como as pessoas se comportam.

    O que eu não sabia é que os engenheiros estão plenamente conscientes disso, porém, pela falta de outras maneiras práticas de trabalhar com o comportamento humano, eles dependem destas simulações para avaliar, por exemplo, se um estádio de futebol permite a evacuação de milhares de pessoas em caso de emergência. As Ciências Sociais ainda não conseguem atender esse tipo de demanda com abordagens mais precisas.

    O que eu tenho feito aqui é cruzado as simulações com workshops participativos onde usuários reconstróem a simulação usando modelos ingênuos, tal como um jogo de tricô. No último post do Usabilidoido eu compartilho a experiência:
    http://www.usabilidoido.com.br/visualizacao_espacial_da_atividade_humana.html

    Do ponto de vista prático, esse exercício de reconstrução acaba encontrando várias imprecisões no modelo simulado, do ponto de vista científico, acrescenta uma dimensão completamente diferente para a triangulação de dados.

    Fico na dúvida se você busca esse tipo de triangulação ou se você acredita numa isonomia entre as simulações e as experiências práticas do cotidiano (modelo = realidade).

    • Hugo Cristo

      Fred,
      Meu objetivo não é buscar evidências da cognição corporificada para os seres humanos ou designers. Elas já estão por aí faz tempo e meu experimento é basicamente uma investigação de métodos de análise de um sistema dinâmico como aquele.
      Esse tipo de “brinquedo” (do ponto de vista cognitivo) não se propõe a simular o comportamento de um ser humano. A simulação é a de um robô com algumas condutas em um meio com características específicas. O que me interessa é a estabilidade do acoplamento organismo-meio para poder analisar dados desse tipo de universo: encontrar os atratores, repulsores, quem varia em função de quem, qual é o fenômeno emergente no sistema e por aí vai.
      Alguém poderia, por exemplo, fazer uma análise semelhante dos dados do seu workshop para entender o que acontece ali. Conheço várias simulações como as que você fala e, pela própria natureza situada da cognição corporificada, não faz sentido em falar de modelos x realidade… A simulação tem que ser a simulação de algo que seria construído com a mesma articulação corpo-meio, o que no caso dos seres humanos (ainda) é impossível 🙂

      • fred

        Deixa ver se eu entendi: você está testando um instrumento de análise que poderia ser usado para comportamento humano (meu workshop por exemplo), mas não quer assumir que ele também é comportamento humano? Eu tenho receio de que você caia num loop recursivo de validação interna, ou seja, o sistema que se auto-valida necessário.

        • hugocristo

          O instrumento analisa dados de um sistema dinâmico qualquer. A questão é aceitar se meu robô e o comportamento humano são “ambos” sistemas dinâmicos.

  2. fabs

    uma dúvida: este aprender sobre a “natureza” deles em relação ao seu próprio corpo já não configuraria um novo modelo mental?

    • Hugo Cristo

      Fabs,

      É importante deixar claro que “aprender” é uma descrição do observador (eu) para o comportamento do robô. O que acontece ali é uma conduta do robô e não se parece ou simula em nada aquilo que os seres humanos entendem por “aprender”, apesar de ter o mesmo sentido para quem observa.

      De uma forma ou de outra, esse “aprender” resultaria num modelo mental se algum tipo de computação simbólica fosse feita a partir da representação que o organismo elaboraria com base nos “estímulos” do mundo. O robô não elabora essa representação e por isso não pode realizar inferências nem planejar ações com base nelas. Aprender não significa necessariamente usar modelos mentais ou construir representações… Uma rede neural pode aprender por backpropagation sem construir representações. Um analista do comportamento explicaria a aprendizagem sem recorrer a representações. O casal Gibson fez o mesmo 🙂

      • fred

        A noção de modelo mental é apenas uma hipótese. Ninguém consegue observar diretamente tal modelo, a não ser em sua própria mente. O que o Hugo fez foi mostrar que o modelo não é necessário para um organismo simples evitar obstáculos no seu movimento. E só. Não estou convencido que isso seja uma evidência de que é possível “design sem designer”, apesar de eu acreditar na tese.

        • hugocristo

          E não é evidência mesmo, Fred. Não disse isso aqui nem no livro. São dois problemas distintos, porém entrelaçados:

          1) A cognição corporificada possui suas próprias demandas de aprofundamento experimental. É possível sustentar cognição sem representação, como vários autores já fizeram, mas entender na prática como isso acontece é bem mais complicado. A principal dificuldade, pra mim, é explicar para as pessoas como seria um processo cognitivo mente-corpo-ambiente entendido como “sistema dinâmico”, que é a abordagem que mais me atrai. Nem todo mundo entende de cálculo infinitesimal, equações diferenciais e acoplamentos não-lineares. Do outro jeito (mentalismo), é muito mais fácil: tudo são algoritmos, cálculo proposicional e lógica simples do ensino médio.

          2) A proposta de um design sem designer não é fundada na ausência de mentalismos, mas do entendimento de que condutas linguísticas são parte de um sistema dinâmico cujo caráter emergente inevitavelmente articula ações estruturantes dos seus próprios elementos. Com mentalismos isso seria impossível pois tudo é representacional, proposicional e desacoplado. Eu questiono os mentalismos no livro porque eles são uma hipótese promovida a verdade utilizada como munição para sustentar diferenças mitológicas entre os modelos conceituais dos designers e modelos mentais dos usuários.

          Meu interesse é criar condições para analisar dados coletados nesse tipo de sistema. Os pesquisadores da cognição corporificada criam “toy settings” como a do meu robô só para entender a dinâmica: definição das variáveis experimentais, como observar micro perturbações ao longo do tempo, como a conduta de cada unidade perturbada participa do fenômeno emergente (atratores, repulsores) que se configura e como isso retorna para as unidades e assim por diante. Se a tese da cognição corporificada estiver correta, o fenômeno emergente é a conduta do organismo em questão e o instrumento ajudaria a entender como aquele organismo, na interação com o resto do sistema, consegue fazer o que fez. No meu caso, ajudaria a entender como um robô que possui condutas concorrentes que se perturbam mutuamente na interação com obstáculos resulta em “robô que desvia de obstáculos”. Mas é um teste do método, não da cognição humana ou coisa parecida.

          Se eu mudar o organismo, o meio e seus objetos, o sistema é outro e o problema é outro (eu falo isso quando explico o menino de bicicleta na ladeira no livro). A única dimensão que persiste é o entendimento de ambos os fenômenos como sistemas dinâmicos. Eu entendo sua dúvida, mas ela é um problema do mentalismo, não da cognição corporificada: são os computacionalistas que argumentam que o cérebro é um processador simbólico físico e que qualquer processador simbólico físico seria inteligente como nós somos. Por isso eles gostam tanto de simulações de funções superiores (visão, percepção espacial, resolução de problemas lógicos). A cognição corporificada é uma variedade de naturalismo e bebe na fonte da etologia: um animal, com seu sistema nervoso e corpo, agindo em um nicho específico, articulam um sistema próprio. Se houver simulação, ela é a do conjunto, não fazendo sentido pensar na generalização dos eventos daquele sistema para outro.

Enviar comentário

Você pode usar as seguintes tags HTML:
<a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>