Foto: Wikimedia Commons

O ilusionista e escapista Harry Houdini, em um de seus números
O ilusionista e escapista Harry Houdini, em um de seus números
 

Imagine que você esteja em um show de mágica, onde o intérprete de repente desaparece. É claro que, no fim das contas, você sabe que a pessoa provavelmente só está se escondendo em algum lugar. No entanto, continua parecendo que a pessoa desapareceu. Nós não conseguimos afastar essa aparência, não importa o que a lógica dite. Por que nossas experiências conscientes são tão teimosas?

O fato de nossa percepção de mundo parecer tão intransigente, independentemente do quanto refletimos sobre ela, nos conta um fato único sobre como nossos cérebros são conectados. Compare o cenário do mágico com o modo com que nós normalmente processamos as informações. Suponha que você tem cinco amigos que te digam que chove lá fora, e um site de meteorologia que indica que não chove. Você provavelmente só imagina que o site está errado e deixa-o de lado. Mas quando se trata da percepção consciente, parece haver algo estranhamente persistente sobre o que vemos, ouvimos e sentimos. Mesmo quando uma experiência perceptiva está claramente “errada”, nós não conseguimos desprezá-la.

Por que é assim? Avanços recentes com inteligência artificial nos dão novas ideias sobre esse dilema. Na Ciência da Computação, nós sabemos que redes neurais de reconhecimento de padrões — chamadas de modelos de aprendizado profundo — podem se beneficiar de um processo chamado codificação preditiva. Em vez de apenas digerir informações de forma passiva, de “cima para baixo”, essas redes podem formular hipóteses sobre o mundo de forma descendente, que podem ser testadas em oposição a observações. De forma geral, funcionam melhor dessa forma. Quando uma rede neural identifica um gato, por exemplo, primeiro ela desenvolve um modelo que a permita prever ou imaginar a aparência de um gato. Depois ela é capaz de examinar informações recebidas para checar se elas se encaixam ou não na explicação imaginada.

O problema é que, embora esses modelos gerativos possam ser muito eficientes depois de finalizados, eles normalmente exigem muito tempo e informação para se desenvolver. Uma solução é o uso de Redes Geradoras Adversariais — aclamadas como “a ideia mais legal em aprendizado profundo nos últimos 20 anos” pelo chefe de pesquisa em inteligência artificial do Facebook, Yann LeCun. Nessas redes, podemos programar uma rede (a geradora) para criar imagens de gatos, simulando gatos reais da forma mais precisa possível. E treinamos outra rede (a discriminadora) para distinguir as imagens de gatos manufaturadas e as imagens reais. Então opomos as duas redes, de modo que a rede discriminadora seja recompensada por reconhecer imagens falsas e a rede geradora seja recompensada por escapar delas. Quando estão programadas para competir, as redes crescem juntas em destreza, não muito diferente de um falsificador de arte tentando enganar um expert. Dessa forma, o aprendizado é muito eficiente para as duas redes.

Além de um truque prático, as RGAs são uma analogia potencialmente útil para entender o cérebro humano. Em cérebros de mamíferos, os neurônios responsáveis por codificar estímulos perceptivos têm múltiplas funções. Por exemplo, os neurônios estimulados quando você vê um gato são os mesmos que são afetados quando você imagina ou se lembra de um gato; eles podem ser ativados de forma mais ou menos aleatória. Então, sempre que há atividade no nosso circuito neural, o cérebro precisa descobrir se se trata de sinais internos ou externos.

Podemos chamar esse exercício de Monitoramento de Realidade Perceptiva. John Locke, filósofo britânico do século 17, acreditava que nós tínhamos algum tipo de órgão interno responsável por um automonitoramento sensorial. Porém, críticos de Locke indagaram porque a Mãe Natureza se daria o trabalho de criar um órgão separado, em cima de um sistema que já está desenhado para perceber o mundo através dos sentidos. Você precisa ser capaz de sentir um cheiro antes de ser capaz de decidir se o cheiro é verdadeiro ou falso; então, por que não embutir um controle no próprio mecanismo sensorial?

No entanto, à luz do que sabemos sobre as RGAs, a ideia de Locke faz algum sentido. Uma vez que nosso sistema sensorial usa recursos neurais, parte destes é reciclada para usos diferentes. Assim, imaginar um gato conta com os mesmos padrões neurais utilizados quando de fato se observa um gato. No entanto, essa sobreposição ofusca a percepção sobre o significado dos sinais. Assim, para que esse sistema de reciclagem funcione bem, precisamos de um discriminador para discernir quando estamos enxergando algo ou quando estamos apenas pensando a respeito. Esse suposto órgão RGA — ou algo do gênero — precisa existir para agir como rival contraditório, para estimular o crescimento de um mecanismo de codificação aperfeiçoado.

Se isso estiver certo, podemos dizer que experiências conscientes provavelmente são semelhantes a um tipo de inferência lógica. Isto é, se o sinal perceptivo do gerador diz que há um gato e o discriminador decide que esse sinal retrata fielmente o estado do mundo nesse momento, nós claramente vemos um gato. O mesmo se aplica a sentimentos brutos: a dor pode parecer cortante, ainda que saibamos que não existe nada nos cortando, e pacientes podem relatar dor em partes do corpo que já foram amputadas. Visto que o discriminador acerta na maior parte das vezes, nós costumamos confiar nele. Assim, não surpreende que quando existe conflito entre impressões subjetivas e crenças racionais, parece fazer sentido que acreditemos no que estamos experienciando conscientemente.

Essa teimosia perceptiva não é uma característica exclusivamente humana. Alguns primatas também a têm, como demonstrado pela sua capacidade de se impressionar e se divertir com truques de mágica. Isto é, eles parecem entender que há um tensão entre o que estão vendo e o que conhecem como verdade. Considerando o que sabemos sobre os seus cérebros — especificamente, que seus neurônios perceptivos também são reciclados para funções descendentes — a teoria das RGAs sugere que esses animais provavelmente têm experiências conscientes não muito diferentes das nossas.

O futuro da inteligência artificial é mais desafiador. Se construíssemos um robô com uma arquitetura de RCG muito complexa, ele seria “consciente”? Considerando a nossa teoria, ele provavelmente seria capaz de exercer a codificação preditiva, exercitando as mesmas estruturas para percepção que usa para imaginação ou predição descendente. Talvez, como algumas redes gerativas, ele poderia “sonhar”. Como nós, ele provavelmente não seria capaz de racionalizar suas dores — e até seria capaz de desfrutar de um show de mágica.

Formular teorias sobre a consciência é notoriamente difícil, e ainda não sabemos no que ela realmente consiste. Então, não seríamos capazes de definir se nosso robô seria, realmente, consciente. Assim, também não somos capazes de o fazer com precisão em relação a outros animais. Pelo menos, dando corpo a algumas conjecturas sobre o maquinário da consciência, podemos começar a testá-las contra a nossa intuição — e, mais importante, em experimentos. O que sabemos é que o modelo de mente que envolve um mecanismo interno de dúvida — um sistema hesitante que está constantemente buscando falsificações na nossa percepção — é uma das ideias mais promissoras que tivemos até agora.

Hakwan Lau é professor de neurociência comportamental na Universidade da Califórnia, em Los Angeles, e também mantém um vínculo com a Universidade de Hong Kong. Seu trabalho foi publicado nas revistas Science, Nature Neuroscience, Neuron, entre outras. Ele vive em Los Angeles.