Introdução
Pessoa alguma negará que a matemática é feita com o uso
do cérebro. No entanto, nenhuma máquina construída pelo
homem [ser humano] conseguiu ainda reproduzir as
faculdades de razão e invenção de nossa máquina [?]
cerebral
Desde o fim da Segunda Guerra Mundial (1945), teóricos e pesquisadores das inteligências artificiais (IA1) acreditam que o corpo humano e a consciência que dele emerge poderiam ser replicáveis em instâncias não-biológicas e/ou artificiais. Há, de fato, diversas datações e eventos correlatos que remetem à origem desse interessante e controverso campo de pesquisa pluridisciplinar denominado Inteligências Artificiais, ou IA. Rodney Brooks (1991, p. 139), por exemplo, informa-nos que
a inteligência artificial começou como um campo cujo objetivo era replicar inteligência de nível humano em uma máquina. As primeiras esperanças diminuíram à medida que a magnitude e a dificuldade desse objetivo foram apreciadas. Lento progresso foi feito ao longo dos 25 anos seguintes, demonstrando aspectos isolados da inteligência. Trabalhos recentes tendem a se concentrar em aspectos comercializáveis de “assistentes inteligentes” para trabalhadores humanos.
Isso tem levado a uma aceleração dos avanços em determinadas áreas das pesquisas em IA, progresso esse que não aconteceu analogamente em outras. Todavia, o que fez com que as pesquisas em IA arrefecessem, na segunda metade do século XX, foi a experiência prática desfavorável que explicitou as suas limitações e contingências. Muitas promessas foram feitas, e, de fato, várias delas não foram cumpridas.
Ou seja, engendrar uma real inteligência não se mostrou tarefa fácil na labuta cotidiária dos pesquisadores e engenheiros das IA, e pouco a pouco a dura realidade começava a se impor, o que significa dizer, tornavam-se mais nítidos os limites da computação. Mas, retornando ao âmbito das conceitualizações e definições, colhemos da lavra de Frederick Brooks (1986, pp. 14-15) a seguinte afirmação:
Duas definições bastante diferentes de IA são comuns hoje em dia. AI-I: O uso de computadores para resolver problemas que antes só podiam ser resolvidos aplicando inteligência humana. AI-2: O uso de um conjunto específico de técnicas de programação conhecidas como heurísticas ou baseadas em regras. Nessa abordagem, os efeitos humanos são estudados para determinar quais heurísticas ou regras práticas usam na solução de problemas... O programa é desenhado para resolver um problema da maneira como os humanos parecem resolvê-lo codificados na base de regras de maneira uniforme, e ferramentas são fornecidas para desenvolver, alterar, testar e documentar a base de regras. Isso regula grande parte da complexidade do próprio aplicativo. O poder de tais sistemas não vem de mecanismos de inferência cada vez mais sofisticados, mas de bases de conhecimento cada vez mais ricas que refletem o mundo real com mais precisão.
Tais sistemas são chamados de sistemas especialistas. E, como escreve Frederick Brooks (1986, p. 15) “o pré-requisito essencial para a construção de um sistema especialista é ter um especialista”, ou seja, o primeiro problema de relativa robustez e complexidade a ser enfrentado para a concepção de uma verdadeira inteligência artificial (i), é conseguir encontrar um especialista extraordinariamente competente, que seja capaz de resumir e sintetizar todas as possibilidades potenciais que o sistema artificial irá encontrar em situações reais que requeiram a inteligência de sua área de especialidade. Transformar esse contexto indeterminado numa coleção de axiomas, então, torna-se mais complicado ainda.
Mas a pergunta espinhosa ainda é: como representar bom senso e inseri-lo num sistema cibernético-informacional? Um segundo problema, não menos sério e também difícil de enfrentar nesse âmbito das limitações (ii), é conseguir formalizar tais conhecimentos em linguagem computacional, ou seja, transformar tudo isso que o especialista pretensamente definiria em dados computáveis, de forma bem definida e determinada, sem ruídos ou ambiguidades, e em seguida implantar com eficiência esse conhecimento na máquina por meio de um software que replique a própria inteligência do especialista humano.
Além disso, (iii) seria necessário que ele (software) fosse capaz também de atualizar esses seus conhecimentos e saberes heuristicamente, autonomamente, através de erros e acertos, fazendo novas descobertas, classificando memórias continuamente, de modo a acompanhar a dinamicidade do ambiente em que está inserido. Infelizmente, tais metas, hoje, parecem realmente inatingíveis, principalmente se considerarmos que um software é uma ideia, um conceito, uma abstração, e que, como tal, possui características intrínsecas das quais eles não podem escapar de nenhuma maneira, o que impõe limitações significativas ao próprio processo.
O ser humano continua sendo o modelo de inteligência que uma máquina pretensamente inteligente deve sempre procurar simular, pois só será considerado de fato inteligente um sistema que exiba características comportamentais e de faculdades e propriedades muito semelhantes às nossas.
Porém, como sabemos, certas propriedades biológicas são simplesmente insimuláveis num sistema artificial. Pelo menos, por enquanto (2018) e, principalmente, se o referido sistema for concebido e construído segundo a teoria computacional que possuímos até agora. Num só termo, ainda é impossível fazê-lo, tendo em vista o estado da arte atual dos sistemas cibernético-informacionais mais avançados de nossos dias.
Ainda assim, e seguindo a mesma linha de raciocínio, como implantar nela (IA) uma autoimagem de si mesma, um horizonte de compreensão e significação sensível da amplíssima realidade que 'aí está' no mundo, a englobar tudo no âmbito societal? Como ensiná-la o que significa sentido? A resposta é óbvia e um tanto quanto desconcertante: isso é impossível, pelo menos por enquanto. Se “não há ninguém 'ali dentro' ainda” -como diz Daniel Dennett2-, alguém vivo que tenha uma relação com a história, com o mundo, consigo mesmo, que possua uma vida, valores, corporalidade, sentimentos, sensibilidades, relações sociais, logo, não poderá haver também subjetividade, compreensão de mundo, de si mesmo e assim por diante. Como nos informa António Damásio (2011, p. 16), “sem a consciência -isto é, sem uma mente dotada de subjetividade-, você não teria como saber que existe, quanto mais saber quem você é e o que pensa”.
Nós mesmos, os seres humanos, quando interagimos com o mundo que nos circunscreve, estamos sempre a redescobri-lo, a resignificá-lo, já que a realidade em si é sempre volátil e arredia, constituída no movimento e na duração, como exprimiu muito bem Henri Bergson,3 de maneira que a consciência e a inteligência precisam se manter em constante atualização. São muitas as potencialidades possíveis no objeto dinâmico chamado realidade.
O previsível sim, quem sabe possa ser computado, pré-programado, mas o imprevisível, o que ainda não aconteceu, as possibilidades recursivas inimagináveis, as propriedades emergentes e o próprio acaso, por exemplo, são impossíveis de se conceber a priori e de se pré-implantar num sistema de IA qualquer. O nosso cérebro, que funciona como um extraordinário antecipador de cenários, é bioevolutivamente preparado e constituído para enfrentar exatamente esse tipo de ambiente incerto e oscilante,4 ou, na linguagem peirceana, um objeto dinâmico5, como também são os demais seres vivos da biosfera. E ele (cérebro) só é capaz de realizar tudo isso, como nos informa António Damásio (2015, p. 266), porque ele é
um sistema de sistemas. Cada sistema compõe-se de uma elaborada interligação de regiões corticais pequenas porém macroscópicas e de núcleos subcorticais, os quais são compostos por circuitos locais microscópicos, compostos, por sua vez, de neurônios, todos ligados por sinapses.
Enfim, um sistema bioevolutivamente constituído justamente para interação e interface com esse complexo e dinâmico ambiente externo. Ou seja, em termos teóricos mas também práticos, não bastaria um robô, androide e/ou software, que ‘lembrasse’ de tudo o que experiencia em seu cotidiano, seria necessário também triar, descartar e atualizar o conhecimento que se adquire6 com algum grau de consciência.
É por isso também que não pode haver no referido sistema cibernético-informacional hipotético emoção, dor, prazer, medo, amor e assim por diante, pois tudo isso é não computável, e advém única e exclusivamente da biologia, isso se, e somente se, houver corpo, e sempre através da mente e da inteligência que são imanentes desses rebuscamentos e complexificações bioevolutivas dos organismos vivos. Tudo o que existe é a nossa própria engenhosidade e inteligência estendida nos objetos técnicos que concebemos e usamos.7 Enfim, é o ser vivo -em sua subjetividade ativa- que catalisa a experiência de existir, e, sem ele, resta apenas um sistema sem razão intrínseca de ser.8
Sem essa monumental teia que entretece o sujeito e a sociedade, o indivíduo e a cultura, o corpo e os sentidos, simplesmente não se pode ter as faculdades e propriedades da vida, consciência, e, nem muito menos ainda, inteligência. Mesmo porque, no âmbito biológico -como nos informa António Damásio (2011, p. 24)-, “para que a mente se torne consciente, um conhecedor, seja lá como for que o chamemos -self, experienciador, protagonista-, precisa ser gerado no cérebro. Quando o cérebro consegue introduzir um conhecedor na mente, ocorre a subjetividade”.
Assim sendo, mesmo que se tenha um software simulando uma pseudo-consciência, num nível avançado de minúcias e detalhes, ainda assim, qual seria a finalidade útil desse sistema cibernético-informacional, se não houver humanos para doar-lhes sentido, utilidade, para demanda-lo, incitá-lo à ação, à resolução de problemas? Para nada, novamente, é a resposta. Simplesmente os computadores não se moveriam, não agiriam, pois não teriam ‘motivos’ para isso. E não se moveriam, agiriam e nem processariam absolutamente nada, simplesmente porque não existiriam na realidade factual ontológica do mundo, como entes animados, como agentes inteligentes e conscientes de si, pois não possuiriam ontologia de vivo, e seriam apenas objetos inanimados do mundo físico.
A imensurabilidade do humano
No cérebro, o programa e a máquina [?] -para empregar o
modelo de Turing- estão, desde os primeiros estágios do
desenvolvimento, muito imbricados com a arquitetura
conexional
Nós humanos, por nosso turno, como seres vivos e animados, emotivos e sensitivos, somos motivados e movidos por forças intrínsecas que não nos abandonam nunca enquanto estamos vivos; e tudo isso, triado e interpretado por uma mente consciente e inteligente que vai driblando as ambiguidades e irrelevâncias da realidade dinâmica, acaba conferindo um sentido à própria existência de cada ser individual.
Referimo-nos à ontologia, tão cara à filosofia, ou, como diria Martin Heidegger, do acoplamento estrutural do ser-aí-no-mundo que, definitivamente, as máquinas e sistemas de IA de nossos dias -ainda- não têm. O que nos move (seres vivos), por outro lado, é uma complexidade extraordinária, bem mais ampla e sistêmica do que uma mera sequência numérica qualquer. Isso é um tanto quanto óbvio, mas muitos ainda insistem nesse tipo de especulações.
Os algoritmos são muitíssimo úteis e versáteis, mas, por enquanto, ainda possuem limitações intrínsecas referentes à maneira como são processados e lidos por um computador, e também ao que pode ou não ser representado matematicamente, enfim, ao que pode ser simulado e reproduzido num computador concebido nos moldes da máquina universal de Alan Turing. Como nos informa Robert Kowalski (1979, p. 424),
um algoritmo pode ser considerado como consistindo em um componente lógico, que especifica o conhecimento a ser usado na solução de problemas e um componente de controle, que determina as estratégias de solução de problemas por meio das quais esse conhecimento é usado. O componente lógico determina o significado do algoritmo, enquanto o componente de controle afeta apenas sua eficiência.
Como lemos em Ramos, Neto e Vega (2009, p. 641), algoritmo é a “descrição finita de um procedimento. Conjunto de ações bem definidas que produzem um resultado pretendido após um tempo finito de processamento”. Kowalski (1979, p. 435) também nos esclarece que “os algoritmos convencionais podem ser considerados como consistindo de dois componentes: 1) um componente lógico que especifica o que deve ser feito, e 2) um componente de controle que determina como deve ser feito”. “Um algoritmo [escrevem Dina Goldin e Peter Wegner (2004, p. 3)] é uma receita, um conjunto de instruções ou as especificações de um processo para fazer algo. Essa coisa geralmente resolve um problema”. Uma das técnicas usadas é a lógica predicada. “A lógica predicada [informa-nos Robert Kowalski (1979, p. 424)], é uma linguagem de alto nível voltada para o ser humano para descrever problemas e métodos de solução de problemas para computadores”. Vejamos que se trata de uma organização sistêmica relativamente simples, conceitualmente falando, no sentido de ser determinável, e que possui, por isso mesmo, limitações intrínsecas internas ao sistema.
Nesse sentido, como conseguir reduzir o incomensurável não determinado e dinâmico da realidade mundana que nos circunscreve e reduzi-lo ao mensurável, representável e determinístico em termos computacionais?
A propósito, a respeito disso (ou seja, das tentativas de tentar traduzir o humano em linguagem matemática), e ao contrário do que muitos acreditam, o universo e a natureza viva não são entes matemáticos.9 E é importante reafirmar isso novamente em outros termos: o universo e a natureza não se estruturam matematicamente, de modo que o fenômeno físico independe completamente da linguagem e da teoria matemática para de fato se manifestar, mesmo porque a matemática é uma criação da mente humana, que, por sua vez, ocupa um lugar na história, que é muito mais recente do que a bioevolução.
Isso não impede que usemos as matemáticas e os poderosos computadores algorítmicos para fazer aproximações e representações probabilísticas úteis e cada vez mais precisas dessas mesmas realidades que encontramos no mundo físico, na natureza, no universo conhecido, e que tentamos conhecer e explicar.
A informação sem a mente é só informação e nunca poderá se tornar sozinha conhecimento10. Pois é a mente que dirige a informação no sentido do conhecimento. E não pode porque conhecimento é conhecimento para alguém, e, nesse caso, esse alguém não existe.11 A máquina, por si mesma, ignora o sentido, a razão, a sua própria utilidade funcional, estruturação interna e assim por diante.12
No âmbito biológico, por sua vez, as complexidades do cérebro e da mente, sustentando a inteligência e a consciência, são de fato enormes, extraordinárias, de maneira que representá-las formalmente seria de fato bastante improvável, segundo os limites conceituais atuais. Jean-Pierre Changeux e Alain Connes (1995, p. 106) são extremamente instrutivos para nós nesse ponto, quando descrevem em detalhe a fisiologia da atividade cerebral:
O conjunto de nosso encéfalo se compõe de cerca de cem bilhões de neurônios, o que é, de certo modo, um número elevado! Esses neurônios encontram-se ligados entre si por zonas de contato descontínuo, ou sinapses. Há em média por volta de dez mil por célula nervosa. Isso significa um número total de sinapses, em nosso cérebro, da ordem de 10 [elevado à décima quinta potência (15)]. É uma cifra astronômica.
Ou seja, é um volume conexional extraordinário, para o qual não há ainda uma representação satisfatória e minimamente reproduzível. A teoria não pode se impor -ou não deveria se impor- à manifestação física do próprio fenômeno. E o fenômeno em questão exibe uma complexidade que desafia as mais arrojadas teorias e representações que possuímos.
O organismo humano é um sistema biológico de altíssima complexidade que possui propriedades e faculdades fisioquímicas extraordinárias, que permitem a ele a recursividade e a retroalimentação, a homeostase, e também objetivam permitir a ele refinar a melhor emoção, que, por sua vez, propiciará uma ação coordenada no mundo em que está inserido e deve performar.
Sobre a complexíssima atividade cerebral, György Buzsáki (2006, p. 334) escreve que “a informação neuronal é lançada paralelamente em múltiplas malhas justapostas e sobrepostas, dificultando a distinção entre o processamento superior e inferior”. Todavia, engrossando o coro de pensadores e pesquisadores que se deram conta da complexidade do próprio fenômeno da mente que emerge do cérebro, e observando os empecilhos extraordinários que existem à revelia de nossa volição, escreve György Buzsáki (2006, p. 341), “infelizmente, sem uma compreensão completa dos mecanismos fisiológicos subjacentes aos padrões de campo macroscópicos, pode-se apenas especular o que acontece no nível neuronal”. “A mente humana é intangível [escreve Steven Mithen (2002, p. 17)], uma abstração. Apesar de estudada durante mais de duzentos anos por psicólogos e filósofos, ela foge a definições e descrições adequadas”. Como nos informa ainda Steven Mithen (2002, p. 23), “um dos argumentos da nova psicologia evolutiva é que a noção da mente como mecanismo de aprendizado geral, como se fosse um tipo de computador poderoso, é incorreta”.
Se não bastasse a complexidade da atividade neuronal em si, por assim dizer, vista como ‘localmente’, enfim, a comunicação entre os neurônios que estão próximos espacialmente uns dos outros, há também as interações de módulos distantes, de regiões não imediatamente conectadas, que se conectam com outras regiões e módulos não-localmente, o que de fato aumenta muito a complexidade de todo o sistema neuronal que se deseja compreender e representar. Nesse âmbito de complexidade, nessa dimensão de indeterminação, a pergunta que não quer calar é a seguinte: como replicar uma dinâmica tão complexa como essa numa linguagem formal computável no interior de um computador ou robô? Ou seja, como modelar um software que compute o que é teoricamente incomputável? Irrepresentável? Não quantificável? Eis a questão posta.
Acerca de um hipotético simulacro de corpo
Podemos, com ajuda da tecnologia avançada e dos dados
neurológicos, criar um artefato consciente? [...] Eu tenho
duas respostas [...]. Não, há poucas possibilidades de
criarmos um artefato com qualquer coisa que se
assemelhe à consciência humana [...]. Sim, podemos criar
artefatos com os mecanismos formais da consciência [...],
e pode ser possível afirmar que esses artefatos possuem
algum tipo de consciência
Vejamos uma hipótese relativamente simples e pouco ambiciosa -em termos do estado atual da arte das ciências computacionais, robóticas, mecatrônicas, da engenharia de novos materiais, IA e assim por diante- e juntemos num só corpo cibernético-informacional pernas e braços biônicos, superfortes e flexíveis; que fossem amparados por um esqueleto de titânio muito mais leve e resistente do que os ossos humanos são; e que fosse recoberto por musculatura e tecidos de fibra sintética indeformável e ultra resistente, graças à nanoestruturação de novos materiais, mais fortes que o titânio e o kevlar, por exemplo; cuja sensibilidade tátil pudesse ser em muitos graus aumentada, e também alimentada, mantida e distribuída informacionalmente através do sistema por feixes de fibras óticas muitíssimo finos, sensíveis e também potentes, capazes de sustentar um tráfego brutal de dados e informações, algo que certamente seria necessário para a consumação de sua sensorialidade, otimizando os comandos internos e captando e processando estímulos externos; e que fosse dotado com uma estrutura mecatrônico-robótica robusta e igualmente sofisticada, para centralizar todas as operações e ações.
Adicione a esse corpo, no que fosse a sua cabeça, o sistema ótico-imagético-visual mais moderno e sofisticado que existir; bem como um de emissão e captação de sons de última geração; e certamente já teríamos uma máquina que -pelo menos teoricamente- poderia nos superar em muitas atividades pontuais do nosso dia a dia. Não todas, mas em muitas delas, com certeza.
Todavia, mesmo possuindo um corpo tão resistente e poderoso, tão flexível e durável, versátil e capaz, tão veloz e forte, faltar-lhe-ia o principal. Ou seja, para que esse nosso ser robótico cibernético-informacional hipotético pudesse se tornar de fato um ente vivo, um ser pensante e criativo, capaz de atualizar constantemente seus próprios conhecimentos e saberes, seria absolutamente necessário equipá-lo com um processador que fizesse as vezes de cérebro, um constructo cibernético-informacional igualmente potente e extraordinariamente capaz como o nosso biológico, o que não seria uma tarefa fácil nos dias atuais.13
Mas, ainda assim, imaginemos hipoteticamente que o nosso robô de fato pudesse ser construído segundo a nossa estatura média, no que for possível, à nossa imagem e semelhança, e que ele possuísse um processador tão capaz quanto os nossos cérebros,14 em termos de operações lógico-emotivo-cognitivas, e que, além disso, também, tivesse à sua disposição um avançadíssimo sistema operacional de comunicação sem fio com os seus hipotéticos pares robóticos, capacitando-o a se conectar automaticamente com os demais aparatos técnicos de nossa cultura. Mesmo assim, faltar-nos-ia ainda, em nosso projeto hipotético de ser cibernético-informacional, um elemento chave e de fato fundamental para a estruturação de qualquer ente animado: a consciência. Enfim, uma estruturação psíquica-emocional-corpórea de vivente -ainda que não seja necessariamente biológica- instanciada no interior da cabeça de nosso androide ou robô.
Ou seja, seria necessário obter algo de fato extraordinário, o que vale dizer, um simulacro perfeito do órgão mais misterioso e complexo do corpo humano -o cérebro-, órgão esse bioevolutivamente constituído através das eras imemoriais para ‘chegar’ exatamente ao que é capaz de realizar atualmente, ou seja, esse aglomerado de massa neuronal de aproximadamente um quilo e meio, fortificado dentro de nosso sólido crânio, estrutura essa que ‘graciosamente’ produz e ampara a nossa existência física e intelectiva. E fazê-lo -o que é muitíssimo complicado, senão impossível- de forma artificial. De modo que seria necessário conceber e construir, em tempo infinita e incomparavelmente menor -em algumas poucas décadas,15 por exemplo-, uma réplica perfeita do melhor de nós mesmos e de nossa bioevolução, de nosso órgão mais misterioso e complexo, imitando o único modelo16 existente e disponível que realiza tal atividade, enfim, o próprio cérebro, e fazê-lo numa outra plataforma, emulando propriedades e comportamentos que até hoje só existem e são possíveis no universo da biologia e do vivo.17
Sobre os limites da computação
O fato é que, nos séculos que nos separam dos escritos de
Descartes, os filósofos, lógicos, matemáticos e
pesquisadores da ciência da computação conseguiram
isolar os princípios gerais do raciocínio matemático, e os
engenheiros eletrônicos criaram máquinas que calculam de
acordo com esses princípios. O resultado é esse objeto
portátil que teria assombrado Descartes
Como já mencionamos superficialmente nas seções anteriores, há limites irremovíveis no que tange à computação e ao âmbito da modelagem e engenharia de software. Um computador, seja ele qual for, é uma máquina concebida segundo a lógica de máquinas universais Turing, o que vale dizer, que são modelos representativos conceituais abstratos, que operam segundo quatro regras básicas, a saber: avançar, recuar, incluir e excluir, que se dão numa espécie de fita infinita que é a memória.
Daí advém o fato de serem chamadas de máquinas universais. Em certo sentido, elas são abstrações descritivas conceituais, capazes de suportar outras representações descritivas conceituais também abstratas -que são os programas-, que, por sua vez, simulam de forma limitada e pré-programada tal ou qual inteligência, faculdade ou propriedade, estritamente de acordo com as instruções inscritas em seu programa, ou seja, em seu software.
Além disso, as máquinas Turing também operam segundo a arquitetura de Von Neumann, o que significa dizer que são compostas de unidades de memória, de controle e executiva. Como escreve Umberto Pesavento (1996, p. 338),
Von Neumann definiu um construtor universal como uma máquina capaz de (a) ler a descrição de um conjunto de células quiescentes arbitrárias a partir de uma fita, (b) produzir excitações em um campo de células no estado em branco para construir a célula quiescente descrita na montagem e, finalmente, (c) ativar esse conjunto de células por uma excitação de partida. A máquina de auto-reprodução [...] é obtida de um construtor universal, fornecendo-lhe uma descrição do próprio construtor e adicionando a ele a capacidade de copiar a descrição fornecida.
“Uma das principais deficiências dos autômatos celulares de von Neumann, no que diz respeito ao processamento paralelo [informa-nos ainda Umberto Pesavento (1996, p. 350)], é a falta de cruzamento de sinal. Essa falha torna as estruturas implementadas em tais autômatos incômodas e muito fracamente paralelas”. Algo aparentemente simples, pelo menos em tese e para os técnicos envolvidos, mas que pode requerer de um leitor leigo interessado, de fato, um pouco mais de dedicação criativa, no sentido de imaginá-la (máquina universal Turing-Von Neumann), compreendê-la, e também de ter claro em mente as suas potencialidades, como também, por outro lado, as suas irremovíveis limitações.
Lembrando que até aqui tratamos apenas do hardware, o que vale dizer, da estrutura técnica necessária à computação, estrutura essa que, para poder funcionar, precisa ser dotada também de softwares que estejam em conformidade com as mesmas potencialidades e limitações dessas máquinas computacionais. Nesse sentido, no que se refere ao software, ou ao que poderia ser chamado de sua ‘natureza’ intrínseca, existe uma característica importante chamada essência. Como nos informa Frederick Brooks (1986, p. 11),
a essência de uma entidade de software é um conjunto de conceitos interligados: conjuntos de dados, relações entre dados, algoritmos e invocações de funções. Essa essência é abstrata na medida em que tal construção conceitual é a mesma sob muitas representações diferentes. No entanto, é altamente preciso e ricamente detalhado.
Assim sendo, continua Frederick Brooks (1986, p. 11), “as descrições de uma entidade de software que abstraem sua complexidade geralmente abstraem sua essência”, ou seja, o mesmo pode ser dito no sentido inverso, do limite de sua complexidade, enfim, querer imaginar que um software ou programa pode adquirir inteligência e consciência por si, seria o mesmo que sugerir que ele pode atuar além de sua programação original, o que seria o mesmo que abstrair sua essência mais estruturante.
Mas, o que é afinal um computador? Uma boa definição é que ele é uma máquina de estados discretos que torna acessível matemáticas avançadas, executando cálculos extraordinários, muito rápido, fundamentados em conceitos igualmente complexos, equipamentos que usamos no dia a dia para as mais diversas finalidades, sem que nem mesmo saibamos disso. Em última instância, e no extremo, um computador universal do tipo Turing/Von Newmann é um constructo que trabalha matematicamente, com a ressalva de que ele trabalha apenas uma parte da matemática humana que pode ser computacional, ou seja, computada. Ou, em outros termos, a matemática de números computáveis, que não é absolutamente idêntica à matemática humana.
Diante disso, em primeiro lugar, o problema que se coloca à nossa reflexão -na dicção de Jean-Pierre Changeux e Alain Connes (1995, p. 179)- é o seguinte: “poderemos algum dia construir uma máquina de Turing, com performance idêntica à do cérebro humano, se o cérebro humano é por sua vez uma máquina de Turing”.
O que precisa ser retido é que uma máquina Turing trabalha com um espectro limitado de números computáveis, ou seja, os que estejam ao alcance dessas teorias e arquiteturas. Para superar algo assim tão estruturante, tornar-se-ia necessário conceber um computador que fosse capaz de computar o que hoje é incomputável, como sentido, valor, significado e assim por diante. Necessário também seria que ele exibisse um alto grau de sensibilidade e autoconsciência, e que pudesse, acima de tudo, se autocorrigir e se atualizar heuristicamente. Segundo Jean-Pierre Changeux e Alain Connes (1995, p. 103), seria necessário “um computador que, no jogo de xadrez [por exemplo], conseguisse compreender seus erros para deixar de cometê-los depois, ou que inventasse uma [nova] estratégia. No lugar de ter na memória uma lista de aberturas [jogadas], inventaria uma nova abertura”.
Todavia, enquanto isso não acontecer, podemos defender a posição relativamente sólida de que estamos bastante distantes de um contexto assim, em que máquinas sejam pretensamente inteligentes, conscientes, autopoiéticas18 e também autossuficientes. Changeux e Connes (1995, p. 193) sustentam absolutamente o mesmo: “Não estaríamos longe de um novo modelo de computadores capazes de adaptação, se não houvesse o problema da complexidade, que impede de produzir máquinas quando a complexidade do algoritmo é de crescimento exponencial”.
O que impressiona é o fato de, ainda hoje -cinquenta anos depois-, muitas dessas suposições continuarem residindo na mera prematuridade das hipóteses. No que se refere à teoria de Von Neumann do Self-reproducing automata, Umberto Pesavento (1996, p. 337) esclarece que
a extensão conceitual de von Neumann é relevante do ponto de vista bio-teórico, uma vez que proporcionou pela primeira vez as condições necessárias para que um sistema seja capaz de auto-reprodução. No entanto, devido ao rígido determinismo que governa as máquinas de Von Neumann, bem como a falta de tolerância a falhas, elas não são bons modelos de seres vivos.
Ou seja, como referenciamos reiteradamente ao longo desse ensaio, existe um vertiginoso abismo separando a capacidade e potência de computação atual, por um lado, e da modelagem objetiva de sistemas vivos, inteligentes e conscientes, por outro, já que não se compreende completamente a fenomenologia biológica.
Conclusivamente, as afirmações que fizemos no decorrer desse artigo sobre os limites da computação e sobre a impossibilidade de mensurar o fenômeno complexo humano em linguagem computacional de forma conceitual, seja formalmente, seja matematicamente, também têm origem no próprio conhecimento formal que possuímos hoje, como o problema enunciado no teorema da incompletude de Gödel, por exemplo. Socorremo-nos novamente na lavra de Changeux e Connes (1995, p. 174), de modo a aclarar a dimensão do desafio que subjaz ao sonho de construir máquinas realmente inteligentes e conscientes:
O teorema da incompletude de Gödel [...] afirma que, quaisquer que sejam os axiomas, em número finito ou dados de maneira recorrente, existem sempre questões às quais não podemos responder, que permanecem indecidíveis, e para as quais nos faltarão informações. Em outros termos, o teorema de Gödel especifica que é impossível tomar um número finito de axiomas de tal modo que toda questão seja decidível. O que não significa que não podemos analisar uma questão a partir do que sabemos, mas que o número de questões interessantes e novas que precisarão ser adicionadas à resposta é infinito.
Assim sendo, diante de possibilidades infinitas, não é possível depreender quaisquer representações finitas que possam, ainda assim, ser fiéis à realidade biológica. Além disso, como lemos em Von Neumann, há outros problemas potenciais que se apresentam sob a forma de paradoxo. Poderia, por exemplo, uma inteligência qualquer criar uma inteligência igual ou superior à sua própria. Nesse sentido, muito se fala de máquinas dotadas com IA concebendo e produzindo outras máquinas de IA mais inteligentes que elas mesmas, geração após geração, mas o próprio Von Neumann (1966, p. 79) explica que,
todos sabem que uma máquina-ferramenta é mais complicada que os elementos que podem ser feitos com ela, e que, em geral, um autômato A, que pode fazer um autômato B, deve conter uma descrição completa de B e as regras sobre como comportar-se enquanto efetua a síntese. Assim, dá-se uma impressão muito forte de que a complicação, a potencialidade produtiva de uma organização, é degenerativo, que uma organização que sintetiza algo é necessariamente mais complicada, de uma ordem superior, do que a organização que sintetiza.
Conclusão
Diante do relato exposto ao longo desse artigo, é fácil perceber que as promessas demasiado auspiciosas de alguns entusiastas provocaram uma expectativa no imaginário popular no que diz respeito a um possível engendramento de inteligências artificiais complexas em um meio cibernético-informacional. Todavia, tais promessas definitivamente não encontram eco na realidade factual dos dias atuais, principalmente se levamos em conta o estado da arte de fazer computadores e programas. Se ainda não temos robôs andando por aí, indubitavelmente inteligentes e conscientes, assim como nós, é simplesmente porque esse tipo de realização ainda está longe de nosso alcance objetivo em termos técnicos e tecnológicos. Assim sendo, uma coisa de fato simples é sonhar com um robô de inteligência superior semelhante à nossa, consciente de si e do mundo, e outra completamente diferente é construí-lo na realidade factual com a potência e a performance necessárias para resistir a quaisquer comparações com um organismo humano bioevolutivamente estruturado e constituído.
É relativamente fácil, por outro lado, perceber o quanto falta às ciências para alcançar o complexo biológico, no sentido de compreender na plenitude o que seja e signifique ser um humano. Assim, no sentido de uma possível conclusão de nossas reflexões até aqui, acreditamos ser pertinente sustentar que, para que possa surgir uma forma realmente complexa de inteligência artificial em sistemas cibernético-informacionais, faz-se necessário conceber primeiro novas maneiras de processar informações e dados, enfim, novas maneiras de computar, que não seja a já exaustivamente mencionada máquina universal Turing, associada à arquitetura Von Neumann. Martin Davis (2006, p. 126) confirma essa tese, informando-nos de que devemos ver a “computabilidade de Turing como um limite superior teórico e prático para o que pode ser calculado”.
O que vale dizer que, não basta apenas conceber novas abordagens na engenharia de software, na elaboração de programas, nem muito menos avanços progressivos de potência e velocidade nos hardwares, faz-se necessário também algo muito mais desafiador e extraordinário, que seria a concepção de novas formas de computação, numa linguagem diferente da dos algoritmos, pois, como afirmamos logo no início de nossas argumentações, certas qualidades e propriedades do humano biológico vivo são impossíveis de serem representadas fidedignamente por meio da linguagem mais universal, versátil e poderosa que possuímos na atualidade: a matemática.
Ademais, como acrescentam Dina Goldin e Peter Wegner (2004, p. 5), “algoritmos, modelados por TMs, [máquinas de Turing] permaneceram centrais para a ciência da computação até hoje”. Ou seja, ainda que se fale de redes neurais, de aprendizagem de máquina e aprendizagem profunda, hipercomputação ou mesmo quântica, ainda assim, estaremos fazendo referência exatamente a um tipo limitado de processamento computacional, cuja lógica conceitual teórica continua absolutamente idêntica às máquinas universais Turing/Von Neumann.
O que percebemos, é que existem possibilidades latentes em alguns aspectos para avançar nas técnicas de processamento de dados e modelagem de IA complexas, mas todas elas esbarram ou acabam esbarrando nas limitações do não computável, do não determinável, do imensurável dos sistemas biológicos vivos, por exemplo, que se auto-organizam e se auto-atualizam constantemente, ou seja, que atualizam seus próprios conhecimentos durante o ato de conhecer.
Martin Davis (2006, p. 131), fazendo referência às hipóteses da física hipercomputacional, o que vale dizer, um esforço para computar o incomputável, finaliza o seu artigo The Church-Turing thesis - Consensus and opposition escrevendo que,
supondo que [...] [um] observador possa alimentar problemas a um dispositivo sujeito a essa compressão de um tempo infinito, tal dispositivo poderia de fato resolver o insolúvel sem recorrer ao milagre de Kieu[19] de uma computação infinita em um período de tempo finito. É claro que, mesmo supondo que tudo isso realmente corresponda ao universo real em que vivemos, ainda há a questão de saber se um dispositivo real para aproveitar esse fenômeno é possível. Mas a questão teórica é certamente de interesse.
Notemos que Martin Davis situa tais teses no campo meramente hipotético, ou seja, como uma especulação um tanto distante da realidade mundana em que estamos inseridos, onde ainda reinam absolutas certas limitações. Nesse sentido, concluímos nosso raciocínio e argumentações juntamente com Dina Goldin e Peter Wegner (2004, p. 7), sustentando que,
embora os cientistas práticos da computação há muito tempo tenham ampliado o conceito de algoritmos para além da computação de funções, a ciência da computação teórica manteve a cosmovisão matemática. Apesar do trabalho teórico de complexidade avançada que se aventura fora dessa visão de mundo, como algoritmos on-line e distribuídos, jogos Arthur-Merlin e provas interativas, nosso tratamento da Teoria da Computação no nível de graduação não mudou. Os princípios matemáticos continuam a enquadrar a computação como baseada em funções e a delimitar nossa noção de problema computacional.