No século XIX surge a proposta de sistema formal, em contrapartida a essa busca de uma linguagem universal, reunindo em si propriedades gramaticais e semânticas. Uma vez eliminado todo apelo à intuição nas construções matemáticas, sendo estas então dissociadas da consistência lógica exigida pela verdade categórica, as chamadas “ciências matemáticas” paradoxalmente se engajam na via do rigor crescente (rigor mortis?). Substituem-se nas construções matemáticas as palavras da linguagem usual, por símbolos “virgens de sentido”, e, por conseguinte, suscetíveis de receber exata e exclusivamente aquele sentido que os axiomas lhes conferirem, segundo o sistema formal que os definiu.
A especificação das regras segundo as quais devem ser conduzidas as deduções válidas, constitui a etapa seguinte dessa formalização. Explicitadas, as regras de lógica se tornam por sua vez hipotéticas e convencionais, como os axiomas; levando a demonstração de um teorema em um sistema formal, a ter a aparência de uma transformação ordenada de configurações de símbolos, de manipulação de signos tipográficos, seguindo procedimentos exatamente definidos. A evidência dos encadeamentos lógicos não tem mais lugar na dedução, travestida em um estrito jogo formal.
Por uma volta inesperada, a demonstração sofre uma metamorfose e vira algoritmo cego mas eficaz, manipulação de símbolos em um plano virtual, abstrato e purificado, que distingue a Modernidade ocidental de qualquer outra. Como já apresentado, brevemente, estes sistemas têm certas propriedade importantes:
- primeiro, a semântica de um sistema formal concerne as interpretações concretas que dele se podem fazer; intrinsecamente desprovido de significado, o sistema formal se presta a por em evidência isomorfias estruturais entre domínios concretos aparentemente sem relações; ou seja, a mesma axiomática pode formalizar várias teorias ou modelos;
- a sintaxe de um sistema formal se relaciona unicamente a suas características internas; dentre as propriedades sintáxicas destacam-se a consistência (se o sistema não contém fórmulas que não possam ser derivadas de seus axiomas), a completude (se dada uma expressão bem formada do sistema, pode-se demonstrá-la como falsa ou verdadeira) e decidibilidade (na medida em que o sistema exige um método que possa distinguir entre proposições demonstráveis ou refutáveis, e outras).
Caberá ao matemático Gödel, em 1931, a responsabilidade por abalar definitivamente esta formalização progressiva, ao demonstrar que um sistema formal suficientemente poderoso para codificar a aritmética, não atenderia ao requisito de completude. Pondo um termo na ambição dos matemáticos formalistas de codificar a matemática (e até o mundo!), em sistemas formais dedutivos, perfeitamente coerentes.
Por outro lado, foi justamente abordando a questão da decidibilidade que Alan Turing elaborou o modelo de autômato universal, em seguida batizado de “máquina universal” ou de Turing. A perfeita definição de algoritmo que ele alcançou nesta tentativa, reforçou a demonstração de Gödel, ao mesmo tempo em que assentava as bases teóricas da informática, através da máquina universal, como já relatamos. Fato que o levou a participar ativamente da construção de protótipos de computador, na Inglaterra da década de 1940.
Na gênese de uma ordem dedutiva perfeita emerge o “algoritmo rigoroso”, que paradoxalmente faz seu ninho em um autômato cego, que privilegia o poder operatório, a velocidade, a instrumentalidade, ou como prefere Lyotard (1979) o “performativo”. Prevalece, cada vez mais, a visão utilitarista da matemática da contabilidade renascentista, da ciência do Estado — a estatística, e da filosofia analítica deste século.
Referências:
Tese de Doutorado em Filosofia (UFRJ, 2005)