Em 1936, quase dez anos antes da construção do primeiro computador, o matemático inglês Alan Turing propôs um modelo simples do que seria uma máquina para tratamento de informação, segundo as seguintes premissas Desde a suspeita de Hobbes de que pensar é calcular, que a Modernidade se amparou da noção de que a lógica pode ser codificada, como Boole tentou na primeira metade do século XIX, mas que mesmo Leibniz, no século XVII, já era de certo modo precursor com sua “característica universal”. As ideias-motoras da informática já estavam se apresentando aguardando tão somente seu ordenamento e aplicação no século XX, por Turing, Wiener, von Neumann e outros, em uma concepção que perdura até hoje, mesmo quando se trata da moderna “inteligência artificial”: a “máquina universal”. :

  • Os processos passíveis de decomposição em uma sequência finita e ordenada de operações sobre um alfabeto restrito, que alcançam o resultado buscado, em um tempo finito, podem ser realizados por uma “máquina de Turing”;
  • Os trabalhos, que uma máquina de Turing é capaz de realizar, são formalizados como algoritmos ou procedimentos efetivos;
  • Uma máquina de Turing pode encontrar-se em um número finito de estados distintos e predeterminados, correspondendo cada estado a uma maneira diferente da máquina reagir às mensagens de entrada;
  • Para cada problema calculável corresponde ao menos uma máquina de Turing (ou seja, uma tabela de instruções) capaz de resolvê-lo;

Esta máquina, denominada máquina universal, é, portanto, um gênero de máquina capaz de resolver todos os problemas calculáveis ou de realizar todos os procedimentos efetivos; o poder da máquina universal reside em sua tabela de instruções, que lhe permite inclusive imitar o comportamento de qualquer outra máquina.

,

Essência da Informática, Natureza do SIG