A história dos computadores e da computação

12 min de leitura
Imagem de: A história dos computadores e da computação
Avatar do autor

Equipe TecMundo

Hoje, os computadores estão presentes em nossa vida de uma forma nunca vista. Em casa, na escola, na universidade, na empresa e em qualquer outro lugar, eles estão sempre entre nós. Ao contrário do que parece, a computação não surgiu nos últimos anos ou décadas, e sim há mais de 7 mil anos.

Para começar, vamos falar sobre uma forma de calcular muito simples, mas que foi muito útil nas culturas antigas: o ábaco.

smart people are cooler

Tecnologia, negócios e comportamento sob um olhar crítico.

Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo

Ábaco, a primeira calculadora da história

Exemplo de ábaco russoMuitos povos da antiguidade utilizavam o ábaco para realizar cálculos do dia a dia, principalmente no comércio e no desenvolvimento de construções civis. Ele pode ser considerado a primeira máquina criada para cálculo, pois utilizava um sistema bastante simples e muito eficiente na resolução de problemas matemáticos. É basicamente um conjunto de varetas de forma paralela que contêm pequenas bolas para realizar a contagem.

Seu primeiro registro é datado de 5500 a.C. pelos povos que constituíam a Mesopotâmia. Contudo, o ábaco também foi usado por muitas outras culturas, e cada povo tem uma versão de específica dessa máquina, preservando a essência original. Seu nome na Roma Antiga era Calculus, termo do qual a palavra cálculo foi derivada.

Em operações matemáticas, ele é bastante útil para soma e subtração. Já para multiplicação e divisão não é muito recomendado, somente algumas versões mais complexas que a padrão.

Régua de cálculo

Durante vários séculos, o ábaco foi aperfeiçoado, sendo a principal ferramenta de cálculo por muito tempo. Entretanto, os principais intelectuais da época do Renascimento precisavam descobrir maneiras mais eficientes de efetuar cálculos; logo, em 1638, um padre inglês chamado William Oughtred criou uma tabela para a realização de multiplicações muito grandes. A base de sua invenção foram as pesquisas sobre logaritmos realizadas pelo escocês John Napier.

Régua de Cálculo

Até aquele momento, a multiplicação de números muito grandes era algo trabalhoso e demorado, porém Napier descobriu várias propriedades matemáticas e deu a elas o nome de logaritmos. Após o fato, multiplicar valores se tornou uma tarefa mais simples.

O mecanismo consistia em uma régua que já tinha uma boa quantidade de valores pré-calculados, organizados de forma que fossem acessados automaticamente. Uma espécie de ponteiro indicava o resultado do valor desejado.

Máquina de Pascal

Apesar de a régua de cálculo de Oughtred ser útil, os valores presentes nela eram predefinidos, o que não funcionava para calcular números que não estivessem presentes na tábua. Pouco tempo depois, em 1642, o matemático francês Blaise Pascal desenvolveu o que pode ser chamado de primeira calculadora mecânica da história, a Máquina de Pascal.

Máquina de Pascal

Seu funcionamento era baseado no uso de rodas interligadas que giravam na realização dos cálculos. A ideia inicial de Pascal era desenvolver uma máquina que realizasse as quatro operações matemáticas básicas, o que não aconteceu na prática, pois ela era capaz apenas de somar e subtrair. Por esse motivo, a tecnologia não foi muito bem acolhida na época.

Alguns anos após a Máquina de Pascal, em 1672, o alemão Gottfried Leibnitz conseguiu o que Pascal desejava: criar uma calculadora que efetuava soma e divisão, além de raiz quadrada.

A programação funcional

Em todas as máquinas e mecanismos mostrados, as operações estavam previamente programadas, não sendo possível inserir novas funções. Contudo, em 1801, o costureiro Joseph Marie Jacquard desenvolveu um sistema muito interessante. A indústria de Jacquard atuava no ramo de desenhos em tecidos, tarefa que ocupava muito tempo de trabalho manual. Vendo esse problema, ele construiu a primeira máquina realmente programável, com o objetivo de recortar os tecidos de forma automática.

Tal mecanismo foi chamado de Tear Programável, pois aceitava cartões com entrada do sistema. Dessa maneira, Jacquard perfurava o cartão com o desenho desejado e a máquina o reproduzia no tecido. A partir daquele momento, muitos esquemas foram influenciados.

A Máquina de Diferenças e o Engenho Analítico

Em 1822 foi publicado um artigo científico que prometia revolucionar tudo o que existia até então no ramo do cálculo eletrônico. O autor, Charles Babbage, afirmou que a máquina era capaz de calcular funções de diversas naturezas (trigonometria, logaritmos) de forma muito simples. Esse projeto foi chamado de Máquina de Diferenças.

Máquina de Diferenças

Houve um grande boom na época, pois as ideias aplicadas estavam muito à frente do seu tempo. Devido a limitações técnicas e financeiras, a Máquina de Diferenças só pôde ser implementada muitos anos depois.

Engenho AnalíticoApós um período, em 1837, Babbage lançou uma nova máquina, chamada de Engenho Analítico (Máquina Analítica), que aproveitava todos os conceitos do Tear Programável, como o uso dos cartões. Além disso, instruções e comandos podiam ser informados pelos cartões, fazendo uso de registradores primitivos. A precisão chegava a 50 casas decimais.

Novamente, ela não pôde ser implementada na época por conta de limitações técnicas e financeiras. A tecnologia existente não era avançada o suficiente para a execução do projeto; contudo, a contribuição teórica de Babbage foi tão grande que muitas de suas ideias são usadas até hoje.

A Teoria de Boole

Se Babbage é o avô do computador do ponto de vista de arquitetura de hardware, o matemático George Boole pode ser considerado o pai da lógica moderna. Ele desenvolveu, em 1847, um sistema lógico que reduzia a representação de valores com dois algarismos: 0 e 1.

Em sua teoria, o número 1 tem significados como: ativo, ligado, existente, verdadeiro; e 0 representa o inverso: não ativo, desligado, não existente, falso. Para indicar valores intermediários, como "mais ou menos" ativo, é possível usar dois ou mais algarismos (bits) para a representação. Por exemplo:

  • 00: desligado
  • 01: carga baixa
  • 10: carga moderada
  • 11: carga alta

Todo o sistema lógico dos computadores atuais usa a Teoria de Boole de forma prática. Para mais informações sobre o assunto, visite este artigo.

Máquina de Hollerith

O conceito de cartões desenvolvido no Tear Programável foi muito útil para a realização do censo de 1890 nos Estados Unidos. Na ocasião, Hermann Hollerith desenvolveu uma máquina que acelerou todo o processo de computação de dados.

Em vez da clássica caneta para marcar X em "sim" e "não", os agentes do censo perfuravam as opções nos cartões. Uma vez que os dados foram coletados, o processo de computação da informação demorou aproximadamente um terço do comum.

Máquina de Hollerith

Aproveitando todo o sucesso ocasionado por sua máquina, Hollerith fundou a própria empresa, a Tabulation Machine Company, em 1896. Após algumas fusões com outras companhias e anos no comando do empreendimento, Hoolerith faleceu. Quando um substituto assumiu o lugar, em 1916, o nome da empresa foi alterado para Internacional Business Machine, a mundialmente famosa IBM.

Computadores pré-modernos

Na primeira metade do século XX, vários computadores mecânicos foram desenvolvidos, e com o passar do tempo componentes eletrônicos foram adicionados aos projetos. Em 1931, Vannevar Bush implementou em um computador uma arquitetura binária propriamente dita usando os bits 0 e 1. A base decimal exigia que a eletricidade assumisse 10 voltagens, o que era muito difícil de ser controlado, por isso Bush usou a lógica de Boole, em que somente 2 níveis de voltagem eram suficientes.

A Segunda Guerra Mundial foi um grande incentivo no desenvolvimento de computadores, visto que as máquinas estavam se tornando mais úteis em tarefas de desencriptação de mensagens inimigas e criação de armas mais inteligentes. Entre os projetos desenvolvidos no período, os que mais se destacaram foram o Mark I, em 1944, desenvolvido na Universidade Harvard (EUA), e o Colossus, em 1946, criado por Allan Turing.

Painel lateral do Mark I

Sendo uma das figuras mais importantes da computação, Turing focou sua pesquisa na descoberta de problemas formais e práticos que poderiam ser resolvidos por computadores. Para aqueles que apresentavam solução, foi criada a famosa teoria da Máquina de Turing, que, com um número finito de operações, resolvia problemas computacionais de diversas ordens. A ideia foi colocada em prática com o Colossus.

Computação moderna

A computação moderna pode ser definida pelo uso de computadores digitais, que não utilizam componentes analógicos como base de seu funcionamento, e pode ser dividida em várias gerações.

Primeira geração (1946-1959)

A primeira geração de computadores modernos tinha com principal característica o uso de válvulas eletrônicas com dimensões enormes e que utilizavam quilômetros de fios, chegando a atingir temperaturas muito elevadas, o que frequentemente causava problemas de funcionamento. A maioria dos programas era escrita na linguagem de máquina.

ENIAC

Em 1946 ocorreu uma revolução no mundo da computação com o lançamento do Electrical Numerical Integrator and Calculator (ENIAC), desenvolvido pelos cientistas norte-americanos John Eckert e John Mauchly. Essa máquina era em torno de mil vezes mais rápida que qualquer outra da época.

Um pedaço de um computador ENIAC

A principal inovação foi a computação digital, muito superior aos projetos mecânicos-analógicos desenvolvidos até então. Com o ENIAC, a maioria das operações era realizada sem a necessidade de movimentar peças de forma manual, e sim pela entrada de dados no painel de controle. Cada operação podia ser acessada através de configurações-padrão de chaves e switches.

Essa máquina era muito grande, com aproximadamente 25 metros de comprimento por 5,5 metros de altura, com peso total de 30 toneladas. Esse valor representa algo como um andar inteiro de um prédio.

Segunda geração (1959-1964)

Na segunda geração, houve a substituição das válvulas eletrônicas por transístores, o que diminuiu muito o tamanho do hardware. A tecnologia de circuitos impressos também foi criada, evitando que fios e cabos elétricos ficassem espalhados. É possível dividir os computadores dessa geração em duas grandes categorias: supercomputadores e minicomputadores.

IBM 7030IBM 7030

O IBM 7030, também conhecido como Strech, foi o primeiro supercomputador lançado na segunda geração, desenvolvido pela IBM. Seu tamanho era bem reduzido se comparado com máquinas como o ENIAC, podendo ocupar somente uma sala comum. Ele era utilizado por grandes companhias, custando em torno de 13 milhões de dólares na época.

A máquina executava cálculos em microssegundos, o que permitia até 1 milhão de operações por segundo; dessa maneira, um novo patamar de velocidade foi atingido.

Várias linguagens foram desenvolvidas para os computadores de segunda geração, como Fortran, Cobol e Algol; assim, softwares podiam ser criados com mais facilidade. Muitos mainframes (modo como as máquinas da época são chamadas) ainda estão em funcionamento em várias empresas até hoje, como na própria IBM.

PDP-8

PDP-8 foi um dos minicomputadores mais conhecidos da segunda geração. Basicamente, foi uma versão mais básica do supercomputador, sendo mais atrativo do ponto de vista financeiro, custando centenas de milhões de dólares a menos.

Terceira geração (1964-1970)
Painel de controle do IBM 360

Os computadores dessa geração foram conhecidos pelo uso de circuitos integrados que permitiram que uma mesma placa armazenasse vários circuitos que se comunicavam com hardwares distintos ao mesmo tempo. Dessa maneira, as máquinas se tornaram mais velozes e com um número maior de funcionalidades. O preço também diminuiu consideravelmente.

Um dos principais exemplos da terceira geração é o IBM 360/91, lançado em 1967, um grande sucesso em vendas na época. Essa máquina já trabalhava com dispositivos de entrada e saída modernos, como discos e fitas de armazenamento, além de poder imprimir todos os resultados em papel.

O IBM 360/91 foi um dos primeiros a permitir programação da CPU por microcódigo, então as operações usadas por um processador qualquer podiam ser gravadas através de softwares, sem a necessidade de projetar todo o circuito de forma manual.

No final desse período houve preocupação com a falta de qualidade no desenvolvimento de softwares, visto que grande parte das empresas estava focada em hardware.

Quarta geração (1970 até hoje)

A quarta geração é conhecida pelo advento dos microprocessadores e computadores pessoais, com a redução drástica do tamanho e do preço das máquinas. As CPUs atingiram o incrível patamar de bilhões de operações por segundo, permitindo que muitas tarefas fossem implementadas.

Os circuitos acabaram se tornando ainda mais integrados e menores, o que possibilitou o desenvolvimento dos microprocessadores. Quanto mais o tempo foi passando, mais fácil foi comprar um computador pessoal. Nessa era, os softwares e sistemas se tornaram tão importantes quanto o hardware.

Altair 8800

O Altair 8800, lançado em 1975, revolucionou tudo o que era conhecido como computador até aquela época. Com tamanho que cabia facilmente em uma mesa e em formato retangular, era muito mais rápido que os modelos anteriores. O projeto usava o processador 8080 da Intel, o que propiciou todo esse desempenho.

Altair 8800

Com todo o boom do Altair, um jovem programador chamado Bill Gates se interessou pela máquina, criando a linguagem de programação Altair Basic. O computador funcionava com cartões de entradas e saída sem uma interface gráfica propriamente dita.

Apple, Lisa e Macintosh

MacintoshVendo o sucesso do Altair, Steve Jobs (fundador da Apple) sentiu que faltava algo no projeto: apesar de suas funcionalidades, o computador não era fácil de ser utilizado.

Jobs sempre foi conhecido por ter um lado artístico apurado, então em sua opinião um computador deveria representar de maneira gráfica o seu funcionamento, ao contrário de luzes que acendiam e apagavam. O Apple I, lançado em 1976, pode ser considerado o primeiro computador pessoal, pois acompanhava um pequeno monitor que exibia o que estava acontecendo no PC. Como o sucesso da máquina foi muito grande, em 1979 foi lançado o Apple II, que seguia essa ideia.

Na mesma linha, os computadores Lisa (1983) e Macintosh (1984) foram os primeiros a usar mouse e ter a interface gráfica como conhecemos hoje, com pastas, menus e área de trabalho. Não é preciso dizer que esses PCs tiveram um sucesso estrondoso, vendendo um número enorme de máquinas.

Microsoft e processadores Intel

Paralelamente à Apple, Gates fundou a Microsoft, que também desenvolvia computadores. No começo de sua existência, no fim dos anos 1970 até meados dos anos 1980, ele usou as ideias contidas nas outras máquinas para construir as próprias. Utilizando processadores 8086 da Intel, o primeiro sistema operacional da Microsoft, MS-DOS, estava muito aquém dos desenvolvidos por Jobs.

Por esse motivo, Gates acabou criando uma parceria com Jobs e, após algum tempo, copiou toda a tecnologia gráfica do Macintosh para o seu novo sistema operacional, o Windows. E Macintosh e Windows se tornaram fortes concorrentes. Com a demissão de Jobs da Apple, a empresa acabou muito enfraquecida, e a Microsoft se tornou a líder do mercado de computadores pessoais.

Desde aquela época, vários processadores Intel foram lançados, acompanhados de várias versões de Windows. Entre os modelos Intel, podemos citar 8086, 286, 386, 486, Pentium, Pentium 2, Pentium 3, Pentium 4, Core 2 Duo e i7. A AMD entrou no ramo de processadores em 1993 com o K5, lançando K6, K7, Athlon, Duron, Sempron, entre outros.

Processadores Pentium

Todos os computadores pessoais lançados atualmente são bastante derivados das ideias criadas pela Apple e pela Microsoft.

Multi-core

Uma das principais tendências dos últimos anos no mercado de desktops é a chamada multi-core, que consiste em vários processadores trabalhando paralelamente, o que faz as tarefas poderem ser divididas e executadas de maneira mais eficiente. No início da década de 2000, os transístores usados no processador já estavam muito pequenos, causando aquecimento maior que o esperado. Dessa maneira, foi necessário dividir a CPU em vários núcleos. Para mais informações, clique aqui.

Computação de bolso e tablets

IPhoneDe alguns anos para cá, cada vez mais computadores móveis são lançados no mercado, os quais podem ser carregados dentro do bolso — por isso o seu nome. Entre esses dispositivos podemos citar os celulares, que cada vez mais executam funções existentes nos computadores, tendo sistemas operacionais completos, além de palmtops, pendrives, câmeras fotográficas, TVs portáteis etc.

Na verdade, a principal tendência do futuro, que já está ocorrendo agora, é a união de muitas funcionalidades em um mesmo aparelho. A chegada dos tablets ao mercado foi outro grande passo para que isso se tornasse realidade.

smart people are cooler

Tecnologia, negócios e comportamento sob um olhar crítico.

Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo

Você sabia que o TecMundo está no Facebook, Instagram, Telegram, TikTok, Twitter e no Whatsapp? Siga-nos por lá.