Postagem realizada em: 14/03/2007 às 17:09:58 - Última atualização em: 30/11/-0001 às 00:00:00
Autor: Estela Alves Madeira
Nesta aula, a profa. sugeriu que pesquisássemos sobre três temas relacionados ao mundo da informação: a história dos computadores, as interfaces gráficas e as bases de dados. O primeiro assunto me interessou mais, pois nunca tinha lido a respeito. Fazendo uma pesquisa rápida via Google, cheguei as informações que seguem abaixo. Vale a leitura:
Vivemos na era da informação. Há informação sobre previsão do tempo, esportes, diversões, finanças...informação significa fatos: é o tipo de coisa presente em livros, que pode ser expressa em palavras ou imagens. A informação pode portanto vir em várias formas: verbal, visual, por ondas... Claude Shannon (1916-2001) a define assim: a informação está presente sempre que um sinal é transmitido de um lugar para outro.
Desde os primórdios, as formas de vida vem aperfeiçoando sua capacidade de processamento da informação. Com a evolução, surgiram as palavras e as regras para combiná-las: as leis da gramática e da lógica.
Os números são um tipo especial de palavra, com regras próprias. Pode-se representá-los nos dedos e originalmente as contas (operações com números) eram feitas nos dedos. Dessa forma, podemos dizer que no início dos tempos as operações também eram "digitais"! A escrita nasceu através dos sumérios, que inventaram um modo de representar a linguagem através de desenhos. Essa idéia difundiu-se entre as várias culturas, cada uma adquirindo seu modo próprio de representar a linguagem. Na região do Mediterrâneo surgiram o alfabeto e o ábaco. Esse último era usado para fazer contas. O ábaco dos romanos consistia de bolinhas de mármore que deslizavam numa placa de bronze cheia de sulcos. Isso gerou alguns termos matemáticos: em latim "Calx" significa mármore, assim "Calculus" era uma bolinha do ábaco, e fazer calculos aritméticos era "Calculare". Em suma, os tempos antigos eram realmente a era dos calculadores, e embora os povos antigos dispusessem de meios para escrever números, os cálculos eram raramente escritos.
Os hindus inventaram o zero escrito, e isso permitiu que eles efetuassem a aritmética decimal no papel. Aqui começa a chamada era do papel e lápis. A matemática hindu foi difundida pelos árabes que a espalharam pelo Ocidente. Em 830, um estudioso persa, conhecido por Al-Khwarismi, escreveu o livro definitivo sobre o assunto. Mais especificamente, o livro tratava de álgebra. Após ser usado repetidamente, o nome do matemático acabou se transformando em "algarismo", palavra que hoje denota os símbolos usados para representar números. Do mesmo radical vem a palavra "algoritmo", usada em computação.
Isaac Newton (1643-1727) com sua Teoria Gravitacional coroou a era do papel e lápis. A sua teoria despertou grandes desafios matemáticos, entre eles o Problema dos Três Corpos - o Sol, a Terra e a Lua, cuja solução era incrivelmente difícil e enfadonha. Com o tempo, um grande número de cientistas começou a pensar em fazer estes cálculos através de alguma máquina...
John Napier (1550-1617) inventou a "Tábua de Napier", que era similar a uma tabela de multiplicações. A tábua reduzia multiplicações e divisões a adições e subtrações. Usando esse princípio, em 1620 foram criadas as réguas de cálculo, usadas até 1970, antes das calculadoras de bolso.
Wilhelm Schickard (1592-1635) construiu a primeira máquina de verdade. Esta fazia multiplicação e divisão, mas foi perdida durante a Guerra dos Trinta Anos, sem que seu inventor pudesse defender sua primazia.
Blaise Pascal (1623-1662), filósofo e matemático francês, é conhecido como o inventor da primeira calculadora que fazia somas e subtrações. A calculadora usava engrenagens que funcionavam de maneira similar a um odômetro. A máquina não fez muito sucesso, pois era cara e requeria prática de uso. O filósofo e matemático alemão Gottfried Wilhelm Leibniz (1646-1716) aprimorou um bocado o projeto de Pascal e sonhava que um dia todo o raciocínio pudesse ser substituído pelo girar de uma alavanca. A máquina de Leibniz fazia multiplicações e divisões.
Em 1801, na França, durante a revolução industrial, Joseph Marie Jacquard (1752-1834) inventou um tear mecânico controlado por grandes cartões perfurados. Sua máquina era capaz de produzir tecidos com desenhos bonitos e intrincados. Foi tamanho o sucesso que Jacquard foi quase morto quando levou o tear para Lyons: as pessoas tinham medo que o tear lhes fizesse perder o emprego. Em 7 anos, já haviam 11 mil teares desse tipo operando na França.
O brilhante matemático inglês Charles Babbage (1792-1871) é conhecido como o "Pai do Computador". Babbage projetou o chamado "Calculador Analítico", muito próximo da concepção de um computador atual. O projeto, totalmente mecânico, era composto de uma memória, um engenho central, engrenagens e alavancas usadas para a transferência de dados da memória para o engenho central e dispositivos para entrada e saída de dados. O calculador utilizaria cartões perfurados e seria automático. Por algum tempo, o governo britânico financiou Babbage para construir a sua invenção.
Ada Augusta (1815-1852), Lady Lovelace, filha do poeta Lord Byron, era matemática e amadora entusiasta. Ada tornou-se a primeira programadora, escrevendo séries de instruções para o engenho analítico. Ada inventou o conceito de subrotina: uma seqüência de instruções que pode ser usada várias vezes em diferentes contextos. Ela descobriu o valor das repetições - os laços (loops): deveria haver uma instrução que retornasse a leitora de cartões a um cartão específico, de modo que a seqüência pudesse ter sua execução repetida. Ela sonhava com o desvio condicional: a leitora de cartões desviaria para outro cartão "se" alguma condição fosse satisfeita.
Infelizmente Babbage teve dificuldades com a tecnologia da época, que era inadequada para se construir componentes mecânicos com a precisão necessária. Com a suspensão do financiamento por parte do governo inglês, Babbage não pode concluir o seu projeto e o calculador analítico nunca foi construído.
As máquinas do século XIX usavam base 10. O matemático inglês George Boole (1815-1864) publicou em 1854 os princípios da lógica booleana, onde as variáveis assumem apenas valores 0 e 1 (verdadeiro e falso). A dificuldade de implementar um dígito decimal (um número inteiro entre 0 e 9) em componentes elétricos determinaram o uso da base 2 em computadores. A lógica booleana foi usada na implementação dos circuitos elétricos internos a partir do século XX.
Por volta de 1890, um outro nome entrou na história do computador: Dr. Herman Hollerith (1860-1929), responsável por uma grande mudança na maneira de se processar os dados dos censos da época. Os dados do censo de 1880, manualmente processados, levaram 7 anos e meio para serem compilados. Os do censo de 1890 foram processados em 2 anos e meio, com a ajuda de uma máquina de perfurar cartões e máquinas de tabular e ordenar, criadas por Hollerith e sua equipe.
As informações sobre os indivíduos eram armazenadas por meio de perfurações em locais específicos do cartão. Nas máquinas de tabular, um pino passava pelo furo e chegava a uma jarra de mercúrio, fechando um circuito elétrico e causando um incremento de 1 em um contador mecânico. Mais tarde, Hollerith fundou uma companhia para produzir máquinas de tabulação . Anos depois, em 1924, essa companhia veio a se chamar IBM.
O primeiro computador eletromecânico, o chamado Z-1, usava relês e foi construído pelo alemão Konrad Zuse (1910-1995) em 1936. Zuze tentou vendê-lo ao governo para uso militar, mas foi subestimado pelos nazistas, que não se interessaram pela máquina. Com a II Guerra Mundial, as pesquisas aumentaram nessa área. Nos Estados Unidos, a Marinha, em conjunto com a Universidade de Harvard e a IBM, construiu em 1944 o Mark I, um gigante eletromagnético. Em um certo sentido, essa máquina era a realização do projeto de Babbage. Mark I ocupava 120 m3, tinha milhares de relês e fazia um barulho infernal. Uma multiplicação de números de 10 dígitos levava 3 segundos para ser efetuada. Em segredo, o exército americano também desenvolvia seu computador. Esse usava apenas válvulas e tinha por objetivo calcular as trajetórias de mísseis com maior precisão.
Os engenheiros John Presper Eckert (1919-1995) e John Mauchly (1907-1980) projetaram o ENIAC: Eletronic Numeric Integrator And Calculator. Com 18.000 válvulas, o ENIAC conseguia fazer 500 multiplicações por segundo, porém só ficou pronto em 1946, vários meses após o final da guerra.
O matemático húngaro John von Neumann (1903-1957) formalizou o projeto lógico de um computador. Em sua proposta, von Neumann sugeriu que as instruções fossem armazenadas na memória do computador. Até então elas eram lidas de cartões perfurados e executadas, uma a uma. Armazená-las na memória, para então executá-las, tornaria o computador mais rápido, já que, no momento da execução, as instruções seriam obtidas com rapidez eletrônica. A maioria dos computadores de hoje em dia segue ainda o modelo proposto por von Neumann. Esse modelo define um computador seqüencial digital em que o processamento das informações é feito passo a passo, caracterizando um comportamento determinístico (ou seja, os mesmos dados de entrada produzem sempre a mesma resposta).
Em 1947, um grupo de Standford inventou o transistor. Usando semicondutores, os transistores poderiam substituir as válvulas, sendo menores, mais rápidos e mais duradouros, além de não esquentarem tanto nem consumirem tanta energia. Surgiram assim os primeiros computadores transistorizados. Nos anos 60, sob a influência do programa espacial americano, o desenvolvimento da microeletrônica levou a construção de circuitos transistorizados integrados em uma única pastilha de silício (chip) de dimensões reduzidas. Dezenas de milhares de transistores são integrados em um chip de alguns milímetros quadrados, dando origem aos circuitos integrados microminiaturizados. Isso possibilitou o surgimento de minicomputadores: computadores poderosos do tamanho de uma escrivaninha.
Em 1970, a Intel, empresa norte-americana, produziu o primeiro microprocessador. Um microprocessador é um circuito integrado do tipo LSI (large scale integration) que contém todo circuito lógico de uma unidade central de processamento em um chip do tamanho de uma unha. Os microprocessadores foram usados na construção de mini e microcomputadores. Os avanços nessa direção prosseguem até hoje, com os circuitos VLSI (very large scale integration) e os circuitos ULSI (ultra large scale integration). Também nos anos 70 surgiram grandes computadores, conhecidos como mainframes, imensamente poderosos. Hoje em dia, temos os chamados supercomputadores, como o Deep Blue, com velocidade superior a 500 MIPS (milhões de instruções por segundo).
A arquitetura de um computador depende do seu projeto lógico, enquanto que a sua implementação depende da tecnologia disponível. As três primeiras gerações de computadores refletiam a evolução dos componentes básicos do computador (hardware) e um aprimoramento dos programas (software) existentes. Os computadores de primeira geração (1945-1959) usavam válvulas eletrônicas, quilômetros de fios, eram lentos, enormes e esquentavam muito. A segunda geração (1959-1964) substituiu as válvulas eletrônicas por transistores e os fios de ligação por circuitos impressos. Isso tornou os computadores mais rápidos, menores e de custo mais baixo. A terceira geração de computadores (1964-1970) foi construída com circuitos integrados, proporcionando maior compactação, redução dos custos e velocidade de processamento da ordem de microsegundos. Tem início a utilização de avançados sistemas operacionais. A quarta geração, de 1970 até hoje, é caracterizada por um aperfeiçoamento da tecnologia já existente, proporcionando uma otimização da máquina para os problemas do usuário, maior grau de miniaturização, confiabilidade e velocidade maior, já da ordem de nanosegundos (bilionésima parte do segundo).
Quanta coisa...se quiser mais informações sobre o assunto, é só pesquisar estes links:
Vivemos na era da informação. Há informação sobre previsão do tempo, esportes, diversões, finanças...informação significa fatos: é o tipo de coisa presente em livros, que pode ser expressa em palavras ou imagens. A informação pode portanto vir em várias formas: verbal, visual, por ondas... Claude Shannon (1916-2001) a define assim: a informação está presente sempre que um sinal é transmitido de um lugar para outro.
Desde os primórdios, as formas de vida vem aperfeiçoando sua capacidade de processamento da informação. Com a evolução, surgiram as palavras e as regras para combiná-las: as leis da gramática e da lógica.
Os números são um tipo especial de palavra, com regras próprias. Pode-se representá-los nos dedos e originalmente as contas (operações com números) eram feitas nos dedos. Dessa forma, podemos dizer que no início dos tempos as operações também eram "digitais"! A escrita nasceu através dos sumérios, que inventaram um modo de representar a linguagem através de desenhos. Essa idéia difundiu-se entre as várias culturas, cada uma adquirindo seu modo próprio de representar a linguagem. Na região do Mediterrâneo surgiram o alfabeto e o ábaco. Esse último era usado para fazer contas. O ábaco dos romanos consistia de bolinhas de mármore que deslizavam numa placa de bronze cheia de sulcos. Isso gerou alguns termos matemáticos: em latim "Calx" significa mármore, assim "Calculus" era uma bolinha do ábaco, e fazer calculos aritméticos era "Calculare". Em suma, os tempos antigos eram realmente a era dos calculadores, e embora os povos antigos dispusessem de meios para escrever números, os cálculos eram raramente escritos.
Os hindus inventaram o zero escrito, e isso permitiu que eles efetuassem a aritmética decimal no papel. Aqui começa a chamada era do papel e lápis. A matemática hindu foi difundida pelos árabes que a espalharam pelo Ocidente. Em 830, um estudioso persa, conhecido por Al-Khwarismi, escreveu o livro definitivo sobre o assunto. Mais especificamente, o livro tratava de álgebra. Após ser usado repetidamente, o nome do matemático acabou se transformando em "algarismo", palavra que hoje denota os símbolos usados para representar números. Do mesmo radical vem a palavra "algoritmo", usada em computação.
Isaac Newton (1643-1727) com sua Teoria Gravitacional coroou a era do papel e lápis. A sua teoria despertou grandes desafios matemáticos, entre eles o Problema dos Três Corpos - o Sol, a Terra e a Lua, cuja solução era incrivelmente difícil e enfadonha. Com o tempo, um grande número de cientistas começou a pensar em fazer estes cálculos através de alguma máquina...
John Napier (1550-1617) inventou a "Tábua de Napier", que era similar a uma tabela de multiplicações. A tábua reduzia multiplicações e divisões a adições e subtrações. Usando esse princípio, em 1620 foram criadas as réguas de cálculo, usadas até 1970, antes das calculadoras de bolso.
Wilhelm Schickard (1592-1635) construiu a primeira máquina de verdade. Esta fazia multiplicação e divisão, mas foi perdida durante a Guerra dos Trinta Anos, sem que seu inventor pudesse defender sua primazia.
Blaise Pascal (1623-1662), filósofo e matemático francês, é conhecido como o inventor da primeira calculadora que fazia somas e subtrações. A calculadora usava engrenagens que funcionavam de maneira similar a um odômetro. A máquina não fez muito sucesso, pois era cara e requeria prática de uso. O filósofo e matemático alemão Gottfried Wilhelm Leibniz (1646-1716) aprimorou um bocado o projeto de Pascal e sonhava que um dia todo o raciocínio pudesse ser substituído pelo girar de uma alavanca. A máquina de Leibniz fazia multiplicações e divisões.
Em 1801, na França, durante a revolução industrial, Joseph Marie Jacquard (1752-1834) inventou um tear mecânico controlado por grandes cartões perfurados. Sua máquina era capaz de produzir tecidos com desenhos bonitos e intrincados. Foi tamanho o sucesso que Jacquard foi quase morto quando levou o tear para Lyons: as pessoas tinham medo que o tear lhes fizesse perder o emprego. Em 7 anos, já haviam 11 mil teares desse tipo operando na França.
O brilhante matemático inglês Charles Babbage (1792-1871) é conhecido como o "Pai do Computador". Babbage projetou o chamado "Calculador Analítico", muito próximo da concepção de um computador atual. O projeto, totalmente mecânico, era composto de uma memória, um engenho central, engrenagens e alavancas usadas para a transferência de dados da memória para o engenho central e dispositivos para entrada e saída de dados. O calculador utilizaria cartões perfurados e seria automático. Por algum tempo, o governo britânico financiou Babbage para construir a sua invenção.
Ada Augusta (1815-1852), Lady Lovelace, filha do poeta Lord Byron, era matemática e amadora entusiasta. Ada tornou-se a primeira programadora, escrevendo séries de instruções para o engenho analítico. Ada inventou o conceito de subrotina: uma seqüência de instruções que pode ser usada várias vezes em diferentes contextos. Ela descobriu o valor das repetições - os laços (loops): deveria haver uma instrução que retornasse a leitora de cartões a um cartão específico, de modo que a seqüência pudesse ter sua execução repetida. Ela sonhava com o desvio condicional: a leitora de cartões desviaria para outro cartão "se" alguma condição fosse satisfeita.
Infelizmente Babbage teve dificuldades com a tecnologia da época, que era inadequada para se construir componentes mecânicos com a precisão necessária. Com a suspensão do financiamento por parte do governo inglês, Babbage não pode concluir o seu projeto e o calculador analítico nunca foi construído.
As máquinas do século XIX usavam base 10. O matemático inglês George Boole (1815-1864) publicou em 1854 os princípios da lógica booleana, onde as variáveis assumem apenas valores 0 e 1 (verdadeiro e falso). A dificuldade de implementar um dígito decimal (um número inteiro entre 0 e 9) em componentes elétricos determinaram o uso da base 2 em computadores. A lógica booleana foi usada na implementação dos circuitos elétricos internos a partir do século XX.
Por volta de 1890, um outro nome entrou na história do computador: Dr. Herman Hollerith (1860-1929), responsável por uma grande mudança na maneira de se processar os dados dos censos da época. Os dados do censo de 1880, manualmente processados, levaram 7 anos e meio para serem compilados. Os do censo de 1890 foram processados em 2 anos e meio, com a ajuda de uma máquina de perfurar cartões e máquinas de tabular e ordenar, criadas por Hollerith e sua equipe.
As informações sobre os indivíduos eram armazenadas por meio de perfurações em locais específicos do cartão. Nas máquinas de tabular, um pino passava pelo furo e chegava a uma jarra de mercúrio, fechando um circuito elétrico e causando um incremento de 1 em um contador mecânico. Mais tarde, Hollerith fundou uma companhia para produzir máquinas de tabulação . Anos depois, em 1924, essa companhia veio a se chamar IBM.
O primeiro computador eletromecânico, o chamado Z-1, usava relês e foi construído pelo alemão Konrad Zuse (1910-1995) em 1936. Zuze tentou vendê-lo ao governo para uso militar, mas foi subestimado pelos nazistas, que não se interessaram pela máquina. Com a II Guerra Mundial, as pesquisas aumentaram nessa área. Nos Estados Unidos, a Marinha, em conjunto com a Universidade de Harvard e a IBM, construiu em 1944 o Mark I, um gigante eletromagnético. Em um certo sentido, essa máquina era a realização do projeto de Babbage. Mark I ocupava 120 m3, tinha milhares de relês e fazia um barulho infernal. Uma multiplicação de números de 10 dígitos levava 3 segundos para ser efetuada. Em segredo, o exército americano também desenvolvia seu computador. Esse usava apenas válvulas e tinha por objetivo calcular as trajetórias de mísseis com maior precisão.
Os engenheiros John Presper Eckert (1919-1995) e John Mauchly (1907-1980) projetaram o ENIAC: Eletronic Numeric Integrator And Calculator. Com 18.000 válvulas, o ENIAC conseguia fazer 500 multiplicações por segundo, porém só ficou pronto em 1946, vários meses após o final da guerra.
O matemático húngaro John von Neumann (1903-1957) formalizou o projeto lógico de um computador. Em sua proposta, von Neumann sugeriu que as instruções fossem armazenadas na memória do computador. Até então elas eram lidas de cartões perfurados e executadas, uma a uma. Armazená-las na memória, para então executá-las, tornaria o computador mais rápido, já que, no momento da execução, as instruções seriam obtidas com rapidez eletrônica. A maioria dos computadores de hoje em dia segue ainda o modelo proposto por von Neumann. Esse modelo define um computador seqüencial digital em que o processamento das informações é feito passo a passo, caracterizando um comportamento determinístico (ou seja, os mesmos dados de entrada produzem sempre a mesma resposta).
Em 1947, um grupo de Standford inventou o transistor. Usando semicondutores, os transistores poderiam substituir as válvulas, sendo menores, mais rápidos e mais duradouros, além de não esquentarem tanto nem consumirem tanta energia. Surgiram assim os primeiros computadores transistorizados. Nos anos 60, sob a influência do programa espacial americano, o desenvolvimento da microeletrônica levou a construção de circuitos transistorizados integrados em uma única pastilha de silício (chip) de dimensões reduzidas. Dezenas de milhares de transistores são integrados em um chip de alguns milímetros quadrados, dando origem aos circuitos integrados microminiaturizados. Isso possibilitou o surgimento de minicomputadores: computadores poderosos do tamanho de uma escrivaninha.
Em 1970, a Intel, empresa norte-americana, produziu o primeiro microprocessador. Um microprocessador é um circuito integrado do tipo LSI (large scale integration) que contém todo circuito lógico de uma unidade central de processamento em um chip do tamanho de uma unha. Os microprocessadores foram usados na construção de mini e microcomputadores. Os avanços nessa direção prosseguem até hoje, com os circuitos VLSI (very large scale integration) e os circuitos ULSI (ultra large scale integration). Também nos anos 70 surgiram grandes computadores, conhecidos como mainframes, imensamente poderosos. Hoje em dia, temos os chamados supercomputadores, como o Deep Blue, com velocidade superior a 500 MIPS (milhões de instruções por segundo).
A arquitetura de um computador depende do seu projeto lógico, enquanto que a sua implementação depende da tecnologia disponível. As três primeiras gerações de computadores refletiam a evolução dos componentes básicos do computador (hardware) e um aprimoramento dos programas (software) existentes. Os computadores de primeira geração (1945-1959) usavam válvulas eletrônicas, quilômetros de fios, eram lentos, enormes e esquentavam muito. A segunda geração (1959-1964) substituiu as válvulas eletrônicas por transistores e os fios de ligação por circuitos impressos. Isso tornou os computadores mais rápidos, menores e de custo mais baixo. A terceira geração de computadores (1964-1970) foi construída com circuitos integrados, proporcionando maior compactação, redução dos custos e velocidade de processamento da ordem de microsegundos. Tem início a utilização de avançados sistemas operacionais. A quarta geração, de 1970 até hoje, é caracterizada por um aperfeiçoamento da tecnologia já existente, proporcionando uma otimização da máquina para os problemas do usuário, maior grau de miniaturização, confiabilidade e velocidade maior, já da ordem de nanosegundos (bilionésima parte do segundo).
Quanta coisa...se quiser mais informações sobre o assunto, é só pesquisar estes links:
http://www.ime.usp.br/~macmulti/historico/index.html
http://www2.ufpa.br/dicas/net1/int-his.htm
www.baboo.com.br/absolutenm/anmviewer.asp
é isso aí!