UNIVERSIDADE METODISTA DE ANGOLA – UMA
FACULDADE DE DIREITO
LICENCIATURA EM DIREITO
INFORMÁTICA PARA JURISTAS
A HISTÓRIA DO COMPUTADOR
LUANDA
2016
UNIVERSIDADE METODISTA DE ANGOLA – UMA
FACULDADE DE DIREITO
LICENCIATURA EM DIREITO
INFORMÁTICA PARA JURISTAS
A HISTÓRIA DO COMPUTADOR
DOMINELA HUGO
Período: Manhã
Turma: C
Ano: 1º
|
LUANDA
2016
SUMÁRIO
Hoje em dia, os
computadores estão presentes na nossa vida. Sejam em casa, na escola, na
faculdade, na empresa, ou em qualquer outro lugar, eles estão sempre entre nós.
Ao contrário do que parece, os computadores não surgiram nos últimos anos ou
décadas, mas sim há mais de 7 mil anos.
Neste trabalho, pretendo
abordar a história e a evolução dos computadores e dos computadores em geral,
desde a antiguidade até os dias de hoje. Desta maneira, ficaremos por dentro
das principais formas de computação utilizadas pela humanidade.
O mais antigo
equipamento para cálculo foi o ábaco, que era um quadro com arruelas móveis,
dispostas em arames paralelos, tendo, portanto, um mecanismo simples. Surgido
da tentativa do homem de se livrar dos trabalhos manuais e repetitivos e da necessidade
inata de se fazer contas mais rápida e precisamente, o ábaco provavelmente foi criado
em 2500 a.C., no mundo mediterrâneo. Em latim, uma pedrinha do ábaco era chamada
de calculus. E fazer operações aritméticas era calculare.
O brilhante
matemático inglês Charles Babbage (1792-1871), conhecido como o "Pai do
Computador", projectou o chamado "Calculador Analítico", muito
próximo da concepção de um computador actual. O projecto, totalmente mecânico,
era composto de uma memória, um engenho central, engrenagens e alavancas usadas
para a transferência de dados da memória para o engenho central e dispositivos
para entrada e saída de dados. O calculador utilizava cartões perfurados e era
automático. Ada Augusta (1815-1852), Lady Lovelace, filha do poeta Lord Byron,
era uma matemática amadora entusiasta e tornou-se a primeira programadora,
escrevendo séries de instruções para o engenho analítico.
Por volta de 1890,
um outro nome entrou na história do computador: Dr. Herman Hollerith
(1860-1929), responsável por uma grande mudança na maneira de se processar os
dados dos censos da época. Os dados do censo de 1880, manualmente processados,
levaram 7 anos e meio para serem compilados. Os do censo de 1890 foram processados
em 2 anos e meio, com a ajuda de uma máquina de perfurar cartões e máquinas de
tabular e ordenar, criadas por Hollerith e sua equipe. As informações sobre os
indivíduos eram armazenadas por meio de perfurações em locais específicos do
cartão. Nas máquinas de tabular, um pino passava pelo furo e chegava a uma
jarra de mercúrio, fechando um circuito eléctrico e causando um incremento de 1
em um contador mecânico. Mais tarde, Hollerith fundou uma companhia para
produzir máquinas de tabulação. Anos depois, em 1924, essa companhia veio a se
chamar IBM.
Os sistemas
operacionais têm evoluído com o passar dos anos. Nas próximas sessões vou apresentar
de forma sucinta este desenvolvimento.
Após muitos
esforços mal sucedidos de se construir computadores digitais antes da 2ª guerra
mundial, em torno da metade da década de 1940 alguns sucessos foram obtidos na
construção de máquinas de cálculo empregando-se válvulas e relés. Estas
máquinas eram enormes, ocupando salas com racks que abrigavam dezenas de milhares
de válvulas (e consumiam quantidades imensas de energia).
Naquela época, um
pequeno grupo de pessoas projectava, construía, programava, operava mantinha
cada máquina. Toda programação era feita absolutamente em linguagem de máquina,
muitas vezes interligando plugs para controlar funções básicas da máquina.
Linguagens de programação eram desconhecidas; sistemas operacionais idem. Por
volta de 1950 foram introduzidos os cartões perfurados aumentando a facilidade
de programação.
A introdução do transístor
mudou radicalmente o quadro. Computadores tornaram-se confiáveis e difundidos
(com a fabricação em série), sendo empregados em actividades múltiplas.
Pela primeira vez,
houve uma separação clara entre projectistas, construtores, operadores,
programadores e pessoal de manutenção. Entretanto, dado seu custo ainda elevado,
somente corporações e universidades de porte detinham recursos e
infra-estrutura para empregar os computadores desta geração.
Estas máquinas eram
acondicionadas em salas especiais com pessoal especializado para sua operação.
Para executar um job (programa), o programador produzia um conjunto de cartões
perfurados (um cartão por comando do programa), e o entregava ao operador que
dava entrada do programa no computador. Quando o computador completava o trabalho,
o operador devolvia os cartões com a impressão dos resultados ao programador.
A maioria dos
computadores da 2ª geração foram utilizados para cálculos científicos e de engenharia.
Estes sistemas eram largamente programados em FORTRAN e ASSEMBLY. Sistemas operacionais
típicos[1]
eram o FMS (Fortran Monitor Systems) e o IBSYS (IBM's Operating Systems).
No início dos anos
60, a maioria dos fabricantes de computadores mantinham duas linhas distintas e
incompatíveis de produtos. De um lado, havia os computadores científicos que
eram usados para cálculos numéricos nas ciências e na engenharia. Do outro,
haviam os computadores comerciais que executavam tarefas como ordenação de
dados e impressão de relatórios, sendo utilizados principalmente por
instituições financeiras.
A IBM tentou
resolver este problema introduzindo a série System/360. Esta série consistia de
máquinas com mesma arquitectura e conjunto de instruções. Desta maneira,
programas escritos para uma máquina da série executavam em todas as demais. A
série 360 foi projectada para atender tanto aplicações científicas quanto
comerciais.
O tempo de espera
dos resultados dos programas reduziu-se drasticamente com a 3ª geração de
sistemas. O desejo por respostas rápidas abriu caminho para o time-sharing, uma
variação da multiprogramação onde cada usuário tem um terminal on-line e todos
compartilham uma única CPU.
Após o sucesso do
primeiro sistema operacional com capacidade de time-sharing (o CTSS) desenvolvido
no MIT, um consórcio envolvendo o MIT, a GE e o Laboratório Bell foi formado com
o intuito de desenvolver um projecto ambicioso para a época: um sistema
operacional que suportasse centenas de usuários on-line. O MULTICS (MULTiplexed
Information and Computing Service) introduziu muitas idéias inovadoras, mas sua
implementação mostrou-se impraticável para a década de sessenta. O projecto
MULTICS influenciou os pesquisadores da Bell que viriam a desenvolver o UNIX uma
década depois.
Com o
desenvolvimento de circuitos integrados em larga escala (LSI), chips contendo
milhares de transístores em um centímetro quadrado de silício, surgiu a era dos
computadores pessoais e estações de trabalho. Em termos de arquitectura, estes
não diferem dos minicomputadores da classe do PDP-11, excepto no quesito mais
importante: preço. Enquanto os minicomputadores atendiam companhias e
universidades, os computadores pessoais e estações de trabalho passaram a
atender usuários individualmente.
O aumento do
potencial destas máquinas criou um vastíssimo mercado de software a elas dirigido.
Como requisito básico, estes produtos (tanto aplicativos quanto o próprio
sistema operacional) necessitavam ser "amigáveis", visando usuários
sem conhecimento aprofundado de computadores e sem intenção de estudar muito
para utilizá-los. Esta foi certamente a maior mudança em relação ao OS/360 que
era tão obscuro que diversos livros foram escritos sobre ele.
Dois sistemas
operacionais têm dominado o mercado: MS-DOS (seguido do MS-Windows) para os
computadores pessoais e UNIX (com suas várias vertentes) para as estações de
trabalho.
O próximo
desenvolvimento no campo dos sistemas operacionais surgiu com a tecnologia de redes
de computadores: os sistemas operacionais de rede e distribuídos.
Sistemas
operacionais de rede diferem dos sistemas operacionais para um simples
processador no tocante à capacidade de manipular recursos distribuídos pelos
processadores da rede.
Por exemplo, um
arquivo pode ser acessado por um usuário em um processador, mesmo que fisicamente
o arquivo se encontre em outro processador. Sistemas operacionais de rede
provêem ao usuário uma interface transparente de acesso a recursos
compartilhados (aplicativos, arquivos, impressoras, etc.), sejam estes recursos
locais ou remotos.
Sistemas
operacionais distribuídos são muito mais complexos. Estes sistemas permitem que
os processadores cooperem em serviços intrínsecos de sistemas operacionais tais
como escalonamento de tarefas e paginação. Por exemplo, em um sistema operacional
distribuído uma tarefa pode "migrar" durante sua execução de um
computador sobrecarregado para outro que apresente carga mais leve. Contrário
aos sistemas operacionais de rede que são largamente disponíveis comercialmente,
sistemas operacionais distribuídos têm sua utilização ainda restrita.
A partir dos anos
80 os CIs (circuitos integrados) foram ficando cada vez menores e mais
complexos chegando a bilhões de componentes em uma única pastilha de silício,
possibilitando a criação de computadores menores, com maior desempenho maior
capacidade de armazenamento e maior capacidade de processamento. O marco nesta
evolução dos computadores como o conhecemos hoje, é dada também a invenção dos
sistemas operacionais, Unix Vs 7 (1983), MAC OS (1984), Windows (1985), Linux
(1991), conferindo maior flexibilidade na sua utilização.
Por conta disso
tudo, os computadores começaram a se tornar mais baratos, mais
"amigáveis" e mais "úteis" às pessoas comuns. Por isso,
sobretudo a partir da década de 80, os computadores começaram a se popularizar,
e hoje são realidade para milhões de pessoas no mundo inteiro.
Também iniciou-se
por parte dos governos principalmente dos EUA e Japão, um esforço gigantesco e
altos investimentos em projectos de super-computadores. Computadores com
características computacionais de alta performance e inteligência artificial.
Foi somente no ano
de 1990 que a Internet começou a alcançar a população em geral. Neste ano, o
engenheiro inglês Tim Bernes-Lee desenvolveu a World Wide Web, possibilitando a
utilização de uma interface gráfica e a criação de sites mais dinâmicos e
visualmente interessantes. A partir deste momento, a Internet cresceu em ritmo
acelerado. Muitos dizem, que foi a maior criação tecnológica, depois da
televisão na década de 1950.
A década de 1990
tornou-se a era de expansão da Internet. Para facilitar a navegação pela
Internet, surgiram vários navegadores (browsers) como, por exemplo, o Internet
Explorer da Microsoft e o Netscape Navigator. O surgimento acelerado de provedores
de acesso e portais de serviços online contribuíram para este crescimento. A
Internet passou a ser utilizada por vários segmentos sociais. Os estudantes
passaram a buscas informações para pesquisas escolares, enquanto jovens
utilizavam para a pura diversão em sites de games. As salas de chat tornaram-se
pontos de encontro para um bate-papo virtual a qualquer momento. Desempregados
iniciaram a busca de empregos através de sites de agências de empregos ou
enviando currículos por e-mail. As empresas descobriram na Internet um
excelente caminho para melhorar seus lucros e as vendas online dispararam,
transformando a Internet em verdadeiros shopping centers virtuais.
Nos dias actuais, é
impossível pensar no mundo sem a Internet. Ela tomou parte dos lares de pessoas
do mundo todo. Estar conectado a rede mundial passou a ser uma necessidade de
extrema importância. A Internet também está presente nas escolas, faculdades,
empresas e diversos locais, possibilitando acesso as informações e notícias do
mundo em apenas um click.
A Inteligência Artificial (IA) é um ramo da ciência da computação que se propõe a elaborar dispositivos que simulem a capacidade humana de raciocinar, perceber, tomar decisões e resolver problemas, enfim, a capacidade de ser inteligente.
Existente há décadas, esta área da ciência é grandemente impulsionada com o rápido desenvolvimento da informática e da computação, permitindo que novos elementos sejam rapidamente agregados à IA.
Hoje em dia, são
várias as aplicações na vida real da Inteligência Artificial: jogos, programas
de computador, aplicativos de segurança para sistemas informacionais, robótica
(robôs auxiliares), dispositivos para reconhecimentos de escrita a mão e
reconhecimento de voz, programas de diagnósticos médicos e muito mais.
Como pode ser
notado, a Inteligência Artificial é um tema complexo e bastante controverso.
São diversos os pontos a favor e contra e cada lado tem razão em suas afirmações.
Cabe a nós esperar que, independente dos rumos que os estudos sobre IA tomem,
eles sejam guiados pela ética e pelo bom senso.
Conclui-se assim
que o computador foi criado por causa das necessidades humanas e através de
pesquisas e dos avanços tecnológicos, foi tornando-se cada vez mais prático,
rápido e com componentes cada vez mais modernos que facilitam o trabalho do
homem.
ANDREW, Tanenbaum. "Modern Operating
Systems". Massachusetts Addison-Wesley, 1984. ISBN 0-13-595752-4.
MAURICE J. Bach. "The Design of The UNIX
Operating System". Prentice Hall Software Series, Englewood Cli_s, New
Jersey 07632, 1990. ISBN 0-13-201799-7.
URESH, Vahalia. "UNIX Internals: The New
Frontiers". Prentice Hall, Upper Saddle River, New Jersey 07458, 1996.
ISBN 0-13-101908-2.
Maravilhosa muito bem muito obrigado
ResponderExcluirMaravilhosa muito bem muito obrigado
ResponderExcluir