quarta-feira, 27 de abril de 2016

A HISTÓRIA DO COMPUTADOR - Trabalho Elaborado por Vieira Miguel Manuel

UNIVERSIDADE METODISTA DE ANGOLA – UMA
FACULDADE DE DIREITO
LICENCIATURA EM DIREITO

                                            







INFORMÁTICA PARA JURISTAS





A HISTÓRIA DO COMPUTADOR





















LUANDA
2016
UNIVERSIDADE METODISTA DE ANGOLA – UMA
FACULDADE DE DIREITO
LICENCIATURA EM DIREITO







INFORMÁTICA PARA JURISTAS





A HISTÓRIA DO COMPUTADOR


DOMINELA HUGO


Período: Manhã
Turma: C
Ano:






Trabalho a ser apresentado ao curso de  Direito na disciplina de Informática como requisito parcial para obtenção de notas.

Orientador: Rui Domingues  
 
 















LUANDA
2016
 


SUMÁRIO




 




Hoje em dia, os computadores estão presentes na nossa vida. Sejam em casa, na escola, na faculdade, na empresa, ou em qualquer outro lugar, eles estão sempre entre nós. Ao contrário do que parece, os computadores não surgiram nos últimos anos ou décadas, mas sim há mais de 7 mil anos.

Neste trabalho, pretendo abordar a história e a evolução dos computadores e dos computadores em geral, desde a antiguidade até os dias de hoje. Desta maneira, ficaremos por dentro das principais formas de computação utilizadas pela humanidade.





O mais antigo equipamento para cálculo foi o ábaco, que era um quadro com arruelas móveis, dispostas em arames paralelos, tendo, portanto, um mecanismo simples. Surgido da tentativa do homem de se livrar dos trabalhos manuais e repetitivos e da necessidade inata de se fazer contas mais rápida e precisamente, o ábaco provavelmente foi criado em 2500 a.C., no mundo mediterrâneo. Em latim, uma pedrinha do ábaco era chamada de calculus. E fazer operações aritméticas era calculare.

O brilhante matemático inglês Charles Babbage (1792-1871), conhecido como o "Pai do Computador", projectou o chamado "Calculador Analítico", muito próximo da concepção de um computador actual. O projecto, totalmente mecânico, era composto de uma memória, um engenho central, engrenagens e alavancas usadas para a transferência de dados da memória para o engenho central e dispositivos para entrada e saída de dados. O calculador utilizava cartões perfurados e era automático. Ada Augusta (1815-1852), Lady Lovelace, filha do poeta Lord Byron, era uma matemática amadora entusiasta e tornou-se a primeira programadora, escrevendo séries de instruções para o engenho analítico.


Por volta de 1890, um outro nome entrou na história do computador: Dr. Herman Hollerith (1860-1929), responsável por uma grande mudança na maneira de se processar os dados dos censos da época. Os dados do censo de 1880, manualmente processados, levaram 7 anos e meio para serem compilados. Os do censo de 1890 foram processados em 2 anos e meio, com a ajuda de uma máquina de perfurar cartões e máquinas de tabular e ordenar, criadas por Hollerith e sua equipe. As informações sobre os indivíduos eram armazenadas por meio de perfurações em locais específicos do cartão. Nas máquinas de tabular, um pino passava pelo furo e chegava a uma jarra de mercúrio, fechando um circuito eléctrico e causando um incremento de 1 em um contador mecânico. Mais tarde, Hollerith fundou uma companhia para produzir máquinas de tabulação. Anos depois, em 1924, essa companhia veio a se chamar IBM.


Os sistemas operacionais têm evoluído com o passar dos anos. Nas próximas sessões vou apresentar de forma sucinta este desenvolvimento.


Após muitos esforços mal sucedidos de se construir computadores digitais antes da 2ª guerra mundial, em torno da metade da década de 1940 alguns sucessos foram obtidos na construção de máquinas de cálculo empregando-se válvulas e relés. Estas máquinas eram enormes, ocupando salas com racks que abrigavam dezenas de milhares de válvulas (e consumiam quantidades imensas de energia).

Naquela época, um pequeno grupo de pessoas projectava, construía, programava, operava mantinha cada máquina. Toda programação era feita absolutamente em linguagem de máquina, muitas vezes interligando plugs para controlar funções básicas da máquina. Linguagens de programação eram desconhecidas; sistemas operacionais idem. Por volta de 1950 foram introduzidos os cartões perfurados aumentando a facilidade de programação.


A introdução do transístor mudou radicalmente o quadro. Computadores tornaram-se confiáveis e difundidos (com a fabricação em série), sendo empregados em actividades múltiplas.

Pela primeira vez, houve uma separação clara entre projectistas, construtores, operadores, programadores e pessoal de manutenção. Entretanto, dado seu custo ainda elevado, somente corporações e universidades de porte detinham recursos e infra-estrutura para empregar os computadores desta geração.

Estas máquinas eram acondicionadas em salas especiais com pessoal especializado para sua operação. Para executar um job (programa), o programador produzia um conjunto de cartões perfurados (um cartão por comando do programa), e o entregava ao operador que dava entrada do programa no computador. Quando o computador completava o trabalho, o operador devolvia os cartões com a impressão dos resultados ao programador.

A maioria dos computadores da 2ª geração foram utilizados para cálculos científicos e de engenharia. Estes sistemas eram largamente programados em FORTRAN e ASSEMBLY. Sistemas operacionais típicos[1] eram o FMS (Fortran Monitor Systems) e o IBSYS (IBM's Operating Systems).


No início dos anos 60, a maioria dos fabricantes de computadores mantinham duas linhas distintas e incompatíveis de produtos. De um lado, havia os computadores científicos que eram usados para cálculos numéricos nas ciências e na engenharia. Do outro, haviam os computadores comerciais que executavam tarefas como ordenação de dados e impressão de relatórios, sendo utilizados principalmente por instituições financeiras.

A IBM tentou resolver este problema introduzindo a série System/360. Esta série consistia de máquinas com mesma arquitectura e conjunto de instruções. Desta maneira, programas escritos para uma máquina da série executavam em todas as demais. A série 360 foi projectada para atender tanto aplicações científicas quanto comerciais.

O tempo de espera dos resultados dos programas reduziu-se drasticamente com a 3ª geração de sistemas. O desejo por respostas rápidas abriu caminho para o time-sharing, uma variação da multiprogramação onde cada usuário tem um terminal on-line e todos compartilham uma única CPU.

Após o sucesso do primeiro sistema operacional com capacidade de time-sharing (o CTSS) desenvolvido no MIT, um consórcio envolvendo o MIT, a GE e o Laboratório Bell foi formado com o intuito de desenvolver um projecto ambicioso para a época: um sistema operacional que suportasse centenas de usuários on-line. O MULTICS (MULTiplexed Information and Computing Service) introduziu muitas idéias inovadoras, mas sua implementação mostrou-se impraticável para a década de sessenta. O projecto MULTICS influenciou os pesquisadores da Bell que viriam a desenvolver o UNIX uma década depois.


Com o desenvolvimento de circuitos integrados em larga escala (LSI), chips contendo milhares de transístores em um centímetro quadrado de silício, surgiu a era dos computadores pessoais e estações de trabalho. Em termos de arquitectura, estes não diferem dos minicomputadores da classe do PDP-11, excepto no quesito mais importante: preço. Enquanto os minicomputadores atendiam companhias e universidades, os computadores pessoais e estações de trabalho passaram a atender usuários individualmente.

O aumento do potencial destas máquinas criou um vastíssimo mercado de software a elas dirigido. Como requisito básico, estes produtos (tanto aplicativos quanto o próprio sistema operacional) necessitavam ser "amigáveis", visando usuários sem conhecimento aprofundado de computadores e sem intenção de estudar muito para utilizá-los. Esta foi certamente a maior mudança em relação ao OS/360 que era tão obscuro que diversos livros foram escritos sobre ele.

Dois sistemas operacionais têm dominado o mercado: MS-DOS (seguido do MS-Windows) para os computadores pessoais e UNIX (com suas várias vertentes) para as estações de trabalho.

O próximo desenvolvimento no campo dos sistemas operacionais surgiu com a tecnologia de redes de computadores: os sistemas operacionais de rede e distribuídos.

Sistemas operacionais de rede diferem dos sistemas operacionais para um simples processador no tocante à capacidade de manipular recursos distribuídos pelos processadores da rede.

Por exemplo, um arquivo pode ser acessado por um usuário em um processador, mesmo que fisicamente o arquivo se encontre em outro processador. Sistemas operacionais de rede provêem ao usuário uma interface transparente de acesso a recursos compartilhados (aplicativos, arquivos, impressoras, etc.), sejam estes recursos locais ou remotos.

Sistemas operacionais distribuídos são muito mais complexos. Estes sistemas permitem que os processadores cooperem em serviços intrínsecos de sistemas operacionais tais como escalonamento de tarefas e paginação. Por exemplo, em um sistema operacional distribuído uma tarefa pode "migrar" durante sua execução de um computador sobrecarregado para outro que apresente carga mais leve. Contrário aos sistemas operacionais de rede que são largamente disponíveis comercialmente, sistemas operacionais distribuídos têm sua utilização ainda restrita.


A partir dos anos 80 os CIs (circuitos integrados) foram ficando cada vez menores e mais complexos chegando a bilhões de componentes em uma única pastilha de silício, possibilitando a criação de computadores menores, com maior desempenho maior capacidade de armazenamento e maior capacidade de processamento. O marco nesta evolução dos computadores como o conhecemos hoje, é dada também a invenção dos sistemas operacionais, Unix Vs 7 (1983), MAC OS (1984), Windows (1985), Linux (1991), conferindo maior flexibilidade na sua utilização.

Por conta disso tudo, os computadores começaram a se tornar mais baratos, mais "amigáveis" e mais "úteis" às pessoas comuns. Por isso, sobretudo a partir da década de 80, os computadores começaram a se popularizar, e hoje são realidade para milhões de pessoas no mundo inteiro.

Também iniciou-se por parte dos governos principalmente dos EUA e Japão, um esforço gigantesco e altos investimentos em projectos de super-computadores. Computadores com características computacionais de alta performance e inteligência artificial.


Foi somente no ano de 1990 que a Internet começou a alcançar a população em geral. Neste ano, o engenheiro inglês Tim Bernes-Lee desenvolveu a World Wide Web, possibilitando a utilização de uma interface gráfica e a criação de sites mais dinâmicos e visualmente interessantes. A partir deste momento, a Internet cresceu em ritmo acelerado. Muitos dizem, que foi a maior criação tecnológica, depois da televisão na década de 1950.

A década de 1990 tornou-se a era de expansão da Internet. Para facilitar a navegação pela Internet, surgiram vários navegadores (browsers) como, por exemplo, o Internet Explorer da Microsoft e o Netscape Navigator. O surgimento acelerado de provedores de acesso e portais de serviços online contribuíram para este crescimento. A Internet passou a ser utilizada por vários segmentos sociais. Os estudantes passaram a buscas informações para pesquisas escolares, enquanto jovens utilizavam para a pura diversão em sites de games. As salas de chat tornaram-se pontos de encontro para um bate-papo virtual a qualquer momento. Desempregados iniciaram a busca de empregos através de sites de agências de empregos ou enviando currículos por e-mail. As empresas descobriram na Internet um excelente caminho para melhorar seus lucros e as vendas online dispararam, transformando a Internet em verdadeiros shopping centers virtuais.

Nos dias actuais, é impossível pensar no mundo sem a Internet. Ela tomou parte dos lares de pessoas do mundo todo. Estar conectado a rede mundial passou a ser uma necessidade de extrema importância. A Internet também está presente nas escolas, faculdades, empresas e diversos locais, possibilitando acesso as informações e notícias do mundo em apenas um click.



A Inteligência Artificial (IA) é um ramo da ciência da computação que se propõe a elaborar dispositivos que simulem a capacidade humana de raciocinar, perceber, tomar decisões e resolver problemas, enfim, a capacidade de ser inteligente.

Existente há décadas, esta área da ciência é grandemente impulsionada com o rápido desenvolvimento da informática e da computação, permitindo que novos elementos sejam rapidamente agregados à IA.


Hoje em dia, são várias as aplicações na vida real da Inteligência Artificial: jogos, programas de computador, aplicativos de segurança para sistemas informacionais, robótica (robôs auxiliares), dispositivos para reconhecimentos de escrita a mão e reconhecimento de voz, programas de diagnósticos médicos e muito mais.

Como pode ser notado, a Inteligência Artificial é um tema complexo e bastante controverso. São diversos os pontos a favor e contra e cada lado tem razão em suas afirmações. Cabe a nós esperar que, independente dos rumos que os estudos sobre IA tomem, eles sejam guiados pela ética e pelo bom senso.







Conclui-se assim que o computador foi criado por causa das necessidades humanas e através de pesquisas e dos avanços tecnológicos, foi tornando-se cada vez mais prático, rápido e com componentes cada vez mais modernos que facilitam o trabalho do homem.





ANDREW, Tanenbaum. "Modern Operating Systems". Massachusetts Addison-Wesley, 1984. ISBN 0-13-595752-4.

MAURICE J. Bach. "The Design of The UNIX Operating System". Prentice Hall Software Series, Englewood Cli_s, New Jersey 07632, 1990. ISBN 0-13-201799-7.

URESH, Vahalia. "UNIX Internals: The New Frontiers". Prentice Hall, Upper Saddle River, New Jersey 07458, 1996. ISBN 0-13-101908-2.





[1] Que eram capazes de gerenciar apenas um job por vez

2 comentários: