domingo, 1 de agosto de 2010
Como será o PC do futuro? Descubra as novidades que estão por vir
Por Redação da PC WORLD (EUA)
Chips absurdamente rápidos, displays flexíveis, projetores de bolso... A tecnologia do amanhã mudará tudo sobre computação
O ritmo do dia-a-dia pode ser agitado, mas o compasso da inovação é absolutamente frenético. Tecnologias nem imaginadas há poucos anos estão prontas para mudar a cara da computação, à medida que aparelhos digitais continuam se infiltrando em cada aspecto de nossas vidas.
O mundo da ficção científica está rapidamente se tornando realidade, desde os tampos de mesa que carregam a bateria do seu laptop sem usar fios a PCs embutidos na parede que reconhecem seu rosto e seus gestos. Graças a uma revolução na miniaturização, você poderá guardar no seu bolso produtos que um dia não couberam na sua mochila, como projetores e impressoras de fotos.
Nas páginas a seguir, destacamos uma série de grandes inovações, desde algumas que você já acha na esquina de casa, até outras que não devem aparecer antes de 2012.
Dê adeus ao fio elétrico
Você mal pensa duas vezes para conectar seu laptop com wireless à internet, mas ainda precisa se atrapalhar com um fio de eletricidade quando a bateria acaba. Que esquisito. Em breve, todo esse incômodo não vai passar de uma nota de rodapé no livro de história do seu neto, à medida em que recarga de energia sem fio for chegando ao mercado.
O que é? Atualmente, existem duas maneiras de realizar recarga de energia sem fio. A carga por indução funciona quando unimos a ressonância do campo eletromagnético do dispositivo de carga à da bateria, permitindo a esta ser carregada em uma pequena brecha física.
Em contrapartida, a carga por condução passa eletricidade diretamente entre duas superfícies em contato. Qual dos dois métodos vai prevalecer ainda não se sabe, mas em ambos os casos você poderá simplesmente posicionar seu laptop, celular ou MP3 player em um dispositivo universal de carga sem fio que vai imediatamente começar a abastecê-lo.
Quando chegará? No ano que vem, tanto a carga por indução quanto por condução estarão no mercado, mas a maioria dos aparelhos vai precisar de um adaptador de cerca de 30 dólares para funcionar. A WildCharge espera lançar seu primeiro notebook com carga por indução no meio de 2008, enquanto a eCoupled pretende colocar sua tecnologia de indução em carros, bancadas e superfícies de mesas em 2009. A carga de energia wireless deve ser um lugar-comum lá por 2010, depois de as maiores empresas de telefones e laptops terem sinalizado que vão se adaptar.
Imprime de qualquer lugar (e qualquer coisa)
Esqueça de ter que voltar para casa para imprimir suas fotos ou encomendar impressões online. A próxima geração de aparelhos móveis virá com sua própria impressora embutida.
O que é? A Zink (sigla para Zero ink) Imaging está trabalhando em uma nova maneira de fazer papel fotográfico. O papel 'Zink' tem um substrato cristalino entre duas camadas que se colore quando passa no meio de uma finíssima impressora. As impressoras são tão pequenas que você pode colocá-las facilmente no seu bolso. Elas podem tranqüilamente ser embutidas em câmeras, laptops e outros aparelhos.
Quando chegará? Em 2008, a Zink fará uma parceira com uma grande fornecedora de câmeras (o nome ainda não foi anunciado) para lançar a primeira câmera de bolso digital com uma impressora embutida. Ao mesmo tempo, a companhia começará a vender uma pequena impressora de mão (por cerca de 99 dólares) para câmeras de celular. Dois ou três anos depois disso, a tecnologia pode estar integrada a laptops e outros aparelhos móveis.
Grandes imagens embutidas
“Gráfico compartilhado” por muito tempo foi sinônimo de “gráfico lento”. Mas em breve a frase vai ter um significado totalmente novo, graças a novas CPUs com hardware gráfico poderoso instalado.
O que é? A aquisição da ATI pela AMD trouxe a rivalidade da companhia com a Intel – que já fazia suas próprias placas gráficas básicas – para um novo nível. A partir de então, os dois competidores trabalharam para resolver o descompasso entre CPUs e processadores gráficos.
Construir a funcionalidade de processamento gráfico diretamente em uma CPU elimina o atraso que você teria quando os dados passam entre a CPU e a GPU através do sistema de barramento (bus). Essa combinação CPU/GPUs vai caracterizar o suporte e aceleração do DirectX 10 para o Blu-ray e o HD-DVD. Ao mesmo tempo, vai consumir substancialmente menos energia, solicitando menos espaço na placa-mãe e terá um desempenho significativamente melhor.
Quando chegará? A Intel planeja colocar em produção seu processador de gráficos integrado Nehalm este ano, começando por uma linha de chips para servidores. A AMD pretende lançar sua plataforma integrada de notebook Puma na mesma época.
Em 2009, a Intel trará seus chips gráficos integrados para desktops e notebooks, enquanto o Puma da AMD deve estar nos desktops em 2010.
Telas dobráveis
Quanto menores e mais potentes ficam alguns aparelhos, mais difíceis eles se tornam de usar. Minitelas não dão conta quando você quer fazer um trabalho real. Mas se seu telefone ou PDA vier com uma tela extensível, você poderá trabalhar confortavelmente sem sacrificar a mobilidade.
O que é? Fabricantes de telas fazem o tradicional LCD como um sanduíche de cristal líquido entre camadas de vidro, colocando eletricidade nisso tudo depois. Substituir o vidro por plástico torna as coisas mais maleáveis. Inicialmente desenvolvido pela E Ink e pela Philips, o chamado papel eletrônico comprime diodo orgânicos emissores de luz (OLED por sua sigla em inglês) no meio de camadas muito finas de polímeros, permitindo enorme flexibilidade.
Diferentemente dos tradicionais LCDs, essas telas ultrafinas são completamente à prova de choque e podem ser transformadas até em um rocambole bem enrolado. O resultado é um monitor amplo que você pode carregar no bolso e usar em qualquer lugar. Melhor ainda, essas telas serão mais baratas e mais fáceis de fabricar do que os atuais telas planas – elas serão simplesmente impressas diretamente sobre chapas de plástico.
Quando chegará? As primeiras gerações de telas flexíveis já estão por aí – elas apenas não são tão maleáveis assim por enquanto. E o papel eletrônico da E Ink pode ser achado nos produtos não-flexíveis de hoje, como o Sony Reader e o Motorola
Motofone F3. A primeira tela verdadeiramente flexível, criada pela Polymer Vision, da Philips holandesa, vai chegar ao mercado em 2008: um telefone celular da Telecom Itália vai levar ao mundo a primeira tela extensível da Polymer Vision. Ainda sob segredo, o aparelho (sem preço definido) deve oferecer uma tela monocromática, flexível, de 5 polegadas e de 320 por 240 pixels. Lá por 2010, a Polymer espera disponibilizar telas maiores, coloridas e com melhor resolução.
Os primeiros net phones de verdade
Simples chamadas sem fio satisfizeram usuários durante a primeira geração de telefones celulares, mas a segunda geração (2G) tornou as coisas muito mais interessantes com a introdução de mensagens SMS e navegação na Internet via WAP.
A geração 2,5 acrescentou fotos e vídeos, mas a uma velocidade que mais parecia com conexão discada do que banda larga (esse é o principal problema com o serviço de dados do iPhone). Com a 3G, as conexões de banda muito larga tornaram os recursos multimídia do 2,5G algo finalmente agradável. E a 4G vai ser ainda muito mais interessante.
Telas dobráveis
Quanto menores e mais potentes ficam alguns aparelhos, mais difíceis eles se tornam de usar. Minitelas não dão conta quando você quer fazer um trabalho real. Mas se seu telefone ou PDA vier com uma tela extensível, você poderá trabalhar confortavelmente sem sacrificar a mobilidade.
O que é? Fabricantes de telas fazem o tradicional LCD como um sanduíche de cristal líquido entre camadas de vidro, colocando eletricidade nisso tudo depois. Substituir o vidro por plástico torna as coisas mais maleáveis. Inicialmente desenvolvido pela E Ink e pela Philips, o chamado papel eletrônico comprime diodo orgânicos emissores de luz (OLED por sua sigla em inglês) no meio de camadas muito finas de polímeros, permitindo enorme flexibilidade.
Diferentemente dos tradicionais LCDs, essas telas ultrafinas são completamente à prova de choque e podem ser transformadas até em um rocambole bem enrolado. O resultado é um monitor amplo que você pode carregar no bolso e usar em qualquer lugar. Melhor ainda, essas telas serão mais baratas e mais fáceis de fabricar do que os atuais telas planas – elas serão simplesmente impressas diretamente sobre chapas de plástico.
Quando chegará? As primeiras gerações de telas flexíveis já estão por aí – elas apenas não são tão maleáveis assim por enquanto. E o papel eletrônico da E Ink pode ser achado nos produtos não-flexíveis de hoje, como o Sony Reader e o Motorola
Motofone F3. A primeira tela verdadeiramente flexível, criada pela Polymer Vision, da Philips holandesa, vai chegar ao mercado em 2008: um telefone celular da Telecom Itália vai levar ao mundo a primeira tela extensível da Polymer Vision. Ainda sob segredo, o aparelho (sem preço definido) deve oferecer uma tela monocromática, flexível, de 5 polegadas e de 320 por 240 pixels. Lá por 2010, a Polymer espera disponibilizar telas maiores, coloridas e com melhor resolução.
Os primeiros net phones de verdade
Simples chamadas sem fio satisfizeram usuários durante a primeira geração de telefones celulares, mas a segunda geração (2G) tornou as coisas muito mais interessantes com a introdução de mensagens SMS e navegação na Internet via WAP.
A geração 2,5 acrescentou fotos e vídeos, mas a uma velocidade que mais parecia com conexão discada do que banda larga (esse é o principal problema com o serviço de dados do iPhone). Com a 3G, as conexões de banda muito larga tornaram os recursos multimídia do 2,5G algo finalmente agradável. E a 4G vai ser ainda muito mais interessante.
O que é? A diferença fundamental entre a quarta e a terceira geração é a maneira com que as coisas trafegam na rede. Até agora, a maioria das redes de telefonia (exceto para o VoIP) formavam um circuito dedicado, isto é, um circuito era ativado entre os usuários. Esse método superado coloca as ligações de voz todas em uma categoria própria, distinta das conexões de dados, impedindo que um celular transmita voz e dados simultaneamente.
Redes 4G serão baseadas em protocolo internet (IP), como todo o tráfego na internet. Isto significa não apenas que você poderá falar e escrever texto ao mesmo tempo, mas também que seu aparelho poderá fazer muito mais nas redes do que hoje. Redes de celulares com IP vão funcionar mais como provedores de acesso, permitindo maior flexibilidade em rodar dados de aplicativos. Praticamente qualquer aparelho eletrônico poderá se conectar à rede.
Quando chegará? As quatro maiores empresas de wireless dos EUA estão apenas esboçando a superfície do que suas redes 3G podem fazer, e a maioria dos consumidores parece desinteressada em um fluxo de dados mais avançado. Mas a tecnologia propulsora da 4G, o WiMax, existe agora e está crescendo aos poucos nas redes de grandes empresas e companhias de telecom.
O WiMax em si não é uma tecnologia de celular, no entanto, e antes que uma quarta geração de redes de celulares possa se desenvolver, a indústria vai precisar achar uma nova base de protocolos de telecomunicação para se basear. Enquanto usuários de negócios aumentam sua demanda por um mais desenvolvido serviço de dados wireless, as empresas de celular começarão a implementar redes que ofereçam serviço 4G. Nós esperamos os primeiros telefones para 2011.
Que venha o chip de oito núcleos
Não há muito sentido em aumentar a velocidade dos processadores se o barramento de dados não puder agüentar o tráfego. Desde que problemas com os transistores (que demandam mais energia) também pioram à medida que a velocidade do clock aumenta e a CPU diminui, tanto AMD quanto Intel decidiram focar no aumento de núcleos dos processadores em vez de aumentar sua velocidade.
O que é? A peça principal de qualquer CPU é o núcleo do chip, que é responsável pelos cálculos reais que fazem seus softwares rodarem. Colocar vários núcleos em um só processador aumenta vertiginosamente o número de cálculos realizados, sem ter que aumentar a velocidade de clock. Mantendo a velocidade relativamente baixa enquanto se aumenta o número de cálculos feitos simultaneamente, os fabricantes de processadores trouxeram o inevitável problema de superaquecimento, associado com a maior velocidade dos clocks.
E quanto mais núcleos o fabricante aglutinar em um chip, mais rápido a CPU trabalha. A melhoria de performance não é diretamente proporcional, no entanto: o Intel de quatro núcleos de 2,66 GHz Core 2 Quad Q6700 se sai apenas 26% melhor que o de dois núcleos Core 2 Duo E 6700 em certos aplicativos, de acordo com a empresa.
Quando chegará? Antes de a AMD vender seus chips de oito núcleos para desktops, ela precisa disponibilizar o chip Phenom de quatro núcleos em 2008. A Intel vende seus processadores quad-core para desktops há cerca de um ano e já anunciou chips de oito núcleos para servidores em 2008. Aguarde o “OctoCore“ para 2010.
Coloque sua TV em qualquer lugar
Apesar da revolução wireless acontecendo em todos os lugares da sua casa, a TV de alta definição continua infelizmente no mesmo lugar, conectada a um fio. Não seria demais poder colocar a TV onde quisesse, sem se preocupar com o emaranhado de cabos e continuar com a melhor qualidade de imagem? Em breve você poderá fazer tudo isso.
O que é? Wireless High Definition Interface (WHDI) é um substituto sem cabos do HDMI que usa um transmissor de rádio de 5 GHz para enviar um sinal de vídeo de alta definição de 1080p, a 30 quadros por segundo (fps) de algum aparelho equipado com WHDI (set-top-box, DVD player ou videogame, por exemplo) para uma TV também equipada com a tecnologia WHDI, a uma distância de até 30 metros. Como os dois tipos de sinais são compatíveis, você poderá comprar um modem HDMI sem fio para os aparelhos de entretenimento que você já possui – e isso significa que você finalmente poderá colocar seus móveis nos lugares onde você realmente queria, sem ter que fazer emenda de cabos adicionais.
Quando chegará? A Amimon, que fabrica o chip WHDI, lançou a tecnologia para os fabricantes de eletrônicos no fim de agosto. Agora, a corrida já começou para trazer a alta definição sem fio para o mercado. Fabricantes de TV demonstram alguns modelos, e os amantes da tecnologia devem colocar as mãos na novidade no começo do ano que vem.
Espera-se que a WHDI aumente em 200 dólares o preço de uma televisão. Modems WHDI para os aparelhos atuais vão custar até 400 dólares vendidos aos pares.
Cinco terabytes por drive
Fotos, filmes, música, e um fluxo gigante de e-mails podem abarrotar o HD antes que você perceba. Mas não se preocupe: discos maiores estão a caminho.
O que é? A tecnologia de Heat-Assisted Magnet Recording (HAMR) usa lasers para esquentar a superfície do disco de um drive, tornando possível reunir um terabyte de informação em uma simples polegada quadrada do disco, praticamente o dobro da atual capacidade. Quando a cabeça de leitura e gravação do drive funciona, entra em ação um feixe de laser que atinge a superfície do prato, desestabilizando as partículas de ferro e platina. Com a placa aquecida, o cabeçote pode manipular a superfície em uma escala muito mais refinada – em apenas dezenas de nanômetros – permitindo que se amontoem enormes quantidades de informação em um espaço minúsculo. Poucos nanosegundos após o trabalho ser feito, a superfície esfria para uma longa estabilidade.
A maneira que os dados são organizados também vai mudar: em vez de se ter uma distribuição arbitrária de setores, drives HAMR funcionarão com as partículas naturais da superfície do disco, organizando dados em conjuntos magnéticos que se distribuem sozinhos e permitem a criação de bits de dados em cada partícula da superfície da placa.
Quando chegará? A HAMR é ainda só um projeto de pesquisa, mas deve chegar aos mercados nos próximos anos. A Seagate espera introduzir HDs HAMR de 5 TB por volta de 2011, e pensa em uma capacidade de até 37,5 TB nos anos seguintes.
Por uma internet melhor
TCP/IP, a tecnologia na qual toda a internet se baseia, não é novidade. A atual versão de protocolo de internet, a IPv4, já está aí há mais de 25 anos. A velha tecnologia sofre com algumas limitações – incluindo falta de endereços para todos os computadores que a utilizam. O IP versão 6 vai mudar isso.
O que é? Diferentemente do IPv4, que usa endereços de 32 bits, como 155.54.210.63, o IPv6 usa 128 bits, como 2001:0ba0:01e0:d001:0000:0000:d0f0:0010. Essa pequena mudança permite a todos os computadores do mundo terem um único endereço IP.
Além disso, o IPv6 investe em criptografia e autenticação, permitindo uma comunicação mais segura.
Quando chegará? O IPv6 já está aqui agora e já há alguns anos, mas ninguém usa porque o hardware necessário continua mais caro do que o usado para o Ipv4. Além disso, poucos administradores de rede estão treinados para utilizá-lo. No entanto, o governo dos Estados Unidos anunciou que vai mudar todas as suas redes para IPv6 na metade de 2008, o que significa que a tecnologia deve chegar com folga, antes que os endereços disponíveis em IPv4 se esgotem, em torno de março de 2011.
Um computador em cada superfície
A idéia de manipular imagens em uma tela, movendo um aparelho – um mouse – em uma mesa, era revolucionária quando Douglas Engelbart a introduziu em 1964. Mas, por melhor que funcione, o mouse ainda é um suplente para uma interface humana mais natural, a ponta dos dedos. Nos próximos anos, uma nova categoria de PCs deixará seus dedos mandarem em tudo.
O que é? A computação de superfície (surface computing) volta ao básico, permitindo que você se reúna ao redor de uma mesa com alguns amigos para um pouco de uma boa e velha interatividade. Computadores sem mouse permitem que múltiplos usuários trabalhem com dados projetados na superfície de uma mesa apenas tocando objetos na tela com seus dedos. Várias empresas estão trabalhando com essa tecnologia, mas dois destaques são o Surface PC, da Microsoft, e o DiamondTouch, da Mitsubishi Eletronic. O Surface PC utiliza projeção interna para mostrar uma imagem na superfície da mesa a partir de dentro, enquanto cinco câmeras monitoram os movimentos dos dedos na tela. O DiamondTouch projeta a imagem por cima da tela e usa tecnologia semelhante à dos notebooks sensíveis ao toque para seguir seus dedos.
Quando chegará? O DiamondTouch ainda está sendo pesquisado e desenvolvido, mas o Surface, da Microsoft, chegará este ano a hotéis, cassinos ou mesmo lojas. A primeira geração do Surface PC será estritamente para demonstração em locais públicos, mas a Microsoft pensa em disponibilizar uma versão para salas de reunião de negócios em 2010. Usuários de casa terão acesso a ele daqui a 3 ou 5 anos.
Coloque seus dados em uma via rápida
À medida que as CPUs ficam mais potentes e placas gráficas chegam a níveis inéditos de detalhes, um gargalo significativo permanece quanto ao fluxo de dados do PC: o barramento do sistema. Quando os dados viajam por seu PC, é ele – e não o chip – que limita o desempenho. É preciso barramento mais rápido.
O que é? A PCI Express (PCIe) é a melhor arquitetura de barramento de dados para hardwares de última geração. A atual especificação, versão 2.3, oferece transferência de dados a uma taxa de 5,2 gigabits por segundo (Gbps). A próxima geração, PCI 3.0, disponibilizará uma taxa de transferência de 8 Gbps. E além de suportar uma performance muito melhor da GPU, um dos principais benefícios da PCIe 3.0 pode ser a habilidade de potencializar placas de vídeo diretamente do system bus.
Quando chegará? O PCI-SIG, grupo que cuida das especificações da arquitetura PCI, espera liberar os detalhes finais da PCIe 3.0 em 2009. As placas devem estar no mercado em 2010.
Apresentações de bolso
Assistir a vídeos em um celular é um sacrifício. A minúscula tela torna difícil curtir o que se vê. Em não muito tempo, você verá shows no tamanho adequado novamente, graças a seu celular com projetor.
O que é? A Microvision Pico projetores usa tecnologia de digitalização de luz para gerar uma imagem completa e colorida a partir de um feixe.
Dentro do aparelho, é embutido um laser vermelho, verde ou azul, que, projetado, oscila vertical e horizontalmente para representar a imagem pixel por pixel, produzindo uma cena maior. Ela é exibida em uma parede ou outra superfície (de até 120 polegadas, a uma distância de 3,7 metros em uma sala escura). Usando um simples feixe de luz, ao invés de três feixes, a Microvision é capaz de tornar os projetores menores o suficiente para caber em um celular, sem aumentar substancialmente o tamanho do telefone.
Quando chegará? A Microvision fez uma parceria com a Motorola para fabricar o projetor Pico em telefones celulares, e o primeiro modelo está previsto para 2009. Até lá, a empresa está desenvolvendo um projetor/acessório para PCs e consoles de videogame que deve estar disponível em 2008. Projetores embutidos devem encarecer em 150 dólares.
sábado, 17 de julho de 2010
Montagem e Manutenção de computadores
Cap. 1 --http://www.youtube.com/user/lhacobmx#p/u/21/MUwoF6eXT8E
Cap. 2 -- http://www.youtube.com/watch?gl=BR&feature=channel_page&hl=pt&v=xCkM3OxQB10
Cap. 3 -- http://www.youtube.com/watch?v=LEZ-XO3Sq8s
Cap. 4 -- http://www.youtube.com/watch?v=OPn1bJfJdUs&feature=related
Cap. 5 -- http://www.youtube.com/watch?v=GiR0HT9Ogkk&feature=related
Cap. 6 -- http://www.youtube.com/watch?v=tnFWm7m1a0o&feature=related
Cap. 7 -- http://www.youtube.com/watch?v=qYXF51eD6DQ&feature=related
Cap. 8 -- http://www.youtube.com/watch?v=J9LgrN__3Bw&feature=related
Cap. 9 -- http://www.youtube.com/watch?v=Vx-dd2-zggs&feature=related
Cap. 10 -- http://www.youtube.com/watch?v=HhqxJ1Oo9_o&feature=related
Esses sites originaram-se do YouTube www.youtube.com.br
O sistema operacional é uma coleção de programas que:
* inicializa o hardware do computador
* fornece rotinas básicas para controle de dispositivos
* fornece gerência, escalonamento e interação de tarefas
* mantém a integridade de sistema
Há muitos tipos de Sistemas Operacionais, cuja complexidade varia e depende de que tipo de funções é provido, e para que computador esteja sendo usado. Alguns sistemas são responsáveis pela gerência de muitos usuários, outros controlam dispositivos de hardware como bombas de petróleo.
Um Sistema Operacional muito simples para um sistema de controle de segurança poderia ser armazenado numa memória ROM (Só de Leitura - um chip que mantém instruções para um computador), e assumir o controle ao ser ligado o computador. Sua primeira tarefa seria reajustar (e provavelmente testar) os sensores de hardware e alarmes, e então ativar uma rotina monitorando ininterruptamente todos os sensores introduzidos. Se o estado de qualquer sensor de entrada for mudado, é ativada uma rotina de geração de alarme.
Em um grande computador multiusuário, com muitos terminais, o Sistema Operacional é muito mais complexo. Tem que administrar e executar todos os pedidos de usuários e assegurar que eles não interferiram entre si. Tem que compartilhar todos os dispositivos que são seriais por natureza (dispositivos que só podem ser usados por um usuário de cada vez, como impressoras e discos) entre todos os usuários que pedem esse tipo de serviço. O SO poderia ser armazenado em disco, e partes dele serem carregadas na memória do computador (RAM) quando necessário. Utilitários são fornecidos para:
* Administração de Arquivos e Documentos criados por usuários
* Desenvolvimento de Programas
* Comunicação entre usuários e com outros computadores
* Gerenciamento de pedidos de usuários para programas, espaço de armazenamento e prioridade
Adicionalmente, o SO precisaria apresentar a cada usuário uma interface que aceita, interpreta, e então executa comandos ou programas do usuário. Essa interface é comumente chamada de SHELL (=cápsula, manteremos o nome original em inglês) ou interpretador de linha de comando (CLI). Em alguns sistemas ela poderia ser uma simples linha de texto que usam palavras chaves (como MSDOS ou UNIX); em outros sistemas poderiam ser gráficas, usando janelas e um dispositivo apontador como um mouse (como Windows95 ou X - Windows).
As Várias Partes de um Sistema Operacional
Um sistema operacional de um computador que é usado por muitas pessoas ao mesmo tempo, é um sistema complexo. Contém milhões de linhas de instruções escritas por programadores. Para tornar os sistemas operacionais mais fáceis de serem escritos, eles são construídos como uma série de módulos, cada módulo sendo responsável por uma função. Os módulos típicos em um grande SO multiusuário geralmente são:
* Núcleo (Kernel em inglês - também conhecido como "executivo")
* Gerenciador de processo
* Escalonador (Scheduler, em inglês)
* Gerenciador de arquivo
O Núcleo - Um Executivo em Tempo-Real
O núcleo de um sistema operacional é algumas vezes chamado de EXECUTIVO em tempo real. Algumas das funções executadas por ele são:
* chaveamento entre programas
* controle e programação de dispositivo de hardware
* gerenciamento de memória
* gerenciamento de processos
* escalonamento de tarefas
* comunicação entre processos
* processamento de exceções e de interrupção
Nosso sistema simples de monitoração de segurança não teria todas as funções acima, já que provavelmente seria um sistema mono-tarefa, executando apenas um programa. Como tal, não precisaria processar permutas entre mais de um programa ou permitir comunicação entre programas (comunicação entre processos). A gerência da memória seria desnecessária, já que o programa residiria permanentemente em ROM ou em EPROM (uma forma programável especial de ROM).
Um sistema operacional projetado para manusear um grande número de usuários precisaria de um núcleo para executar todas as funções acima. Programas de usuários geralmente são armazenados em disco, assim precisa ser carregado em memória antes de ser executado. Isso apresenta a necessidade de gerência da memória, já que a memória do computador precisaria ser pesquisada para localizar uma área livre para carregar um programa de usuário na mesma. Quando o usuário tivesse encerrada a execução do programa, a memória consumida por ele precisaria ser liberada e se tornaria disponível para outro usuário quando solicitado.
Gerenciamento e Escalonamento (Scheduling) de processos também são necessários, de forma que todos os programas possam ser executados razoavelmente. Não há como um programa de um usuário específico ser executado numa área de extensão, negando o funcionamento de qualquer outro programa, e fazendo todos os outros usuários esperarem. Adicionalmente, alguns programas poderiam precisar ser executados mais freqüentemente que outros, por exemplo, checando comunicações de rede ou imprimindo. Alguns programas podem precisar ser suspensos temporariamente, e serem reiniciados depois, assim introduzindo a necessidade da comunicação inter-programas.
Programando um computador
Um programa é uma seqüência de instruções ao computador. Quando o programador de software (uma pessoa que escreve programas para serem executados em um computador) desenvolve um programa, este é convertido em uma longa lista de instruções que são executadas pelo sistema de computador.
Em sistemas operacionais nós falamos mais de um processo do que de um programa. Nos sistemas operacionais modernos, só uma porção de um programa é carregada em cada instante. O resto do programa espera numa unidade de disco até que se precise do mesmo. Isso economiza espaço de memória.
Os programas no computador são executados por processadores. Um processador é um chip no computador que executa instruções de programa. Processadores executam milhões de instruções por segundo.
Um Processo
Um processo ou tarefa é uma porção de um programa em alguma fase de execução. Um programa pode consistir de várias tarefas, cada uma com funcionamento próprio ou como uma unidade (talvez se comunicando entre si periodicamente).
A Thread (fileira, linha)
Uma thread é uma parte separada de um processo. Um processo pode consistir de várias threads cada uma das quais sendo executada separadamente. Por exemplo, uma thread poderia tratar refresh e gráficos na tela, outra thread trataria impressão, outra thread trataria o mouse e o teclado. Isso dá bom tempo de resposta em programas complexos. Windows NT é um exemplo de um sistema operacional que suporta multi-thread.
Sistemas operacionais de Multi-processo
Alguns sistemas executam só um único processo, outros sistemas executam múltiplos processos de cada vez. A maioria dos computadores é baseada num único processador, e um processador pode executar só uma instrução de cada vez. Assim, como é possível um único processador executar processos múltiplos? A resposta mais imediata é que ele não faz desse modo. O processador do computador executa um processo por um período pequeno de tempo, e então muda para o próximo processo e assim por diante. Como o processador executa milhões de instruções por segundo, isso dá a impressão de muitos processos serem executados ao mesmo tempo.
Em um sistema de computador que suporta mais de um processo de cada vez, algum mecanismo deve ser usado para intercalar de uma tarefa para outra. Há dois métodos principais usados para fazer essa troca:
* Escalonamento por Cooperação indica que uma tarefa que está sendo executada atualmente deixará voluntariamente em algum momento o processador e permitirá que outros processos sejam executados.
* Escalonamento Preemptivo significa que uma tarefa corrente será interrompida (forçou a se render) e o processador se dedica a outro processo em estado de espera.
O problema da mudança por cooperação é que um processo poderia demorar e assim negar a execução de outros processos e poderia resultar em nenhum trabalho ser feito. Um exemplo de um sistema de cooperação é o Windows 3.1
O escalonamento preemptivo é melhor. Dá mais respostas a todos os processos e ajuda a prevenir (ou reduz o número de ocorrências de) contra o medo de máquinas travadas. Windows NT é um exemplo de tal sistema operacional.
Nota: Só para programas de 32bits em Windows 95 há escalonamento preemptivo. Programas de 16bits ainda são escalonados cooperativamente, o que significa que ainda é fácil para um programa de 16bits travar um computador Windows.
Contexto de Troca
Quando o processador muda de um processo a outro, o seu estado (o processador registra e associa os dados) deve ser salvo, pois algum tempo depois, será reiniciado o processo e continuará como se nunca fora interrompido. Uma vez esse estado tenha sido salvo, o próximo processo em espera é ativado. Isso envolve carga nos registradores do processador e na memória, com todos os dados previamente salvos, e reiniciando na instrução que seria executada quando houve a última interrupção.
O ato de mudar de um processo a outro é chamado troca de contexto. Um período de tempo que um processo execute antes de ser trocado é chamado de time slice ou período de quantum.
Escalonamento (Scheduling)
A decisão de qual o próximo processo deve ser executado é chamado escalonamento (scheduling), e pode ser feito em uma grande variedade de maneiras.
Escalonadores por cooperação geralmente são muito simples, já que os processos são organizados em fila circular (ROUND ROBIN). Quando um processo corrente se deixa, vai para o fim da fila. O processo no topo da fila é então executado, e todos os processos se movimentam um lugar para cima na fila. Isso provê uma medida justa, mas não impede que um processo monopolize o sistema (não se deixando).
Escalonadores preemptivos usam um relógio em tempo real que gera interrupção a intervalos regulares (digamos, a cada 1/100 de um segundo). Cada vez que uma interrupção ocorre, o processador muda para outra tarefa. Sistemas que geralmente empregam esse tipo de escalonamento atribuem prioridades a cada processo, de forma que alguns podem ser executados mais freqüentemente que outros.
Carga do Sistema Operacional
O SO pode ser carregado na memória de um computador de duas maneiras.
* já está presente em ROM
* é carregado a partir do disco quando o computador é ligado.
Se o SO já está presente em ROM (para sistemas tipo controladores industriais, bombas de petróleo, etc), ele ganhará controle imediato do processador ao ser ligado o computador. Para sistemas mais complexos, o SO é armazenado normalmente em mídia secundária (como disco), e é carregado em RAM quando o computador é ligado. A vantagem desse tipo de sistema é que o escalonamento para o SO é mais fácil de fazer e programar.
O PROCESSO de BOOTSTRAP
Descreve a ação da carga inicial do sistema operacional do disco para a RAM. Uma pequena rotina armazenada em ROM, chamada de CARREGADOR de BOOTSTRAP ou IPL (Carregador de Programa Inicial), lê uma rotina especial de carga no disquete. Em sistema baseado em disquete, essa rotina normalmente reside na trilha 00, setor 00 (ou 01), e é chamado de setor de booting. O código contido no setor é transferido para a RAM, e então é executada. Tem a responsabilidade exclusiva de carregar o resto do sistema operacional na memória.
Tipos diferentes de processamentos em sistemas operacionais
Sistemas operacionais são divididos em categorias que definem as suas características. Sistemas modernos podem usar combinações de essas categorias descritas a seguir.
BATCH (em LOTE)
O tipo mais antigo de SO permite só um programa ser executado de cada vez. O programa que é carregado no computador é executado completamente. Os dados usados pelo programa não podem ser modificados enquanto o programa está sendo executado. Qualquer erro no programa ou nos dados significa começar tudo novamente.
INTERATIVO
Esses permitem a modificação e entrada de dados ainda durante a execução do programa. Sistemas típicos são reservas de vôo aéreo e linguagens como BASIC.
TIME-SHARING/MULTI-USUÁRIO
Esses SOs compartilham o computador entre mais de um usuário, e adota técnicas de escalonamento preemptivo.
MULTI-TAREFAS
Mais de um processo pode ser executado concorrentemente. O processador é escalonado rapidamente entre os processos. Um usuário pode ter mais de um processo executado de cada vez.
TEMPO REAL
Principalmente usado em controle de processos, telecomunicações, etc. O SO monitora várias entradas que afetam a execução de processos, mudando os modelos de computadores do ambiente, e assim afetando as saídas, dentro de um período de tempo garantido (normalmente < 1 segundo).
MULTI-PROCESSAMENTO
Um computador que tem mais de um processador central dedicados na execução de processos.
--------------------------
bom. espero que vocês gostem. Até a próxima
Barramentos
Em ciência da computação barramento é um conjunto de linhas de comunicação que permitem a interligação entre dispositivos, como a CPU, a memória e outros periféricos.
Esses fios estão divididos em três conjuntos:
* via de dados: onde trafegam os dados;
* via de endereços: onde trafegam os endereços;
* via de controle: sinais de controle que sincronizam as duas anteriores.
O desempenho do barramento é medido pela sua largura de banda (quantidade de bits que podem ser transmitidos ao mesmo tempo), geralmente potências de 2:
* 8 bits, 16 bits, 32 bits, 64 bits, etc.
Também pela velocidade da transmissão medida em bps (bits por segundo) por exemplo:
* 10 bps, 160 Kbps, 100 Mbps, 1 Gbps etc.
Tipos
Barramento do processador
O Barramento do Processador é utilizado pelo processador internamente e para envio de sinais para outros componentes da estrutura computacional.
Atualmente, os barramentos, principalmente dos processadores(os de transferência de dados) têm sido bastante aprimorados com o objetivo de melhor desenvoltura, ou seja, maior velocidade de processamentos de dados.
Através deste barramento o processador faz a comunicação com o seu exterior. Nele trafegam os dados lidos da memória, escritos na memória, enviados para interfaces e recebidos de interfaces. Pode ser dividido em três grupos:
* Barramento de dados
* Barramento de endereços
* Barramento de controle
Barramento de cache
Barramento de Cache em organizações de computadores mais recentes, é um barramento dedicado para acesso à memória cache do computador.
Barramento de memória
Barramento de Memória responsável pela conexão da memória principal ao processador. É um barramento de alta velocidade que varia de micro para micro e atualmente gira em torno de 533 MHz a 2000 MHz, como nas DDR3.
Barramento de entrada e saída
O Barramento de Entrada e Saída (I/O ou E/S) é um conjunto de circuitos e linhas de comunicação que se ligam ao resto do PC com a finalidade de possibilitar a expansão de periféricos e a instalação de novas placas no PC.
Permitem a conexão de dispositivos como:
* Placa gráfica
* Rede
* Placa de Som
* Mouse
* Teclado
* Modem
* etc
São exemplos de Barramentos de Entrada e Saída:
* AGP
* AMR
* EISA
* FireWire
* IrDA
* ISA
* MCA
* PCI
* PCI Express
* Pipeline
* SCSI
* VESA Local Bus
* USB
* PS/2
Barramento de dados
Este artigo ou seção precisa ser wikificado (desde dezembro de 2009).
Por favor ajude a formatar este artigo de acordo com as diretrizes estabelecidas no livro de estilo.
* Barramento de Dados (Data Bus): carrega a informação da instrução (através do código de operação), variável do processamento (cálculo intermediário de uma fórmula por exemplo) ou informação de um periférico de E/S (dado digitado em um teclado). O tamanho da via de dados determina respectivamente o máximo número de instruções (e portanto o potencial de processamento) e a precisão do processamento aritmético (através do cálculo de ponto flutuante) ou o número de símbolos possíveis a ser representado (por exemplo, pontos de uma foto).
* Ex:
* 1) - O processador 8085 possui 8 bits no barramento→ máximo de 256 instruções e variáveis numéricas entre -127 a +127 (ou 0 a 255).
* 2) - O processador Pentium IV possui 32 bits no barramento→ variáveis numéricas entre - 2147483648 e + 2147483648.
* O tamanho do barramento de dados está ligado a capacidade de processamento do sistema. Se o processamento é simples (como o controle booleano de um CLP) 8 bits são suficientes. Por outro lado, se há a necessidade de um processamento complexo (como os sistema de multimídia onde há a necessidade de processarmos milhões de pontos de imagem) processamento de até 128 bits já estão disponíveis. Obviamente existe a necessidade de aumentar igualmente a velocidade do sistema pois a "paciência" do usuário é a mesma ao ligar uma lâmpada ou processar uma imagem fotográfica.
Taxa de transferência
O principal fator que determina o desempenho de um barramento é a sua taxa de transferência. A mesma é obtida através de cálculos com base nas características do barramento, sendo elas:
* Clock
* Largura
* Transferências por ciclo de clock
Componentes gráficos
Imagens Acima↑↑↑↑
Os principais componentes de um computador encarregados de interpretar e apresentar as cores são o cartão gráfico e o monitor.
O cartão gráfico ou de vídeo é o componente hardware encarregado de processar os dados gráficos que envia o processador, interpreta-los e codifica-los em voltagens adequadas que são enviados logo ao monitor para sua apresentação em tela.
Cartão gráfico
Existem diferentes modelos de cartão gráfico, que vão desde os mais simples, incluídos na placa base, até os mais avançados, verdadeiros mini-computadores, com seu próprio processador, memória, bus, etc.
Os monitores são os dispositivos encarregados de apresentar ao usuário as interfaces das aplicações que se executam no computador. Todos sabemos como é um monitor por fora, já que estamos acostumados aos monitores das televisões, algo tão comum em nossas casas. Interiormente, os monitores variam uns dos outros em função de sua qualidade, da forma de manejar de voltagens e da tecnologia gráfica empregada.
Monitor CRT
Os monitores mais comuns são os CRT ou de raios catódicos, formados por um tubo cujo interior foi feito vazio, em um dos extremos se situam três canhões de elétrons, um por cada cor primária, e no outro em uma tela de vidro, cuja parte externa é a que vê o usuário.
Tubo de raios catódicos de um monitor CRT
Os elétrons gerados nos canhões por aquecimento são impulsionados até a parte interna da tela, que se encontra recoberta por pequenos grupos de fósforo pigmentado em cada uma das três cores primárias (vermelho, verde e azul). Estes grupos recebem o nome de tríadas, e se correspondem com um ponto da tela, denominado píxel, que aparecerá de uma cor ou de outra segundo a intensidade dos elétrons que chegarem em cada canhão.
Uma característica importante é o passo de ponto (dot pitch), distância diagonal entre dois pontos vizinhos da mesmo cor, que determina o mínimo tamanho de um detalhe que é capaz de resolver uma tela. Quanto menor for esta distância, maior será a nitidez. Mede-se em pontos por polegada (ppp).
A resolução máxima distinguível em uma tela de 800x600 é de 72 ppp e em uma de 1024x768 é de 93 ppp. Estes são valores teóricos e na prática são algo maiores.
Passo de ponto e píxel
Segundo a resolução empregada, os píxels (unidade mínima de informação) são representados em tela por uma ou mais tríadas, com o que a adaptação às diferentes resoluções é muito boa.
Com objetivo de que os elétrons cheguem de forma ordenada e causem impacto justamente no ponto adequado, entre a tela e os canhões, situa-se uma máscara ou rede que filtra os elétrons e os dirige a seus pontos destino de forma adequada.
A representação de uma imagem em tela se realiza mediante varreduras dos raios de elétrons, que percorrem toda a tela de esquerda à direita e de cima para baixo. A velocidade com a que se realiza esta operação denomina-se freqüência de refresh vertical ou refresh de tela, e mede-se em Hz (hertzs) e deve estar por cima de 60 Hz, preferivelmente 70 ou 80. A partir desta cifra, a imagem na tela é sumamente estável, sem piscadas apreciáveis, com o qual a vista sofre muito menos.
A freqüência de refresh vertical de nosso monitor pode ser averiguada acessando à tela de configuração do monitor, a qual se acessa em sistemas Windows mediante as seleções:
Iniciar > Painel de control > Tela > Configuração > Opções avançadas > Monitor
Também podemos mudar nesta tela a freqüência de refresh, porém antes de faze-lo é aconselhável consultar o manual do monitor, já que uma freqüência incorreta pode ser bastante prejudicial.
Monitor LCD
Outro tipo de monitore é o LCD ou de cristal líquido, que se diferencia dos anteriores porque nele as tríadas estão formadas por cristal líquido ao invés de fósforo pigmentado, e os elétrons são guiados por polarização magnética. Ademais, os monitores LCD trabalham com uma trama de píxels concreta, sendo fixo o tamanho de cada um, portanto ao mudar uma resolução inferior podem ficar franjas de píxels desativadas.
Seja qual for o tipo de cartão gráfico e monitor usado, é fundamental ter instalados e atualizados os drivers próprios destes componentes.
Um driver é um conjunto de bibliotecas de software específicas encarregadas de configurar e controlar os dispositivos de hardware. Cada componente necessita para funcionar bem os drivers adequados, que geralmente vêm junto com este em um disquete ou em um CD.
Com o avanço das funcionalidades dos sistemas operacionais e dos demais componentes de software e hardware das máquinas informáticas, torna-se necessário uma atualização constante dos drivers dos monitores e cartões de vídeo.
Estas versões atualizadas costumam ser oferecidas pelos diferentes fabricantes em seus web sites, por isso é muito importante visitar estes a cada certo tempo para baixar as versões atualizadas dos drivers e instala-los em nossa máquina, com o objetivo de não perder capacidades e de evitar incompatibilidades com os novos sistemas operacionais.
Se tivermos instalado um cartão gráfico em nosso computador, geralmente os drivers desta (controlador) são os responsáveis de manejar de forma adequada o monitor. Para acessar às propriedades do controlador, basta seguir a rota:
Iniciar> Painel de controle > Tela > Configuração > Opções avançadas > Monitor > Propriedades > Controlador
Através desta janela podemos ver o tipo de controlador instalado e se está funcionando bem ou se tem algum problema. Também atualiza-lo, para o que for necessário ter previamente nos novos drivers, já que teremos que indicar sua localização em nossos discos rígidos.
Uma consideração importante: há que estar certo de que o driver que iremos instalar se corresponde com o de nosso cartão gráfico ou monitor, já que um driver inadequado pode originar um mal funcionamento dos componentes gráficos.
Memória RAM
A memória RAM é um componente essencial não apenas nos PCs, mas em qualquer tipo de computador. Por mais que exista espaço de armazenamento disponível, na forma de um HD ou memória flash, é sempre necessária uma certa quantidade de memória RAM e,
naturalmente, quanto mais melhor.
Graças ao uso da memória swap, é possível rodar a maioria dos sistemas operacionais modernos com quantidades relativamente pequenas de memória. No caso do Linux, é possível inicializar uma instalação enxuta (em modo texto, com pouca coisa além do
Kernel e o interpretador de comandos) com apenas 4 MB de memória. O problema é que com pouca memória o sistema fica extremamente lento, como qualquer um que já tentou usar o Windows XP ou uma distribuição Linux recente, com o Gnome ou KDE em um PC com
menos de 128 MB de memória pode dizer. :)
A sigla "RAM" vem de "Random Access Memory", ou "memória de acesso aleatório", indicando a principal característica da memória RAM, que é o fato de permitir o acesso direto a qualquer um dos endereços disponíveis e de forma bastante rápida.
Ao carregar um programa, ele é lido no HD (ou outra mídia de armazenamento) e é transferido para a memória RAM, para só então ser executado pelo processador. A memória RAM oferece tempos de acesso brutalmente mais baixos que o HD e trabalha com taxas
de transferência muito mais altas, mas possui a desvantagem de perder os dados armazenados quando o micro é desligado, daí a necessidade de salvar os arquivos periodicamente.
É também por causa disso que o processo de boot é refeito cada vez que você liga o micro. Durante o boot, o sistema operacional, drivers, bibliotecas e aplicativos são novamente copiados para a memória, junto com suas configurações e preferências.
A única forma de evitar repetir o demorado processo de boot é manter a memória RAM ativa, ou salvar seu conteúdo no HD, recuperando-o no próximo boot. Essas são as estratégias usadas pelas opções de suspender e hibernar, disponíveis tanto no Windows
quanto em várias distribuições Linux.
Ao suspender, a maioria dos componentes do sistema são desligados, incluindo o HD, a placa de vídeo e a maior parte dos componentes da placa-mãe. Mesmo o processador entra em um estágio de baixo consumo, onde a maior parte dos componentes internos são
desativados e o clock é reduzido. Praticamente, os únicos componentes que continuam realmente ativos são os módulos de memória. Graças a isso o PC acaba consumindo (geralmente) menos de 20 watts de energia e pode voltar ao estágio original muito
rapidamente.
Ao hibernar, o conteúdo da memória RAM é copiado para uma área reservada do HD e o micro é desligado. Ao ligar novamente, o conteúdo da memória é restaurado e temos o sistema de volta, sem precisar passar pelo processo normal de boot. O problema da
hibernação é que a restauração demora muito mais tempo, já que é necessário ler 512 MB, 1 GB ou mesmo 4 GB de dados (equivalentes à quantidade de memória RAM instalada) a partir do HD, o que muitas vezes demora mais do que um boot completo. :)
Num chip de memória DRAM, cada bit é formado pelo conjunto de um transístor e um capacitor. O transístor controla a passagem da corrente elétrica, enquanto o capacitor a armazena por um curto período. Quando o capacitor contém um impulso elétrico,
temos um bit 1 e quando ele está descarregado, temos um bit 0.
Quando falo em "capacitor", tenha em mente que não estamos falando em nada similar aos capacitores eletrolíticos da placa-mãe. Os "capacitores" usados nos chips de memória são extremamente pequenos e simples, basicamente dois pequenos blocos de metal
ligados ao transístor, que conservam o impulso elétrico por apenas uma fração de segundo.
Para evitar a perda dos dados, a placa-mãe inclui um circuito de refresh, que é responsável por regravar o conteúdo da memória várias vezes por segundo (a cada 64 milessegundos ou menos), algo similar ao que temos num monitor CRT, onde o canhão de
elétrons do monitor precisa atualizar a imagem várias vezes por segundo para evitar que as células de fósforo percam seu brilho.
O processo de refresh atrapalha duplamente, pois consome energia (que acaba sendo transformada em calor, contribuindo para o aquecimento do micro) e torna o acesso à memória mais lento. Apesar disso, não existe muito o que fazer, pois a única solução
seria passar a usar memória SRAM, que é absurdamente mais cara.
A principal diferença é que na memória SRAM cada célula é formada por 4 ou 6 transístores, em vez de apenas um. Dois deles controlam a leitura e gravação de dados, enquanto os demais formam a célula que armazena o impulso elétrico (a célula continua
armazenando um único bit). As memórias SRAM são muito mais rápidas e não precisam de refresh, o que faz com que também consumam pouca energia. Além de ser usada como memória cache, a memória SRAM é muito usada em palmtops e celulares, onde o consumo
elétrico é uma questão crítica.
Seria perfeitamente possível construir um PC que usasse memória SRAM como memória principal, mas o custo seria proibitivo. Foi por causa do custo que as memórias DRAM passaram a ser utilizadas em primeiro lugar.
Mesmo utilizando um único transístor por bit, os módulos de memória RAM são formados por um número assustador deles, muito mais que os processadores e outros componentes. Um módulo de memória de 1 GB, por exemplo, é formado geralmente por 8 chips de 1
gigabit cada um (8 gigabits = 1 gigabyte). Cada chip possui então mais de 1 bilhão de transístores e capacitores e o módulo inteiro acumula mais de 8 bilhões de conjuntos.
Apesar dessa brutal quantidade de transistores, os chips de memória são relativamente simples de se produzir, já que basta repetir a mesma estrutura indefinidamente. É muito diferente de um processador, que além de ser muito mais complexo, precisa ser
capaz de operar a freqüências muito mais altas.
» Leia mais: Tipos e tecnologia de memória RAM
sexta-feira, 16 de julho de 2010
Processador
O processador é o cérebro do micro, encarregado de processar a maior parte das informações. Ele é também o componente onde são usadas as tecnologias de fabricação mais recentes. O processador é o componente mais complexo e freqüentemente o mais caro,
mas ele não pode fazer nada sozinho. Como todo cérebro, ele precisa de um corpo, que é formado pelos outros componentes do micro, incluindo memória, HD, placa de vídeo e de rede, monitor, teclado e mouse. Dentro do mundo PC, tudo começou com o 8088,
lançado pela Intel em 1979 e usado no primeiro PC, lançado pela IBM em 1981.
Depois veio o 286, lançado em 1982, e o 386, lançado em 1985. O 386 pode ser considerado o primeiro processador moderno, pois foi o primeiro a incluir o conjunto de instruções básico, usado até os dias de hoje. O 486, que ainda faz parte das lembranças
de muita gente que comprou seu primeiro computador durante a década de 1990, foi lançado em 1989, mas ainda era comum encontrar micros com ele à venda até por volta de 1997. Depois entramos na era atual, inaugurada pelo Pentium, que foi lançado em 1993,
mas demorou alguns anos para se popularizar e substituir os 486.
Em 1997 foi lançado o Pentium MMX, que deu um último fôlego à plataforma. Depois, em 1997, veio o Pentium II, que usava um encaixe diferente e por isso era incompatível com as placas-mãe antigas. A AMD soube aproveitar a oportunidade, desenvolvendo o
K6-2, um chip com uma arquitetura similar ao Pentium II, mas que era compatível com as placas soquete 7 antigas. A partir daí as coisas passaram a acontecer mais rápido. Em 1999 foi lançado o Pentium III e em 2000 o Pentium 4, que trouxe uma arquitetura
bem diferente dos chips anteriores, otimizada para permitir o lançamento de processadores que trabalham a freqüências mais altas. O último Pentium III trabalhava a 1.0 GHz, enquanto o Pentium 4 atingiu rapidamente os 2.0 GHz, depois 3 GHz e depois 3.5
GHz. O problema é que o Pentium 4 possuía um desempenho por ciclo de clock inferior a outros processadores, o que faz com que a alta freqüência de operação servisse simplesmente para equilibrar as coisas.
A primeira versão do Pentium 4 operava a 1.3 GHz e, mesmo assim, perdia para o Pentium III de 1.0 GHz em diversas aplicações. Quanto mais alta a freqüência do processador, mais ele esquenta e mais energia consome, o que acaba se tornando um grande
problema. Quando as possibilidades de aumento de clock do Pentium 4 se esgotaram, a Intel lançou o Pentium D, uma versão dual-core do Pentium 4. Inicialmente os Pentium D eram caros, mas com o lançamento do Core 2 Duo eles caíram de preço e passaram a ser
usados até mesmo em micros de baixo custo.
Os Pentium D eram vendidos sob um sistema de numeração e não sob a freqüência real de clock. O Pentium D 820, por exemplo, opera a 2.8 GHz, enquanto o 840 opera a 3.2 GHz. Em 2003 a Intel lançou o Pentium M, um chip derivado da antiga arquitetura do
Pentium III, que consome pouca energia, esquenta pouco e mesmo assim oferece um excelente desempenho. Um Pentium M de 1.4 GHz chega a superar um Pentium 4 de 2.6 GHz em diversas aplicações. O Pentium M foi desenvolvido originalmente para ser usado em
notebooks, mas se mostrou tão eficiente que acabou sendo usado como base para o desenvolvimento da plataforma Core, usada nos processadores Core 2 Duo fabricados atualmente pela Intel. O Pentium 4 acabou se revelando um beco sem saída, descontinuado e
condenado ao esquecimento.
Paralelamente a todos esses processadores, temos o Celeron, uma versão mais barata, mas com um desempenho um pouco inferior, por ter menos cache ou outras limitações. Na verdade, o Celeron não é uma família separada de chips, mas apenas um nome
comercial usado nas versões mais baratas (com metade ou um quarto do cache) de vários processadores Intel. Existem Celerons baseados no Pentium II, Pentium III, Pentium 4, Pentium M e também o Celeron 4xx, que é uma versão single-core (e com menos cache)
do Core 2 Duo.
hardware
Hardware
O Hardware, Material ou Ferramental é a parte física do computador, ou seja, é o conjunto de componentes eletrônicos, circuitos integrados e placas, que se comunicam através de barramentos. Em contraposição ao hardware, o software é a parte lógica, ou seja, o conjunto de instruções e dados que é processado pelos circuitos eletrônicos do hardware. Toda interação dos usuários de computadores modernos é realizada através do software, que é a camada, colocada sobre o hardware, que transforma o computador em algo útil para o ser humano.
O termo "hardware" não se refere apenas aos computadores pessoais, mas também aos equipamentos embarcados em produtos que necessitam de processamento computacional, como o dispositivos encontrados em equipamentos hospitalares, automóveis, aparelhos celulares, dentre outros.
Na ciência da computação a disciplina que trata das soluções de projeto de hardware é conhecida como arquitetura de computadores.
Sistemas Numéricos
Para que o computador possa trabalhar com as informações são utilizados sistemas numéricos diferenciados. Eles estão descritos na tabela ASCII (Americam Standard Code for Information Interchange ou Código padrão americano para troca de informação). Que surgiu em 1961 como uma padronização da indústria de computadores para ser utilizada na manipulação de dados da memória, discos, etc, sob a forma de código binário com 8 bits. Através desta codificação podemos representar todos os caracteres criados pelo teclado do computador. Existe uma tabela ASC anterior de 7 bits que não combina os caracteres acentuados, ASCII é uma extensão da tabela original.
Conexões do hardware
Para funcionar, o computador necessita de algumas conexões físicas que permitam que os componentes de hardware se comuniquem e se inter-relacionem. O barramento constituí um sistema comum de interconexão, composto por um conjunto de vias ou trilhas que coordenam e transportam as informações entre as partes internas e externas do computador. Uma conexão para comunicação em série é feita através de um cabo ou grupo de cabos utilizados para transferir informações entre a CPU e um dispositivo externo como o mouse e o teclado, um modem, um digitalizador (scanner) e alguns tipos de impressora. Esse tipo de conexão transfere um bit de dado de cada vez, muitas vezes de forma lenta. A vantagem de transmissão em série é que é mais eficaz a longas distâncias.
Arquiteturas de computadores
A arquitetura dos computadores pode ser definida como "as diferenças na forma de fabricação dos computadores". Com a popularização dos computadores houve a necessidade de se interagir um equipamento com o outro, surge a necessidade de se criar um padrão. Em meados da década de 80, apenas duas “arquiteturas” resistiram ao tempo e se popularizaram foram: o PC (Personal Computer ou em português Computador Pessoal), desenvolvido pela empresa IBM e Macintosh (carinhosamente chamado de Mac) desenvolvido pela empresa Apple. Como o IBM-PC se tornou a arquitetura “dominante” na época, acabou tornando-se padrão para os computadores que conhecemos hoje. Atualmente podemos verificar que todos os micros são “compatíveis IBM PC”.
Arquitetura aberta
A arquitetura aberta, (atualmente mais utilizada, criada inicialmente pela IBM) é a mais aceita atualmente, e consiste em permitir que outras empresas fabriquem computadores com a mesma arquitectura permitindo que o usuário tenha uma gama maior de opções e possa montar seu próprio computador de acordo com suas necessidades e com custos que se enquadrem com cada usuário.
Arquitetura fechada
A Arquitetura fechada, consiste em não permitir, ou ter controlo sobre as empresas que fabricam computadores dessa arquitectura, isso faz com que os conflitos de hardware diminuam muito fazendo com que o computador funcione mais rápido e aumentando a qualidade do computador. No entanto, nesse tipo de arquitetura o utilizador está restringido a escolher de entre os produtos da empresa e não pode montar o seu próprio computador.
Neste momento a Apple não pertence exactamente a uma arquitectura fechada, mas a ambas as arquitecturas, sendo a única empresa que produz computadores que podem correr o seu sistema operativo de forma legal, mas também fazendo parte do mercado de compatíveis IBM.
Overclock
Overclock é uma expressão sem tradução (seria algo como sobre-pulso (de disparo) ou ainda aumento do pulso). Poderíamos definir o overclock como o ato de aumentar a frequência de operação de um componente (em geral chip's) que compõe um dispositivo (VGA ou mesmo CPU) no intuito de obter ganho de desempenho. Existem várias formas de efetuar o overclock, uma delas é o softmod (via software) outra seria biosmod (alterando a bios do dispositivo).
Ta ai um pouco sobre hardware, para quem é iniciante nesta area.