domingo, 2 de junho de 2013

Discos Rígido

Para quê serve um Disco Rígido?

O HD ou Disco Rígido serve para armazenar arquivos, programas, jogos e todo tipo de conteúdo que se deseja manter no computador. O sistema é, na verdade, mais um tipo de memória que existe dentro de um PC. No entanto, diferentemente da memória RAM. Caracterizado como memória física, não volátil, que é aquela na qual as informações não são perdidas quando o computador é desligado.
Um Disco Rígido (HD) Serial ATA (Sata)

Por que o nome disco rígido?

O motivo para é simples: os dados são gravados em discos magnéticos chamados platters, formados por discos extremamente rígidos que garantem a qualidade de gravação e leitura. A utilização de materiais duros é necessária para evitar a ocorrência de erros que podem surgir caso ocorram deformações na superfície.
Os platters são compostos de duas camadas, a primeira chamada de substrato. Geralmente feita de alumínio, embora existam modelos mais caros que utilizem vidro como base, esta camada é constituída de um disco polido em salas limpas (sem a presença de fatores ambientais como pó ou sujeira) para se tornar perfeitamente plana e espelhada.
O que permite a gravação de dados é uma segunda camada feita de material magnético, aplicada nos dois lados do substrato polido. Para aplicar esta camada, nos discos rígidos antigos era utilizada uma técnica chamada eletroplating, semelhante à eletrólise usada para banhar bijuterias a ouro.

http://s.glbimg.com/po/tt/f/original/2012/03/05/ilustracao.jpg
Um Disco Rígido (HD) Serial ATA (Sata) visto internamente

Como o eletroplating não permite obter uma superfície muito uniforme, o que limitava o espaço de armazenamento disponível, foi desenvolvido o PLA, tecnologia semelhante à usada para soldar transistores em processadores. Como a camada magnética possui espessura de somente alguns microns, acima dela há uma fina camada protetora que evita que pequenos impactos danifiquem o disco rígido.
A necessidade de utilizar discos totalmente planos vem do fato de a gravação e  a leitura serem feitas a velocidades muito grandes, o que faz com que qualquer variação na superfície seja fatal para o funcionamento do componente. Os HDs mais comuns são capazes de alcançar entre 5600 a 7200 rotações por minuto, embora existam modelos que chegam até os 10000 RPM.
Depois de polidos e já com a camada magnética aplicada, os platters são montados em um eixo geralmente feito de alumínio, que deve ser sólido o bastante para evitar qualquer vibração dos discos, mesmo em altas velocidades. O eixo também passa por um processo de polimento, já que os discos devem ficar perfeitamente presos e alinhados ao componente.
A maioria dos discos rígidos disponíveis no mercado utiliza múltiplos discos de gravação e leitura, o que permite aumentar a capacidade do dispositivo. Embora existam exceções à regra, o mais comum é que cada HD possua quatro discos em sua composição.


Como ocorre o processo de gravação e leitura?

Durante o processo de gravação, o campo magnético gerado pelos ímãs presentes nas cabeças faz com que as moléculas de óxido de ferro presentes na superfície magnética dos discos se reorganizem, alinhando os polos negativos delas com os polos positivos da cabeça. Da mesma forma, os polos positivos se alinham com os polos negativos.
Os eletroímãs presentes nas cabeças de leitura e gravação podem ter sua polaridade alternada constantemente, o que permite variar livremente as moléculas da superfície magnética do disco rígido. Conforme a direção de cada polo, obtém-se um bit interpretado como 1 ou 0 pelo computador (fórmula binária).
Na hora de ler os dados gravados, a cabeça de leitura capta o campo magnético gerado pelas moléculas alinhadas. A variação dos sinais magnéticos positivos e negativos gera uma corrente elétrica transmitida para a bobina de fios presentes na cabeça. Ao chegar à placa lógica do HD, esta corrente é interpretada como uma sequência de bits 1 e 0, que formam os diferentes arquivos gravados no disco rígido.
Vale mencionar que todo esse processo ocorre sem nenhuma espécie de contato entre as cabeças de leitura e a superfície do disco. Isso porque, devido às altas velocidades com os que os discos rodam, forma-se um colchão de ar que repele as cabeças de leitura e impede qualquer espécie de contato.
Caso houvesse contato entre os componentes, dificilmente um disco rígido funcionaria durante muito tempo devido aos danos físicos ocorridos. Para evitar acidentes, a maioria dos HDs conta com um ímã ao lado do atuador, responsável por atrair as cabeças a uma posição segura toda vez em que o computador é desligado ou não há gravação ou leitura de dados.
Em ocasiões em que ocorrem picos de tensão ou a energia é cortada subitamente com o HD funcionando, é comum surgirem setores defeituosos por ter ocorrido contato entre as cabeças de leitura e a superfície do disco.
Para evitar problemas do tipo recomenda-se utilizar acessórios como no-breaks, que permitem desligar o computador da forma correta em casos de instabilidade no fornecimento de energia.


Como funciona a geometria dos discos?

Uma unidade de disco constitui-se de um ou mais pratos (discos) sobrepostos, cobertos por uma camada magnética. Existe uma cabeça de leitura-gravação para cada superfície. Cada superfície é dividida em anéis mais conhecidos por trilhas. 

Trilhas são círculos que começam no centro do disco e vão até a sua borda, como se estivessem um dentro do outro. Elas são numeradas da borda para o centro, isto é, a trilha que fica mais próxima da extremidade do disco é denominada trilha 0, e a que vem em seguida é chamada trilha 1 e assim por diante, até chegar à trilha mais próxima do centro. Cada uma é dividida em trechos regulares chamados de setores. Cada setor possui uma capacidade determinada de armazenamento (geralmente, 512 bytes).
E onde entra os cilindros? Eis uma questão interessante: você já sabe que um HD pode conter vários pratos, sendo que há uma cabeça de leitura e gravação para cada lado dos discos. Imagine que é necessário ler a trilha 42 do lado superior do disco 1. O braço movimentará a cabeça até esta trilha, mas fará com que as demais se posicionem de forma igual. Isso ocorre porque normalmente o braço se movimenta de uma só vez, isto é, ele não é capaz de mover uma cabeça para uma trilha e uma segunda cabeça para outra trilha.
Isso significa que, quando a cabeça é direcionada à trilha 42 do lado superior do disco 1, todas as demais cabeças ficam posicionadas sobre a mesma trilha, só que em seus respectivos discos. Quando isso ocorre, damos o nome de cilindro. Em outras palavras, cilindro é a posição das cabeças sobre as mesmas trilhas de seus respectivos discos.


Geometria de disco
Linhas pretas: Discos
Linhas vermelhas: Trilhas
Linhas azuis: Cilindro
Item amarelo: Setores






Essa geometria básica fornece um modelo para localização do setor, chamado CHS (cylinder, head, sector). O número do cilindro, juntamente com o número da cabeça, fornece a localização da trilha. Identificando-se a trilha, pode-se localizar um determinado setor. Esse esquema é tridimensional, sendo necessário conhecer sempre os três parâmetros para localização do setor.
O padrão LBA (logical block address) é mais simples. Os setores são identificados sequencialmente (linearmente), começando da trilha mais externa. Se houver mais de um prato, cada superfície é numerada (a partir de zero) -- o setor zero é o primeiro setor na trilha zero, cabeça (superfície) zero. Essa é uma identificação unidimensional. Cabe à controladora no disco transformar esse número lógico de setor com a sua localização física no disco (mapeando cilindro, cabeça e setor correspondente).

Qual o significado de interface?

Os HDs são conectados ao computador por meio de interfaces capazes de transmitir os dados entre um e outro de maneira segura e eficiente. Há várias tecnologias para isso, sendo as mais comuns os padrões IDE, SCSI e, atualmente, SATA.

Quais são os tipos de Interfaces?

IDE
O IDE, do inglês Integrated Drive Eletronics, foi o primeiro padrão que integrou a controladora com o Disco Rígido. Os primeiros HDs com interface IDE foram lançados por volta de 1986 e na época isto já foi uma grande inovação porque os cabos utilizados já eram menores e havia menos problema de sincronismo, o que deixava os processos mais rápidos.
http://blogdocanedo.files.wordpress.com/2008/11/ide-conexao-placa-mae.jpgInicialmente, não havia uma definição de padrão e os primeiros dispositivos IDE apresentavam problemas de compatibilidade entre os fabricantes. O ANSI (American National Standards Institute), em 1990, aplicou as devidas correções para padronização e foi criado o padrão ATA (Advanced Technology Attachment). Porém com o nome IDE já estava mais conhecido, ele permaneceu, embora algumas vezes fosse chamado de IDE/ATA.
As primeiras placas tinham apenas uma porta IDE e uma FDD (do drive de disquete) e mais tarde passaram a ter ao menos duas (primária e secundária). Cada uma delas permite a instalação de dois drives, ou seja que podemos instalar até quatro Discos Rígidos ou CD/DVD-ROMs na mesma placa. Para diferenciar os drives instalados na mesma porta, existe um “jumper” para configurá-los como master (mestre) ou slave.
Inicialmente, as interfaces IDE suportavam apenas a conexão de Discos Rígidos e é por isso que há um tempo atrás os computadores ofereciam como diferencial os famosos "kits multimídia", que eram compostos por uma placa de som, CD-ROM, caixinhas e microfone.

Tecnologias

EIDE
Cada interface IDE de uma placa-mãe pode trabalhar com até dois dispositivos simultaneamente, totalizando quatro. Isso é possível graças a EIDE (Enhanced IDE), uma tecnologia que surgiu para aumentar a velocidade de transmissão de dados dos discos rígidos e, claro, permitir a conexão de dois dispositivos em cada IDE.

DMA e UDMA
Antigamente, somente o processador tinha acesso direto aos dados da memória RAM. Com isso, se qualquer outro componente do computador precisasse de algo na memória, teria que fazer este acesso por intermédio do processador. Com os HDs não era diferente e, como consequência, havia certo "desperdício" dos recursos de processamento. Felizmente, uma solução não demorou para aparecer: um esquema chamado DMA (Direct Memory Access). Como o próprio nome diz, esta tecnologia tornou possível o acesso direto à memória pelo HD (e outros dispositivos), sem necessidade de "auxílio" direto do processador.
Quando o DMA não está em uso, normalmente é utilizado um esquema de transferência de dados conhecido como modo PIO (Programmed I/O), onde, grossamente falando, o processador executa a transferência de dados entre o HD e a memória RAM. Cada modo PIO trabalha com uma taxa distinta de transferência de dados.

É importante frisar que os HDs IDE mais recentes trabalham com um padrão conhecido como Ultra-DMA (UDMA). Essa tecnologia permite a transferência de dados em uma taxa de, pelo menos, 33,3 MB/s (megabytes por segundo). O padrão UDMA não funciona se somente for suportada pelo HD. É necessário que a placa-mãe também a suporte (através de seu chipset), caso contrário, o HD trabalhará com uma taxa de transferência mais baixa.
Veja o porquê: existe 4 tipos básicos de Ultra-DMA: UDMA 33, UDMA 66, UDMA 100 e UDMA 133. Os números nestas siglas representam a quantidade de megabytes transferível por segundo. Assim, o UDMA 33 transmite ao computador dados em até 33 MB/s. O UDMA 66 faz o mesmo em até 66 MB/s, e assim por diante. Agora, para exemplificar, imagine que você instalou um HD UDMA 133 em seu computador. No entanto, a placa-mãe só suporta UDMA de 100 MB/s. Isso não significa que seu HD vai ficar inoperante. O que vai acontecer é que seu computador somente trabalhará com o HD na taxa de transferência de até 100 MB/s e não na taxa de 133 MB/s.o UDMA 66 faz o mesmo em até 66 MB/s e assim por diante. Agora, para exemplificar, imagine que você instalou um HD UDMA 133 em seu computador. No entanto, a placa-mãe só suporta UDMA de 100 MB/s. Isso não significa que seu HD vai ficar inoperante. O que vai acontecer é que seu computador somente trabalhará com o HD na taxa de transferência de até 100 MB/s e não na taxa de 133 MB/s.


http://upload.wikimedia.org/wikipedia/commons/e/ef/SATA_Data_Cable.jpgSATA (Serial ATA)

SATA (Serial AT Attachment) é uma tecnologia de transferência de dados entre um computador e dispositivos de armazenamento em massa (mass storage devices) como unidades de disco rígido e drives ópticos.
É o sucessor da tecnologia ATA (acrônimo de AT Attachment, introduzido em 1984 pela IBM em seu computador AT. ATA, também conhecido como IDE ou Integrated Drive Electronics) que foi renomeada para PATA (Parallel ATA) para se diferenciar de SATA.
Diferentemente dos discos rígidos IDE, que transmitem os dados através de cabos de quarenta ou oitenta fios paralelos, o que resulta num cabo enorme, os discos rígidos SATA transferem os dados em série. Os cabos Serial ATA são formados por dois pares de fios (um par para transmissão e outro par para recepção) usando transmissão diferencial, e mais três fios terra, totalizando 7 fios,1 o que permite usar cabos com menor diâmetro que não interferem na ventilação do gabinete.
http://www.socialbits.com.br/public/admin/Portas-SATA.jpgAs principais vantagens sobre a interface parallel ATA são: maior rapidez em transferir os dados, possibilidade de remover ou acrescentar dispositivos enquanto em operação (hot swapping) e utilização de cabos mais finos que permitem o resfriamento de ar de forma mais eficiente.
No que se refere à transferência de dados, a interface SATA pode alcançar taxas máximas teóricas de acordo com o seu tipo:
SATA I: até 150 MB/s;
SATA II: até 300 MB/s;
SATA III: até 600 MB/s.

SCSI (Small Computer System Interface)

Sigla para Small Computer Systems Interface, SCSI é, basicamente, uma tecnologia criada para permitir a comunicação entre dispositivos computacionais de maneira rápida e confiável. Sua aplicação é mais comum em HDs (discos rígidos), embora outros tipos de aparelhos tenham sido lançados tirando proveito desta tecnologia, como impressoras, scanners e unidades de fita (geralmente usadas para backup).
Trata-se de uma tecnologia antiga. Sua chegada ao mercado aconteceu oficialmente em 1986, mas seu desenvolvimento foi iniciado no final da década anterior, tendo o pesquisador Howard Shugart, considerado o criador do floppy disk (disquete), como principal nome por trás do projeto.
Pronunciado como "iscãzi", esta tecnologia se mostrou extremamente importante nos anos seguintes, especialmente porque os processadores passaram a ficar cada vez mais rápidos. Com o SCSI, os HDs e outros dispositivos puderam de certa forma, acompanhar este aumento de velocidade.
A utilização do SCSI sempre foi mais frequente em servidores e aplicações profissionais que, de fato, se beneficiam de maior velocidade. No que se refere ao ambiente doméstico e aos escritórios de modo geral, a interface IDE (atualmente mais conhecida como PATA), que surgiu quase que na mesma época, dominou o mercado por ser menos complexa e mais barata, apesar de oferecer menos recursos.

Resumo das versões do SCSI

A tabela a seguir resume as principais características das versões do SCSI:
Versão
Clock
Bits
Dispositivos
Velocidade
SCSI-1
5 MHz
8
8
5 MB/s
SCSI-2(Fast SCSI)
10 MHz
8
8
10 MB/s
Wide Fast SCSI
10 MHz
16
16
20 MB/s
SCSI-3 (Ultra SCSI)
20 MHz
8
8
20 MB/s
Wide Ultra SCSI
20 MHz
16
16
40 MB/s
Ultra2 SCSI
40 MHz
8
8
40 MB/s
Wide Ultra2 SCSI
40 MHz
16
16
80 MB/s
Ultra160 SCSI
40 MHz
16 (2x)
16
160 MB/s
Ultra320 SCSI
80 MHz
16 (2x)
16
320 MB/s
Ultra640 SCSI
160 MHz
16 (2x)
16
640 MB/s

Desempenho

O desempenho do HD é um fator que influencia muito no desempenho global do sistema, determinando o tempo de carregamento dos aplicativos e arquivos grandes, e até mesmo a velocidade de acesso ao arquivo de troca. Para ser carregado um programa ou acessado qualquer outro dado, é preciso primeiramente transferi-lo do disco rígido para a memória. Pouco adianta ter um processador ou memórias ultrarrápidos, se a todo o momento eles tiverem que esperar por dados a serem transmitidos pelo disco rígido. Depois da quantidade de memória RAM e cache, o disco Rígido é talvez o componente que mais afeta o desempenho do micro, rivalizando até mesmo com o processador.

As diferentes marcas e modelos de HDs que existem à venda no mercado apresentam desempenhos bem diferentes uns dos outros. Não é fácil medir o desempenho de um disco rígido, pois o desempenho do disco é determinado por um conjunto de vários itens e não é nada fácil tentar resumi-lo a um único número.

Tempo de Busca (Seek Time)
Este é um fator importante na performance geral do disco, pois é o tempo que a cabeça de leitura demora para ir de uma trilha à outra do disco. Este tempo é um pouco difícil de determinar com exatidão, pois o tempo que a cabeça demora em ir da trilha 50 à trilha 100, deslocando-se 50 trilhas, por exemplo, não é 5 vezes maior que o demorado para ir da trilha 50 à trilha 60, deslocando-se 10 trilhas.
Estes valores variam em cada marca e modelo de disco rígido, mas quanto menores forem os tempos, melhor será a performance.

Tempo de Latência (Latency Time)
Dentro do disco rígido, os discos magnéticos giram continuamente. Por isso, dificilmente os setores a serem lidos estarão sob a cabeça de leitura/gravação no exato momento de executar a operação, podendo, no pior dos casos, ser necessária uma volta completa do disco até o setor desejado passar novamente sob a cabeça de leitura.
O tempo de latência é tão importante quanto o tempo de busca. Felizmente, ele é fácil de ser calculado, bastando dividir 60 pela velocidade de rotação do HD, medida em RPM (rotações por minuto), e multiplicar por 1000. Teremos então o tempo de latência em milessegundos. Um HD de 5200 RPM, por exemplo, terá um tempo de latência de 11.5 milessegundos (o tempo de uma rotação), já que 60 ÷ 5200 x 1000 = 11.5
Geralmente é usado o tempo médio de latência, que corresponde à metade de uma rotação do disco, assumindo que os clusters desejados estarão, em média, a meio caminho do cabeçote. Um HD de 5200 RMP teria um tempo de latência médio de 5.75 milessegundos.

Tempo de Acesso (Access Time)
 O tempo de acesso é o tempo médio que o disco demora em acessar um setor localizado em um local aleatório do disco. Este tempo é um misto do tempo de busca e do tempo de latência do disco rígido, significando o tempo que o braço de leitura demora em chegar a uma determinada trilha, somado com o tempo que o disco demora em girar e chegar ao setor certo. O tempo de acesso nos HDs mais modernos gira em torno de 10 a 7 milessegundos (quanto mais baixo melhor).

Head Switch Time
Um disco rígido é composto internamente de vários discos. Naturalmente, temos uma cabeça de leitura para cada disco, sendo os dados gravados distribuídos entre eles.
Como as cabeças de leitura são fixas, caso seja necessário ler dois arquivos, um encontrado na face 1 e outro na face 3, por exemplo, a controladora ativará a cabeça de leitura responsável pela face 1, lerá o primeiro arquivo e, em seguida, ativará a cabeça responsável pela face 3, lendo o segundo arquivo. O termo "Head Switch Time" pode ser traduzido como "tempo de mudança entre as cabeças de leitura", por ser justamente o tempo que o disco leva para mudar a leitura de uma cabeça para outra. Este tempo é relativamente pequeno e não influencia tanto quanto o tempo de acesso e a densidade.

Cache (Buffer)
Os discos rígidos atuais possuem uma pequena quantidade de memória cache embutida na controladora, que executa várias funções com o objetivo de melhorar o desempenho do disco rígido.
Geralmente ao ler um arquivo, serão lidos vários setores sequenciais. A forma mais rápida de fazer isso é naturalmente fazer com que a cabeça de leitura leia de uma vez todos os setores da trilha, passe para a próxima trilha seguinte, passe para a próxima e assim por diante. Isso permite obter o melhor desempenho possível.
O problema é que na prática não é assim que funciona. O sistema pede o primeiro setor do arquivo e só solicita o próximo depois de recebê-lo e certificar-se de que não existem erros.
Se não houvesse nenhum tipo de buffer, a cabeça de leitura do HD acabaria tendo que passar várias vezes sobre a mesma trilha, lendo um setor a cada passagem, já que não daria tempo de ler os setores sequencialmente depois de todo tempo perdido antes de cada novo pedido.
Após fazer sua verificação de rotina, o sistema solicitará o próximo setor, que por já estar carregado no cache será fornecido em tempo recorde.
No cache ficam armazenados também últimos dados acessados pelo processador, permitindo que um dado solicitado repetidamente possa ser retransmitido a partir do cache, dispensando uma nova e lenta leitura dos dados pelas cabeças de leitura. Este sistema é capaz de melhorar assustadoramente a velocidade de acesso aos dados quando estes forem repetitivos, o que acontece com frequência em servidores de rede ou quando é usada memória virtual.
Os dados lidos pelas cabeças de leitura, originalmente são gravados no cache, e a partir dele, transmitidos através da interface IDE ou SCSI. Caso a interface esteja momentaneamente congestionada, os dados são acumulados no cache e, em seguida, transmitidos de uma vez quando a interface fica livre, evitando qualquer perda de tempo durante a leitura dos dados. Apesar do seu tamanho reduzido, geralmente de 512 ou 1024 Kbytes, o cache consegue acelerar bastante as operações de leitura de dados.
Temos três opções de performance onde reservam uma pequena área da memória RAM para criar um segundo nível de cache de disco:
Sistema móvel ou de encaixe: Usa-se apenas 256 KB da memória RAM para o cache de disco, e é recomendável para micros com apenas 8 MB de memória.
Computador Desktop: É o valor defaut e reserva 1 MB para o cache de disco, sendo a ideal para micros com 12 ou 16 MB de memória.
Servidor de rede: Reserva 2 MB. Esta opção melhora perceptivelmente a velocidade de acesso a disco em micros com 24 MB ou mais de memória RAM.

Densidade
A densidade dos platers de um disco rígido é outro fator com enorme impacto no desempenho. Quanto maior for à densidade, menor será o espaço a ser percorrido pela cabeça de leitura para localizar um determinado setor, pois os dados estarão mais próximos uns dos outros. A densidade pode ser calculada muito facilmente, bastando dividir a capacidade total do disco pela quantidade de cabeças de leitura (e consequentemente o número de faces de disco).
Um disco rígido de 4 Gigabytes e 4 cabeças de leitura, possui uma densidade de 1 Gigabyte por face de disco, enquanto que outro disco, também de 4 Gigabytes, porém com 6 cabeças de leitura, possui uma densidade bem menor, de apenas 666 Megabytes por face de disco.
A densidade influencia diretamente nos tempos de acesso e de latência do HD, além disso, com um número menor de cabeças de leitura, o tempo perdido com o Head Switch também é menor. Muitas vezes encontramos no mercado HDs de mesma capacidade, porém, com densidades diferentes. Neste caso, quase sempre o HD com maior densidade utilizará tecnologias mais recentes, sendo por isso mais rápido.

Velocidade da Interface
A interface determina a velocidade máxima de transferência, mas não necessariamente a performance do disco rígido. Em geral, a interface é sempre muito mais rápida do que a taxa de transferência interna alcançada pelo HD. Porém, em muitas situações, a interface IDE fica momentaneamente congestionada, deixando de transmitir dados. Nestas situações os dados são acumulados no buffer do HD e, em seguida, transmitidos de uma vez quando a interface fica livre.
Isto pode ocorrer em duas situações: quando temos dois discos instalados na mesma porta IDE e os dois discos são acessados simultaneamente, ou quando o barramento PCI fica congestionado (já que as portas IDE compartilham os 133 MB/s com todos os demais periféricos PCI instalados).
Nestas situações, ter uma interface mais rápida irá permitir que os dados armazenados no cache sejam transferidos mais rápido. Porém, em situações normais, o desempenho ficará limitado à taxa de transferência interna do HD, que mesmo no caso de um HD topo de linha, lendo setores sequenciais, dificilmente chega perto de 20 MB/s
O simples fato de passar a usar DMA 66 no lugar de UDMA 33, não irá alterar quase nada o desempenho do disco em aplicações reais, pelo menos enquanto não tivermos HDs capazes de manter taxas de transferência internas próximas de 30 MB/s, o que provavelmente só deve acontecer por volta de 2002. O UDMA 66 veio com o objetivo de ampliar o limite de transferência das interfaces IDE, abrindo caminho para o futuro lançamento de HDs muito mais rápidos, que possam trabalhar sem limitações por parte da interface, mas não é de se esperar que um velho HD de 6.4 ou algo parecido, fique mais rápido só por causa da interface mais rápida. Não adianta melhorar a qualidade da estrada se o carro não anda.







REFERÊNCIAS

Disponível em:
<http://dicasmaistutoriais.blogspot.com.br/2010/05/para-que-serve-o-hd-disco-rigido.html > Acessado em 24 de maio de 2013.
Disponível em: < http://www.techtudo.com.br/artigos/noticia/2012/03/para-que-serve-o-hd.html > Acessado em 24 de maio de 2013.
Disponível em: < http://pt.wikipedia.org/wiki/Disco_r%C3%ADgido > Acessado em 24 de maio de 2013.
Disponível em: < http://www.hardware.com.br/termos/disco-rigido > Acessado em 24 de maio de 2013.
Disponível em: < http://www.tecmundo.com.br/aumentar-desempenho/3469-como-funciona-um-disco-rigido-.htm > Acessado em 24 de maio de 2013.
Disponível em: < http://www.hardware.com.br/livros/hardware-manual/como-funciona-disco-rigido.html > Acessado em 24 de maio de 2013.
Disponível em: < http://pt.wikipedia.org/wiki/NTFS > Acessado em 24 de maio de 2013.
Disponível em: < http://www.hardware.com.br/termos/disco-rigido > Acessado em 24 de maio de 2013.
Disponível em: < http://www.hardware.com.br/livros/hardware-manual/pio-udma-udma-udma-100.html> Acessado em 24 de maio de 2013.
Disponível em: < http://www.infowester.com/scsi.php > Acessado em 24 de maio de 2013.

Disponível em: < http://pt.wikipedia.org/wiki/SCSI> Acessado em 24 de maio de 2013.

Disponível em: < http://pt.wikipedia.org/wiki/Serial_ATA > Acessado em 24 de maio de 2013.

Disponível em: < http://comp.ist.utl.pt/ec-csc/Acetatos/1-Cifra/1BE-SmartCards.pdf > Acessado em 24 de maio de 2013.

 Alunos: Vinicius Neves, ....

Nenhum comentário:

Postar um comentário