Disque dur

Un disque dur est une mémoire de masse magnétique utilisée principalement dans les ordinateurs, mais également dans des baladeurs numériques, des caméscopes, des lecteurs/enregistreurs de DVD de salon, des consoles de jeux vidéo, des assistants numériques personnels et des téléphones mobiles.

 

Les ingénieurs d'IBM n'étaient pas satisfaits des systèmes de stockage sur tambours magnétiques : l'efficacité volumétrique était très faible, les tambours occupaient beaucoup d'espace pour peu de capacité. En 1953, un ingénieur récemment embauché eut l'idée de superposer des plateaux le long d'un axe et d'y adjoindre une tête de lecture/écriture mobile, située sur un axe parallèle à celui des plateaux. Cette tête venait s'insérer entre les plateaux pour lire les informations, mais devait se retirer complètement pour passer d'un plateau à un autre. Un prototype fut construit avec une vitesse de rotation de 1 200 tours/minute et avait un débit de transfert de 8.8 Ko/s. À cette vitesse de rotation, il était compliqué de maintenir les têtes au-dessus de la surface des plateaux. L'idée fut alors d'injecter de l'air sous pression au travers de la tête de lecture, ce qui la maintenait au-dessus du plateau. La distance tête-plateau était de 20 μm.

En 1956, le premier système de ce type, le RAMAC (Random Access Method of Accounting and Control) modèle 305, a été dévoilé au public par IBM. La production commerciale commença en juin 1957. Jusqu'en 1961, plus d'un millier d'unités furent vendues. Son prix : 10 000 dollars (de l'époque) par mégaoctet.

Le RAMAC 305 était constitué de 50 disques de 24 pouces de diamètre, deux têtes de lecture/écriture qui pouvaient se déplacer d'un plateau à un autre en moins d'une seconde. La capacité totale était de cinq millions de caractères.

Le RAMAC avait déjà un concurrent : le Univac File Computer, composé de 10 tambours magnétiques chacun d'une capacité de 180 000 caractères. Bien que ce dernier ait eu une vitesse supérieure, c'est le RAMAC, qui pouvait stocker trois fois plus d'informations, qui avait le rapport coût/performance le plus intéressant pour le plus grand nombre d'applications.

En juin 1954, J. J. Hagopian, ingénieur IBM, a l'idée de faire « voler » les têtes de lecture/écriture au-dessus de la surface des plateaux, sur un coussin d'air. Il propose le design de la forme de ces têtes. En septembre 1954, il dessine l'équivalent des disques durs actuels : des plateaux superposés et un axe sur lequel sont fixées les têtes de lecture/écriture. Cela deviendra un produit commercial en 1961 sous la dénomination « IBM 1301 Disk Storage ».

Fin 1969, trois ingénieurs réfléchissent à ce qui pourrait être pour eux le système disque idéal. Ils tombent d'accord sur un modèle composé de deux disques de 30 Mo chacun, l'un amovible, l'autre fixe. On le nomme « 30 - 30 », nom qui est aussi un modèle de carabine Winchester. Le nom est resté, et encore aujourd'hui un disque Winchester désigne un disque dur non amovible (soit quasiment tous les disques produits aujourd'hui).

En 1998, année où l'on commémorait le centenaire de l'enregistrement magnétique (inventé par le Danois Valdemar Poulsen), IBM commercialisa le premier disque dur de 25 gigaoctets (Deskstar 25 GP), capacité présentée à l'époque par la presse comme disproportionnée par rapport aux besoins réels des particuliers. En 50 ans, la capacité des disques durs a été multipliée par un facteur de 1 000 000 puisqu'un disque dur de 2009 peut atteindre 2 To.

Plus de 3,5 millions de téra-octets sont stockés chaque année sur des périphériques de stockage de masse de type disques durs magnétiques1. La surface occupée par un bit d’information sur le disque s’est vue réduite d'un facteur 100 000 en trente ans de recherches et d'innovations, améliorant fondamentalement les capacités de stockage, les temps d'accès, l'encombrement et le coût de stockage.

En 29 ans, le prix du mégaoctet a été divisé par 1,3 million. Le constructeur Seagate a par exemple livré son premier disque dur en 1979. Baptisé ST-506, il pouvait stocker 5 Mo de données et coûtait à l'époque 1 500 dollars, soit 300 dollars par mégaoctet. En 2008, alors que ce constructeur en est à son milliardième disque dur livré, le mégaoctet d'un disque dur ne coûte plus que 0,00022 dollar, soit un cinquantième de cent environ2.

Le disque dur a remplacé efficacement dans les années 1970 les tambours (aujourd'hui obsolètes) et les bandes, reléguant peu à peu ces dernières à de simples supports d'archivage et de sauvegarde dans les années 1990. Dans les années 2000, il se met à concurrencer ces dernières en raison de la baisse de son coût au gigaoctet et de sa plus grande commodité d'accès ; vers la fin de cette même décennie, il commence à être remplacé lui-même comme mémoire de masse, pour les petites capacités (4 à 32 Go), par des stockages à mémoire flash qui, bien que plus onéreux, n'imposent pas le délai de latence dû à la rotation des plateaux.

Les disques durs ont été développés à l'origine pour les ordinateurs. Tout d'abord en attachement local, ils peuvent être aujourd'hui organisés en réseaux (NAS et SAN) de capacité et de fiabilité croissantes. Les disques durs font l'objet de multiples usages au-delà des ordinateurs, on peut les retrouver notamment dans des caméscopes, des lecteurs/enregistreurs de DVD de salon, des consoles de jeux vidéo, des assistants numériques personnels et des téléphones mobiles.

 

 

Dans un disque dur, on trouve des plateaux rigides en rotation. Chaque plateau est constitué d'un disque réalisé généralement en aluminium, qui a les avantages d'être léger, facilement usinable et non magnétique. Des technologies plus récentes utilisent le verre ou la céramique, qui permettent des états de surface encore meilleurs que ceux de l'aluminium. Les faces de ces plateaux sont recouvertes d'une couche magnétique, sur laquelle sont stockées les données. Ces données sont écrites en code binaire [0,1] sur le disque grâce à une tête de lecture/écriture, petite antenne très proche du matériau magnétique. Suivant le flux électrique qui la traverse, cette tête modifie le champ magnétique local pour écrire soit un 1, soit un 0, à la surface du disque. Pour lire, c'est le même principe qui est utilisé, mais dans l'autre sens : le champ magnétique local engendre au sein de la tête un flux électrique qui dépend de la valeur précédemment écrite, on peut ainsi lire un 1 ou un 0.

Un disque dur typique contient un axe central autour duquel les plateaux tournent à une vitesse de rotation constante. Les têtes de lecture/écriture sont reliées à une même armature qui se déplace à la surface des plateaux, avec une tête par plateau. L'armature déplace les têtes radialement à travers les plateaux pendant qu'ils tournent, permettant ainsi d'accéder à la totalité de leur surface.

L'électronique associée contrôle le mouvement de l'armature ainsi que la rotation des plateaux, et réalise les lectures et les écritures suivant les requêtes émises par le contrôleur du disque. Les firmwares des disques durs récents sont capables d'organiser les requêtes de manière à minimiser le temps d'accès aux données, et donc à maximiser les performances du disque

 

 

Les plateaux sont solidaires d'un axe sur roulements à billes ou à huile. Cet axe est maintenu en mouvement par un moteur électrique. La vitesse de rotation est actuellement (2009) comprise entre 3 600 et 15 000 tours/minute (l'échelle typique des vitesses est 3 600, 4 200, 5 400, 7 200, 10 000 et 15 000 tours/minute). La vitesse de rotation est maintenue constante.

Les plateaux sont composés d'un substrat, autrefois en aluminium (ou en zinc), de plus en plus souvent en verre, traités par diverses couches dont une ferromagnétique recouverte d'une couche de protection. L'état de surface doit être le meilleur possible.

 

 

Fixées au bout d'un bras, elles sont solidaires d'un second axe qui permet de les faire pivoter en arc de cercle sur la surface des plateaux. Toutes les têtes pivotent donc en même temps. Il y a une tête par surface. Leur géométrie leur permet de voler au-dessus de la surface du plateau sans le toucher : elles reposent sur un coussin d'air créé par la rotation des plateaux. En 1997, les têtes volaient à 25 nanomètres de la surface des plateaux, aujourd'hui (2006) cette valeur est d'environ 10 nanomètres.

Le moteur qui les entraîne doit être capable de fournir des accélérations et décélérations très fortes. Un des algorithmes de contrôle des mouvements du bras porte-tête est d'accélérer au maximum puis de freiner au maximum pour que la tête se positionne sur le bon cylindre. Il faudra ensuite attendre un court instant pour que les vibrations engendrées par le freinage s'estompent.

À l'arrêt, les têtes doivent être parquées, soit sur une zone spéciale (la plus proche du centre, il n'y a alors pas de données à cet endroit), soit en dehors des plateaux.

Si une ou plusieurs têtes entrent en contact avec la surface des plateaux, cela s'appelle un atterrissage et provoque le plus souvent la destruction des informations situées à cet endroit. Une imperfection sur la surface telle qu'une poussière aura le même effet. La mécanique des disques durs est donc assemblée en salle blanche et toutes les précautions (joints, etc.) sont prises pour qu'aucune impureté ne puisse pénétrer à l'intérieur du boîtier (appelé « HDA » pour Head Disk Assembly en anglais).

Les technologies pour la conception des têtes sont (en 2006) :
Tête inductive ;
Tête MR - MagnétoRésistive ;
Tête GMR - Giant MagnétoRésistive.

 

 

Elle est composée d'une partie dédiée à l'asservissement des moteurs et d'une autre à l'exploitation des informations électriques issues de l'interaction électromagnétique entre les têtes de lecture et les surfaces des plateaux. Une partie plus informatique va faire l'interface avec l'extérieur et la traduction de l'adresse absolue d'un bloc en coordonnées à 3 dimensions (tête, cylindre, bloc).

L'électronique permet aussi de corriger les erreurs.

 

 

Un contrôleur de disque est l'ensemble électronique qui est connecté directement à la mécanique d'un disque dur. La mission de cet ensemble est de piloter les moteurs de rotation et de déplacement des têtes de lecture/enregistrement, ainsi que d'interpréter les signaux électriques reçus de ces têtes afin de les convertir en bits ou réaliser l'opération inverse afin d'enregistrer des données à un emplacement particulier de la surface des disques composant le disque dur.

Sur les premiers disques durs, comme par exemple le ST-506, ces fonctions étaient réalisées par une carte électronique indépendante de l'ensemble mécanique. Le volumineux câblage d'interconnexion a rapidement favorisé la recherche d'une solution plus compacte : le contrôleur de disque se trouva alors accolé au disque, donnant naissance aux standards SCSI et IDE.

L'appellation « Contrôleur de disque » est souvent employée par erreur en remplacement de « Contrôleur ATA » ou « Contrôleur SCSI ». En effet un contrôleur de disque pilote juste la partie mécanique d'un disque dur, pendant que les autres pilotent des périphériques variés : disque dur bien sûr mais aussi lecteur de CD, dérouleur de bande magnétique, scanner, etc.

 

 

Elle s'effectuait en général par un connecteur Molex. Les disques durs Serial ATA utilisent parfois le connecteur molex mais elles sont remplacées par une prise longue et plate.

 

 

En adressage CHS, il faut donc trois coordonnées pour accéder à un bloc (ou secteur) de disque :
le numéro de la tête de lecture (choix de la surface) ;
le numéro de la piste (détermine la position du bras portant l'ensemble des têtes) ;
le numéro du bloc (ou secteur) sur cette piste (détermine à partir de quel endroit il faut commencer à lire les données).

Cette conversion est faite le plus souvent par le contrôleur du disque à partir d'une adresse absolue de bloc appelée LBA (un numéro compris entre 0 et le nombre total de blocs du disque diminué de 1).

Puisque la vitesse de rotation du disque est constante les pistes extérieures ont une plus grande longueur que les pistes intérieures (leur circonférence est plus grande). Sur les premiers disques durs (ST-506 par exemple) le nombre de secteurs par rotation était indépendant du numéro de piste (donc les information étaient stockées avec une densité spatiale variable selon la piste). Depuis les années 1990 et la généralisation du zone bit recording, la densité d'enregistrement est devenue constante, avec une variation du nombre de secteurs selon la piste.

Sur les premiers disques, une surface était formatée en usine et contenait les informations permettant au système de se synchroniser (de savoir quelle était la position des têtes à tout moment). Cette surface était dénommée « servo ». Par la suite, ces zones de synchronisation ont été insérées entre les blocs de données, mais elles sont toujours formatées en usine (dans la norme SCSI il existe une commande FORMAT qui réenregistre intégralement toutes les informations de toutes les surfaces, elle n'est pas nécessairement mise en œuvre sur tous les disques). Typiquement donc, on trouvera sur chaque piste une succession de :
un petit espace « blanc » (« gap » en anglais) : il laisse à la logique du contrôleur de disque une zone inutilisée de cette piste du disque pendant le temps nécessaire au basculement du mode lecture au mode écriture et inversement (cela permet également de compenser de légères dérives de la vitesse de rotation des surfaces de disque) ;
une zone servo : elle contient des « tops » permettant de synchroniser la logique du contrôleur de disque avec les données qui vont défiler sous la tête de lecture juste après ;
un en-tête contenant le numéro du bloc qui va suivre : il permet au contrôleur du disque de déterminer le numéro de secteur que la tête le lecture va lire juste après (et par là de déterminer également si le bras portant les têtes est positionné sur la bonne piste) ;
les données : ce qui est véritablement stocké par l'utilisateur du disque ;
une somme de contrôle permettant de détecter/corriger des erreurs : cela fournit également un moyen de mesurer le vieillissement du disque dur (il perd petit à petit de sa fiabilité).

 

 

Les interfaces des disques durs ont largement évolué avec le temps dans un souci de simplicité et d'augmentation des performances. Voici quelques interfaces possibles :
Storage Module Device (SMD), très utilisée dans les années 1980, elle était principalement réservée pour les disques de grande capacité installés sur des serveurs ;
SA-1000 un bus utilisé en micro informatique, d'où le ST-506 est dérivé ;
ST-506, très utilisée au début de la micro-informatique dans les années 1980 ;
ESDI (Enhanced Small Device Interface), a succédé au ST-506, qu'elle améliore ;
L'interface IDE (ou PATA par opposition au SATA, voir plus loin), la plus courante dans les machines personnelles jusqu'à 2005, appelée aussi ATA (AT ATACHMENT), à ne pas confondre avec S-ATA, cette dernière l'ayant remplacée ;
SCSI (Small Computer System Interface), plus chère, mais offrant des performances supérieures. Toujours utilisée et améliorée (passage de 8 à 16 bits notamment, et augmentation de la vitesse de transfert, normes SCSI-1, SCSI-2, SCSI-3) ;
SAS (Serial Attached SCSI), combine les avantages du SCSI avec ceux du Serial ATA (elle est compatible avec cette dernière) ;
Serial ATA (ou S-ATA), est une interface série, peu coûteuse et plus rapide qu'ATA (normes SATA et SATA II), c'est la plus courante désormais (2008) ;
Fibre-Channel (FC-AL), est un successeur du SCSI. La liaison est série et peut utiliser une connectique fibre optique ou cuivre. Principalement utilisée sur les serveurs.

 

 

La capacité d'un disque dur peut être calculée ainsi : nombre de cylindres * nombre de têtes * nombre de secteurs par piste * nombre d'octets par secteur (généralement 512).

Cependant les nombre de cylindres, têtes et secteurs sont fausses pour les disques utilisant le zone bit recording (enregistrement à densité constante), ou la translation d'adresses LBA. Sur les disques ATA de taille supérieure à 8 Go, les valeurs sont fixées à 255 têtes, 63 secteurs et un nombre de cylindres dépendant de la capacité réelle du disque afin de maintenir la compatibilité avec les systèmes d'exploitation plus anciens.

Par exemple avec un disque dur S-ATA Hitachi de fin 2005 : 63 secteurs * 255 têtes * 10 011 cylindres * 512 octets/secteur = 82 343 278 080 octets soit 76,688 Gio (ou 82,343 Go).

 

 

Le temps d'accès et le débit d'un disque dur permettent d'en mesurer les performances. Les facteurs principaux à prendre en compte sont :
le temps de latence, facteur de la vitesse de rotation des plateaux. Le temps de latence (en secondes) est égal à 60 divisé par la vitesse de rotation en tours par minute. Le temps de latence moyen est égal au temps de latence divisé par 2 (car on estime que statistiquement les données sont à un demi-tour près des têtes). Dans les premiers disques durs, jusqu'en 1970, le temps de latence était d'un tour : on devait en effet attendre que se présente la home address, rayon origine (1/2 tour) devant les têtes, puis on cherchait le ou les secteurs concernés à partir de cette home address (1/2 tour). IBM munit des disques 3033 d'une piste fixe entière destinée à l'adressage, et qui éliminait le besoin de home address.
le temps de recherche, ou seek time en anglais, est le temps que met la tête pour se déplacer jusqu'au cylindre choisi. C'est une moyenne entre le temps piste à piste, et le plus long possible (full-stroke).
le temps de transfert est le temps que vont mettre les données à être transférées entre le disque dur et l'ordinateur par le biais de son interface.

Pour estimer le temps de transfert total, on additionne ces trois temps. On pourra rajouter le temps de réponse du contrôleur, etc. Il faut souvent faire attention aux spécifications des constructeurs, ceux-ci auront tendance à communiquer les valeurs de pointe au lieu des valeurs soutenues (par exemple pour les débits).

Voici deux disques comparés. Le premier, le DEC RP07 équipait les ordinateurs DEC des années 1970-80, tandis que le Maxtor est un disque de 3,5 pouces récent (2004). Ils peuvent tous les deux être considérés comme des disques haut de gamme au moment de leur mise sur le marché.

 

 

L'ajout de mémoire vive sur le contrôleur du disque permet d'augmenter les performances. Cette mémoire sera remplie par les blocs qui suivent le bloc demandé, en espérant que l'accès aux données sera séquentiel. En écriture, le disque peut informer l'hôte qui a initié le transfert que celui-ci est terminé alors que les données ne sont pas encore écrites sur le média lui-même. Comme tout système de cache, cela pose un problème de cohérence des données.

 

 

Les anciens disques durs utilisant l'interface MFM, comme par exemple le Maxtor XT-2190, disposaient d’une étiquette permettant de répertorier les secteurs défectueux. Lors du formatage et donc, en vue d’une préparation à l’utilisation, il était nécessaire de saisir manuellement cette liste de secteurs défectueux afin que le système d’exploitation n’y accède pas. Cette liste n’était pas forcément vierge au moment de l’achat. En général, lorsque l’étiquette était totalement remplie, il devenait urgent de changer le disque dur.

Avec le temps, les contrôleurs ont pris en charge matériellement les secteurs défectueux. Une zone du disque dur est réservée à la ré-allocation des secteurs déjà défectueux ou le devenant. Les performances s’en trouvent réduite, mais le nombre de secteurs est tellement faible, que cela passe totalement inaperçu.

Cependant, l’usure de la couche magnétique, importante sur les premiers disques durs mais très réduite aujourd’hui, peut causer la perte de secteurs de données. Ainsi, la récupération des secteurs défectueux sur les anciennes générations de disques durs était un vrai casse-tête pour les techniciens. Il fallait parfois des heures pour récupérer seulement quelques secteurs devenus illisibles avec le temps… Quand cela était possible.

Aujourd’hui (2008), le contrôleur embarqué gère la récupération des secteurs défectueux de façon transparente pour l’utilisateur, mais l’informe de son état avec le SMART (Self-Monitoring, Analysis and Reporting Technology). Attention cependant, dans la grande majorité des cas, le contrôleur ne tente pas une récupération des nouveaux secteurs défectueux, mais les marque simplement. Ils seront ré-alloués au prochain formatage bas-niveau par des secteurs de remplacement parfaitement lisibles. Cependant, suivant le contrôleur et l'algorithme utilisé, la ré-allocation a lieu pendant le fonctionnement. Il n'est pas possible de connaître précisément le fonctionnement de la gestion des secteurs défectueux, les fabricants ne communiquent pas ce type d'informations.

 

 

Les dimensions des disques durs sont normalisées :
19 pouces pour les anciens disques (à interface SMD) ;
8 pouces : génération suivante, permettant de mettre deux disques sur une largeur de baie ;
5,25 pouces : format apparu dans les années 1980, on le trouve aussi en demi-hauteur ;
3,5 pouces est la taille standard depuis de nombreuses années jusqu'à ce jour (2010) ;
2,5 pouces pour les ordinateurs portables à l'origine et installé sur certains serveurs depuis 2006 ;
1,8 pouce pour les baladeurs numériques, les ordinateurs ultraportables, certains disques durs externes.

De plus petits disques existent mais entrent dans la catégorie des microdrives, avec une taille de 1 pouce.

Les formats normalisés précédents sont définis d'après la taille des plateaux. Il existe aussi une normalisation de la taille des boîtiers pour permettre aux disques durs de tous les manufacturiers de s'insérer dans tous les ordinateurs.

 

 

Le microdrive a été créé par IBM. Il a été développé puis commercialisé en 1999 pour répondre aux besoins des baladeurs numériques et surtout de la photographie numérique.

Le microdrive a les dimensions d'une carte mémoire CompactFlash (CF type 2) et est utilisé de la même manière. Sa capacité varie de 170 Mo à 8 Go. Ce disque a une capacité supérieure à une carte mémoire, mais est plus cher (mécanique de précision avec systèmes antichocs), plus fragile et consomme davantage d'électricité à cause de son micromoteur.

Ce disque est principalement utilisé dans les appareils photos professionnels et dans certains lecteurs MP3 en raison de sa capacité importante.

Depuis environ 2007, ce type de disque dur est en concurrence frontale avec les mémoire flash, qui sont moins sensibles aux chocs, car faites d'électronique pure, et dont le prix diminue sans cesse.

 

 

C'est un artifice qui permet d'émuler un disque dur à partir d'un espace alloué en mémoire centrale. Sa création, son effacement et son accès se font par le biais d'appels systèmes (le noyau peut contenir des pilotes adéquats). Les temps d'accès sont extrêmement rapides ; en revanche, par construction, leur capacité ne peut excéder la taille de la mémoire centrale.

Les données étant perdues si la mémoire n'est plus alimentée électriquement, on les utilise en général pour des fichiers en lecture seule, copies de données sur disque, ou pour des fichiers intermédiaires dont la perte importe peu, par exemple pour
le rangement de données très souvent consultées (par exemples fichiers .h en langage C) ;
le rangement de fichiers intermédiaires de compilation (sous Linux, fichiers .o).

 

 

Un SSD (pour Solid State Drive) a extérieurement l'apparence d'un disque dur classique, y compris l'interface, mais est constitué de plusieurs puces de mémoire flash et ne contient aucun élément mécanique.

Par rapport à un disque dur, les temps d'accès sont très rapides pour une consommation généralement inférieure3, mais lors de leur introduction, leur capacité était encore limitée à 512 Mo. En 2009, on trouve des modèles de 128 Go à des prix d'environ 350 $ ce qui reste nettement plus cher qu'un disque dur.

Depuis 2008, on voit la commercialisation de portables (généralement des ultra portables) équipés de SSD à la place du disque dur, par la plupart des grands constructeurs (Apple, Sony, Dell, Fujitsu, Toshiba...).

 

 

A mi-chemin entre le disque dur et le SSD, les disques durs hybrides sont des disques magnétiques classiques accompagnés d'un petit module de mémoire Flash.

Développé en priorité pour les portables, l'avantage de ces disques est de réduire la consommation d'énergie, d'augmenter la vitesse de démarrage et d'augmenter la durée de vie du disque dur.

Lorsqu’un ordinateur portable équipé d’un disque hybride a besoin de stocker des données, en fait, il les range temporairement dans la mémoire flash ce qui évite aux pièces mécaniques de se mettre en route.

L'utilisation de la mémoire Flash devrait permettre d'améliorer de 20 % les chargements et le temps de démarrage des PC. Les PC portables devraient eux profiter d'une augmentation d'autonomie de 5 à 15 %, ce qui pourrait se traduire par un gain de 30 minutes sur les dernières générations de PC portables.

 

 

Les disques durs ayant les capacités les plus importantes sur le marché dépassent les 3 To (téra-octets) (2010). La capacité des disques durs a augmenté beaucoup plus vite que leur rapidité, limitée par la mécanique. Le standard 2009 est de 1 To pour les PC de bureau (à partir de 0,1 € par Go en août 2008) et de 500 Go pour les PC portables. Le standard 1997 était de 2,0 Go pour les disques dur de 3,5 pouces.

 

 

Le nombre de fabricants de disques durs est assez limité de nos jours, en raison de divers rachats ou fusions d'entreprises, voire l'abandon par certaines entreprises de cette activité. Les fabricants sont :
Cornice ;
ExcelStor ;
Fujitsu ;
GS-Magic ;
Hitachi GST ;
Samsung ;
Seagate ;
Toshiba ;
Western Digital.

Les fabricants historiques sont :
Bull périphériques ;
CDC (Imprimis) ;
Conner Peripherals ;
Hewlett-Packard ;
IBM ;
Maxtor ;
Micropolis ;
NEC ;
Quantum ;
Storage Technology ;
Tandem ;
Univac.

Créer un site gratuit avec e-monsite - Signaler un contenu illicite sur ce site