Bewertung: 2 / 5

Stern aktivStern aktivStern inaktivStern inaktivStern inaktiv
 

Mit Festplatten bezeichnet man Datenträger für den Computer, auf die ähnlich einer CD oder einer Diskette Daten abgelegt werden können und die auch nach dem ausschalten erhalten bleiben. Im Gegensatz zur CD oder gar zu den Disketten fasst eine Festplatte deutlich mehr Daten und es kann viel schneller vom Computer darauf zugegriffen werden. Natürlich ist eine Festplatte auch mehrfach beschreibbar.

 

Heute sind Festplatten eines der wichtigsten Bestandteile in einem Computer. Ohne Festplatte läuft heute gar nichts mehr. Darauf werden neben dem Betriebssystem alle Programme und natürlich auch die Daten abgespeichert.
Festplatten werden heute nicht nur in Computern sondern auch in digitalen Fotoapparaten und Kameras, Handys, MP3 Playern und PDA's eingebaut.

Wie alles begann …

Zu Zeiten der Rechnerentwicklung gab es zuerst überhaupt keine Datenspeicher. Man gab einem Rechner meist über Kippschalter vor was er tun soll und dieser gab die Lösung über verschiedene Lampen aus. Fertig. Schnell erkannte man aber, dass damit nicht viel zu machen ist. Möchte man z.B. die errechneten Zahlen weiterverarbeiten, müssen diese irgendwie gespeichert werden. Anfangs mussten die Werte von Hand auf ein Stück Papier geschrieben werden und wurden so "gespeichert". Der erste Schritt zur automatischen Speicherung von Daten realisierte man mit Lochkarten, die zu dieser Zeit bereits auch zur Eingabe benutzt wurden. Man stanzte in Lochkarten an bestimmten, vorher definierten Stellen, Löcher. Diese Lochkarten legte man dann in einen "Rechner", der diese automatisch eingezogen und dann die gewünschte Aufgabe, anhand der gestanzten Löscher, ausgeführt hat. An anderer Stelle lagen ungestanzte Karten in einem Fach die der "Rechner" dann ebenfalls eingezogen und mit dem Ergebnis gestanzt hat. Diese Lochkarten konnten dann wieder weiterverarbeitet werden, in dem man sie z.B. in einen anderen "Rechner" gelegt hat.

"Datasette" Datenspeicher aus der Zeit der Homecomputer

Da diese Speicherform sehr langsam und unflexibel war, benutzte man dann eine Technik, die bereits damals für die Tonaufzeichnung verwendet wurde, auch für die Datenspeicherung weiter: das Magnetband. Zuerst auch nur mit kleinen Bändern, ähnlich den Musikkassetten. Später entwickelte man große Bandlaufwerke mit großen Magnetbändern. Sicher ist dem einen oder anderen noch die "Datasette" bekannt, einem Magnetbandspeichergerät für normale Musikkassetten für den Homecomputer VC20 bzw. C64 aus dem Jahr 1982. In alten Filmen zeigte man auch gerne die "Großcomputer" mit den schnell drehenden Magnetbandspeicherbändern.
Wie sicher noch jedem bekannt ist, haben Magnetbänder einen großen Nachteil: Sucht man eine bestimmte Stelle muss zuerst das Band bis dorthin gespult werden. Auch wenn die Datenspeicherung mit Magnetbändern gegenüber Lochkarten deutlich schneller ging, war doch ein Magnetbandspeichergerät überwiegend damit beschäftigt das Band hin und her zu spulen.

 

Um die Datenzugriffsgeschwindigkeit weiter zu steigern wurde in etwa zur gleichen Zeit der so genannte "Magnettrommel-Speicher" entwickelt. Dieser Speicher ähnelt bereits den heutigen Festplatten. Es wird dafür auf einem metallischen Zylinder von außen eine Magnetschicht aufgetragen. Mehrere fest montierte Schreib- und Leseköpfe konnten bei der Drehung der Trommel Daten lesen und schreiben. Somit hatte eine solche Trommel eine deutlich höhere Zugriffsgeschwindigkeit als die Magnetbänder, da auf zeitaufwendiges Spulen verzichtet werden konnte. In den 1950er Jahren waren Magnettrommel-Speicher recht weit verbreitet.
Aber auch die Magnettrommel hatte Nachteile. So lassen sich auf einer Trommel deutlich weniger Daten speichern als auf einem Magnetband.

 

Da man bis in diese Zeit mit keiner Speicherlösung so richtig zufrieden war entwickelte man fleißig weiter. Unter anderem wurden so genannte Speicherkarten entwickelt. Das waren Karten die auf der Oberfläche mit einer Magnetschicht versehen wurden. Diese konnten nach Belieben zum speichern und auslesen in einen Rechner übertragen und anschließend wieder abgelegt werden. So entstand auch das "Sektorweise" (eine Karte entspricht einem Sektor) anlegen von Daten.
In der zweiten Hälfte der 1950er Jahre vereinte man dann die Vorzüge aller Speichermethoden zu einer, dem "Magnetplattenspeicher". Hier ersetzte man die Trommel durch sich drehende Platten, die dann auch von oben und unten mit einer Magnetschicht versehen werden konnten. Damit verdoppelte man schon mal die Datenmenge auf einer Platte. Außerdem teilte man die Daten in so genannte Sektoren auf, wie sie sich bereits auf den Magnetkarten bewährt hatten. Eine weitere Verbesserung war ein schwenkbarer Schreib-Lesekopf. Somit war es jetzt möglich mit nur einem solchen Kopf alle Stellen auf der Magnetplatte zu erreichen.

 

Diese Magnetplatten aus den 1950er und 1960er Jahren darf man sich noch nicht wie heutige Festplatten vorstellen. Die Datenspuren waren noch so "grob", dass eine solche Spur breiter als ein Millimeter war. Die Datendichte lag bei etwa 2 kBit / inch2. Auf einem solchen "Laufwerk" aus dem Jahr 1956 konnte man etwa 5 MB Daten unterbringen. Da die Datenspuren noch sehr weit auseinander lagen, benötigte man für diese 5 MB 50 Magnetplatten mit einem Durchmesser von 61 cm. Diese Laufwerke mit der dazugehörigen Technik wie Motoren und Schreib-Lesemechanik waren so groß wie ein heutiger kompletter Tower-Computer oder wie ein kleiner Schrank und auch ähnlich schwer.
In den 1960er Jahren konnten bereits Laufwerke mit bis zu 56 MB hergestellt werden. Hier konnten zwei Datenspuren auf einem Millimeter untergebracht werden, was in etwa 25 kBit / inch2 entspricht.
1971 konnten schon 100 MB auf einem Laufwerk bei 7,6 Datenspuren auf einem Millimeter untergebracht werden.
1979 konnten Festplatten endlich so klein gebaut werden, dass sie als Zubehör in einen Computer eingebaut werden konnten. Die erste 5,25 Zoll Festplatte wurde 1981 von der Firma Seagate gebaut. Allerdings waren diese noch sehr teuer. Für ein 5 MB Laufwerk waren 10.000 DM (5.000 EUR) keine Seltenheit.
1987 erreichte man bereits eine Speicherkapazität von etwas über 3 GB und etwa 82 Datenspuren auf einem Millimeter.
1996 lag die Speicherdichte dann bereits bei über 1 GB / inch2.
Heute sind um die 60 GB / inch2 möglich, wobei die Entwicklung inzwischen zu über 100 GB / inch2 tendiert.

 

Genau so wie die Datendichte und damit die Speichergröße gestiegen ist, ist der Preis für Festplatten gefallen. Kostete 1981 wie gesagt eine 5 MB Festplatte noch umgerechnet ca. 5.000 EUR (entspricht etwa 1000 EUR je MByte), 2006 musste man für eine 500 GB Festplatte "nur" noch 320 EUR (entspricht etwa 0,00064 EUR je MByte) bezahlen und heute (2009) bekommt man eine 1000 GB (1 TB) Festplatte für etwa 90 EUR (entspricht etwa 0,00009 EUR je MByte)! 
Zur Homecomputer-Zeit in den 1980er Jahren waren Festplatten noch fast nicht zu bezahlen. Diese waren bis Anfang der 1990er Jahre immer noch professionellen Computern vorbehalten. In den 1980er Jahren nutzte man Anfangs zur Commodore VC20 / C64 Zeit noch immer Musikkassetten (Bandlaufwerke) zur Speicherung. Erst nach und nach kamen dann 5,25 Zoll Disketten mit den passenden Laufwerken als Speichermedium auf den Markt. Ab Anfang der 1990er Jahre wurden dann auch Festplatten für den Arbeitsplatzcomputer (PC) erschwinglich und damit interessant.

 

Wie funktioniert eine heutige Festplatte?

 

Zuerst zum technischen Aufbau:

Im Inneren der Festplatte befinden sich mindestens eine, meistens sogar mehrere Aluminiumscheiben die beidseitig mit einer Magnetschicht beschichtet sind. Man nennt diese "Speicherscheiben" auch "Platter", abgeleitet vom englischen Wort "Platters". Die Aluminiumscheiben sind auf einer Achse befestigt, die von einem Motor angetrieben wird.

An einem federnd gelagerten "Arm", der über die gesamte Magnetfläche bewegt werden kann, sind die Schreib- / Leseköpfe befestigt. Der "Arm" wird von einem kleinen Schrittmotor bewegt. An diesem Arm befindet sich für jede Aluminiumscheibe (je für die obere und untere Seite) ein Schreib-/Lesekopf. Bei den "Arm" bewegungen werden somit immer alle Köpfe gleichzeitig in die gleiche Richtung bewegt!
Was jetzt noch fehlt ist die Elektronik um zum einen die Schreib- / Leseköpfe richtig zu positionieren und natürlich die Daten entsprechend den Anforderungen aufzuarbeiten. Des Weiteren fehlen noch die Verbindungen zum Computer, also der Strom und der Datenanschluss.

Eine Festplatte von innen

Am mechanischen Aufbau hat sich in den letzten Jahren auch nicht so viel geändert. Verändert hat sich vor allem die Datendichte auf den Magnetplatten. Damit verbunden müssen natürlich auch die Schreib-/Leseköpfe viel kleiner aufgebaut sein und viel genauer positioniert werden. Weitere Änderungen betreffen noch die Rotationsgeschwindigkeit der Magnetplatten, die im laufe der Jahre immer weiter erhöht wurde. Damit verbunden mussten auch die Lager stetig verbessert werden, um den Anforderungen gerecht zu werden.

 

Wie arbeitet nun eine Festplatte? 

Ist eine Festplatte nun in Betrieb, treibt ein Motor die Achse mit den Magnetplatten an. Dieser Motor muss eine möglichst gleichbleibende Geschwindigkeit ermöglichen, damit es nicht zu Schreib- / Lesefehlern kommen kann. Die Rotationsgeschwindigkeit und damit die Geschwindigkeit in der Daten gelesen oder geschrieben werden können, hat sich in den letzten Jahren deutlich geändert. Die ersten "richtigen" Festplatten drehten mit 5400 Umdrehungen in der Minute (U/min). Heute sind diese "langsamen" Festplatten nur noch schwer zu bekommen. Üblich sind inzwischen 7200 U/min. Bei Server-Festplatten liegt die Geschwindigkeit bereits zwischen 10.000 und 15.000 U/min. Diese Geschwindigkeit verlangt natürlich auch einiges von der Mechanik ab. Je schneller eine Platte dreht, je schneller müssen auch die Schreib- / Leseköpfe exakt positioniert werden. Außerdem bedeutet eine höhere Geschwindigkeit auch mehr (Reibungs-) Wärme an den Achsen und ein höheres Betriebsgeräusch. Diese werden teilweise natürlich durch bessere Lager ausgeglichen.

 

Würden die Schreib- / Leseköpfe direkt auf den Platten mit der sehr dünnen Magnetschicht aufliegen, wären diese wohl schnell verschlissen und die Festplatte damit unbrauchbar. Die Konstrukteure der Festplatten bedienten sich daher einer interessanten Technik. Durch die schnelle Drehung der Platten entsteht ein Luftstrom über den einzelnen Magnetplatten. Die "Arme" mit den Schreib- / Leseköpfen sind so konstruiert, dass diese nun auf dem Luftstrom nur wenige hundertstel Millimeter über den Magnetplatten "schweben".
Das hat allerdings den Nachteil, dass bereits ein winziges Staubkorn deutlich dicker als der Abstand zwischen den Köpfen und den Platten ist. Ein solches Staubkorn könnte damit bereits eine Festplatte und damit die Daten beschädigen. Festplatten werden daher in so genannten Reinräumen (Staubfreien Räumen) montiert und dann Luftdicht verschlossen. Öffnet man eine Festplatte ist diese praktisch unbrauchbar, da sich sicher sofort Staub auf den Magnetplatten absetzen wird.

Die Schreib-/Leseköpfe einer Festplatte

Wenn der Luftstrom abreißt, z.B. wenn der Computer ausgeschaltet wird, würden normalerweise die Schreib- / Leseköpfe auf die Magnetschicht aufsetzen und es könnte zu Beschädigungen kommen. Bei den ersten Festplatten musste man daher vor dem Abschalten des Computers unbedingt einen "Parkbefehl" an die Festplatte senden, damit der Arm mit den Schreib- / Leseköpfen in einen gesicherten Bereich bewegt werden konnte. Das war bei "gewolltem" abschalten ja möglich. Bei einem Stromausfall konnte das aber verheerende Folgen haben, wenn ungewollt die Platte stehen blieb.
Heute wird diese "Parkfunktion" automatisch von der Festplattenelektronik geregelt. Sobald die Rotationsgeschwindigkeit der Platten abfällt, fährt der Arm mit den Köpfen sofort in eine sichere Position.
Eine Gefahrenquelle für Festplatten gibt es aber auch heute noch: starke Stöße im laufenden Betrieb. Besonders sind hiervon Festplatten in tragbaren Computern (Laptops), oder externe Festplatten betroffen. Bewegt sich der Arm mit den Köpfen im Betrieb über die Platten und der Laptop oder die externe Festplatte wird unsanft auf einen Tisch geworfen oder fällt herunter kann der Schreib- / Lesekopf kurz auf den Platten aufsetzen und diese damit beschädigen. Auch die Schreib- / Leseköpfe können duch das unsanfte aufsetzen auf den Magnetscheiben beschädigt werden. Man spricht dann auch von einem "Plattencrash". Durch so einen "Plattencrash" können die Daten auf den Magnetplatten unwiderruflich zerstört werden, so dass diese eventuell nur noch durch eine professionelle und oft auch teure Rettungsfirma wieder herzustellen sind.

 

Welche Bauformen gibt es?

 

Die ersten Festplatten hatten locker die Größe eines heutigen Computer Tower Gehäuses, oder waren sogar noch größer. Die Bauformen waren nicht genormt. Jeder Hersteller baute sich ein Plattenlaufwerk, so wie er es brauchte. Untereinander konnten die Laufwerke meistens nicht getauscht werden.
1979 konstruierte die Firma Seagate dann die erste Festplatte im 5,25 Zoll Format und läutete damit auch eine "Normgröße" ein.
Mit der Zeit wurde die Datendichte je Platte gesteigert. Es war damit bald möglich gleich viele Daten auf einer kleineren Platte unterzubringen. So schrumpfte auch die "Normgröße" der Laufwerke auf die für Desktop-Computer noch heute üblichen 3,5 Zoll. 1988 kam die Erste 3,5 Zoll Festplatte mit einer Speichergröße von 20 MB auf den Markt. Inzwischen (2009) kann man 3,5 Zoll Festplatten bereits bis zu einer Größe von 2 TB (Terra Byte) herstellen.

3,5 Zoll Festplatte von oben gesehen

2,5 Zoll FestplatteDas 3,5 Zoll Format ist für tragbare Computer natürlich noch ungeeignet. Für diese "Klein" Computer einigte man sich auf das 2,5 Zoll Format für Festplatten. Diese dürfen auch nicht so dick sein, damit sie in flache Laptops eingebaut werden können. Es lassen sich dadurch natürlich nicht so viele einzelne Platten übereinander anordnen. Aus diesen Gründen passen auf eine 2,5 Zoll Festplatte weniger Daten als auf ein Laufwerk im 3,5 Zoll Format. Anfangs (1992) gab es 2,5 Zoll Festplatten gerade mal mit maximal 120 MB, da aufgrund der Datendichte zu dieser Zeit einfach noch nicht mehr Speicher herstellbar war. Heute (2009) bei deutlich gesteigerter Datendichte je Platte gibt es bereit 2,5 Zoll Festplatten mit bis zu 500 GB. Einen weiteren Unterschied gibt es bei der Rotationsgeschwindigkeit mit der 2,5 Zoll Festplatten die Magnetplatten drehen. Anfangs lag diese Geschwindigkeit bei 4200 U/min. Bei den meisten heutigen Platten bereits bei 5400 U/min. Diese, gegenüber 3,5 Zoll Festplatten langsamere Geschwindigkeit, hat zum einen den Vorteil, dass die Platten leiser laufen und zum anderen meistens auch nicht so warm werden. Ein weiterer Vorteil gegenüber 3,5 Zoll Festplatten ist der geringere Strombedarf. Gerade für tragbare Geräte ist das ein sehr wichtiger Punkt. Da die Magnetplatten im inneren kleiner sind, hat die geringere Dreh-Geschwindigkeit aber kaum Einfluss auf die Zugriffsgeschwindigkeit.

Festplattendicke im Vergleich - Oben eine 2,5 Zoll Festplatte unten eine 3,5 Zoll Festplatte

Für die Verwendung in noch kleineren Geräten hat man Festplatten im 1,8 Zoll Format entwickelt. Diese Festplatten werden hauptsächlich in so genannten "Netbooks", also in besonders kleinen tragbaren Computern oder auch in MP3 Playern eingesetzt. Erste Festplatten im 1,8 Zoll Format kamen 2005 auf den Markt und hatten eine Kapazität von 60 GB. Heute 2009 stellt man 1,8 Zoll Festplatten bereits mit bis zu 250 GB her.

Seit 2001 gibt es spezielle Mini-Festplatten, die auch "Microdrive" genannt werden. Diese 1 Zoll Festplatten sind in etwa so groß wie ein Passfoto und haben die gleiche Größe und den gleichen Anschluss wie heutige "Compact Flash" Speicherkarten. Durch ihre geringe Größe können diese Festplatten somit z.B. in digitalen Fotoapparaten, Handys oder MP3 Spielern eingebaut werden. Mit einem Adapter lassen sich diese Festplatten dann auch z.B. in einem PCMCIA-Type II Kartenschacht in einem Laptop benutzen. Auf die verwendeten Mini-Magnetplatten (etwa in der Größe einer 2 EUR Münze) passten Anfangs gerade mal 340 MB, heute ist man auch hier schon bei etwa 40 GB angelangt.

 

Da ein "Microdrive" allerdings eine "echte" mechanische Festplatte ist und somit auch die gleichen Nachteile wie eine Festplatte besitzt können sich diese Speichermedien heute nicht mehr gegenüber Speicherkarten durchsetzen. Auch CompactFlash (CF) Speicherkarten gibt es heute schon bis zu 16 GB. "Microdrive" Festplatten sind auch komplizierter und schwerer herzustellen wie vergleichbare CompactFlash Speicherkarten.
Zu Zeiten in denen Flash-Speicher noch teuer war und die Speichergrößen unter maximal 1 MB gelegen haben, konnten sich mechanische Festplatten leicht durchsetzen. Heute sind Speicherkarten recht günstig geworden und die Speichergrößen steigen fast monatlich.
So haben 2008 schon einige Hersteller angekündigt die Produktion der kleinen Mini-Festplatten einzustellen, die Produktion lohnt sich einfach nicht mehr. Die Hersteller steigen in diesem Marktbereich oft komplett auf Flash-Speicher um.

Vergleich 2,5 Zoll Festplatte (links) mit 3,5 Zoll Festplatte (rechts)

Was ist der Cache?

 

In der Beschreibung zu heutigen Festplatten steht meist immer auch eine Angabe zum Cache-Speicher. Der Cache Speicher ist ein schneller Zwischenspeicher und ist direkt auf der Festplattenelektronik untergebracht. Dieser Speicher ist viel schneller (höhere Zugriffsgeschwindigkeit) als z.B. der Standard RAM-Speicher in einem Computer. Allerdings ist der Cache wie gesagt fest in der Elektronik eingebaut und kann weder ausgetauscht noch erweitert werden.

Die Festplattenelektronik mit dem Cache-Speicher

Wozu braucht man Cache Speicher?

 

Heutige Prozessoren (CPUs) in Computern sind sehr schnell und müssen demnach auch immer möglichst schnell mit Daten versorgt werden um nicht ausgebremst zu werden. Die Daten holt sich der Prozessor von den Speichermedien wie RAM oder auch den Festplatten. Diese Speichermedien können aber die Daten lange nicht so schnell liefern, wie diese vom Prozessor angefordert und verarbeitet werden könnten. Um hier eine Vorbeugung zu treffen hat man den Cache-Speicher, also einen sehr schnellen Zwischenspeicher entwickelt. Zum einen ist so ein Cache-Speicher direkt im Prozessor eingebaut und zum anderen auch z.B. in einer Festplatte oder in anderen Laufwerken.
Ein "intelligentes" Speichermanagement in der Elektronik der Bauteile versucht nun abzuschätzen, welche Daten der Prozessor als nächstes benötigt. Noch während der Prozessor einen Befehl abarbeitet lädt nun dieses Speichermanagement die voraussichtlich als nächstes benötigten Daten in den Cache. So kann der Prozessor anschließend ohne große Verzögerung auf die nächsten Daten zugreifen.
Fehlen dem Prozessor geforderte "Folgedaten" muss dieser eine Pause einlegen (1 Takt). Danach versucht dieser wieder an die benötigten Daten zu kommen. Je besser das Speichermanagement für den Cache-Speicher funktioniert, je weniger Pausen muss der Prozessor bei seiner Arbeit einlegen und je schneller arbeitet somit der ganze Computer.
Natürlich hat auch die Größe des Cache-Speichers eine entscheidende Auswirkung auf die Geschwindigkeit des ganzen Computers. Je größer der Cache in den Bauteilen ist, je mehr Daten kann das Speichermanagement "Vorplanen" und bereitstellen. Da der sehr schnelle Cache-Speicher aber auch sehr teuer ist, muss ein vernünftiger Mittelweg zwischen Kosten und Nutzen gefunden werden. Bei Festplatten lag der Cache Anfangs noch durchschnittlich bei 2 MB. Mit steigender Kapazität wurde auch der Cache schrittweise erhöht. Festplatten bis 250 GB besitzen heute meistens 8 MB, Festplatten bis 500 GB haben durchschnittlich 16 MB und Platten über 500 GB sogar schon 32 MB Cache Speicher.

Welche Anschlüsse gibt es für Festplatten?

Die ersten, noch nicht genormten Festplatten benutzten ebenso nicht genormte Anschlüsse. Jeder Hersteller benutzte einen eigenen Anschluss. Seit es nun aber genormte Festplatten-Bauformen gibt, musste auch ein genormter Anschluss her. Schließlich ist es erst dann möglich Festplatten unterschiedlicher Hersteller in einem Computer einzubauen.

Für den internen Anschluss im Computer benutzte man zuerst den "IDE (Integrated Disc Electronic)" Anschluss der auch "ATA (Advanced Technology Attachment)" Anschluss genannt wird. Später wurde dieser Anschluss verbessert und erreichte dadurch eine bessere Datenübertragungsrate. Diesen Anschluss nannte man dann "EIDE (Enhanced Integrated Disc Electronic)" bzw. auch "ATA-2".

ATA (IDE) Anschlüsse auf einem MainboardDieser war allerdings für schnelle Server nicht schnell genug. Außerdem können an einen EIDE Anschluss nur zwei Laufwerke, wie z.B. Festplatten angeschlossen werden. Ein "normaler" Computer hatte meistens zu dieser Zeit zwei solcher Anschlüsse und konnte somit maximal vier Laufwerke unterstützen. Benutzt man noch ein CD- oder DVD Laufwerk fällt dafür wieder je ein Platz für eine eventuell benötigte Festplatte weg. Ein Ausweg wäre z.B. der Einbau einer zusätzlichen EIDE Karte. Damit ist das Geschwindigkeits- Problem aber noch nicht behoben.

SCSI

Für solche professionellen Anwendungen wurde in den Jahren 1981 bis 1986 der SCSI Standard (Small Computer System Interface) entwickelt. Bei der SCSI-Schnittstelle handelt es sich um einen parallelen Bus, an den zwischen anfangs 8 und später 16 Geräte angeschlossen werden können. SCSI setzte sich überwiegend nur im professionellen (Server) Bereich durch, da diese Anschlussform zum einen komplizierter und zum anderen auch viel teurer war, als die EIDE Anschlusstechnik. In kaum einem Computer ist SCSI "fest" eingebaut. Es musste fast immer ein extra "SCSI-Hostadapter" in den Computer eingebaut und konfiguriert werden. An den anzuschließenden Geräten muss je eine eindeutige ID-Nummer eingestellt und der Bus muss mit einem "Terminator" abgeschlossen werden. Der Vorteil von SCSI ist, dass diese Anschlussform Geräteunabhängig arbeitet. Meistens stellte ein "SCSI-Hostadapter" sowohl interne als auch externe SCSI-Anschlüsse zur Verfügung. Für die externen Anschlüsse gibt es z.B. auch Scanner und externe Laufwerke.

 

Die Entwicklung schreitet immer weiter voran. Inzwischen setzt sich immer mehr der S-ATA (Serial-ATA) Standard für interne Laufwerke durch und löst sowohl EIDE, als auch SCSI ab. S-ATA arbeitet seriell, bietet eine sehr schnelle Daten-Anbindung und ist leicht zu konfigurieren. Für externe Geräte und Laufwerke benutzt man heute überwiegend die USB- bzw. die FireWire Schnittstelle. Aber auch hier wird bereits die S-ATA Schnittstelle verwendet. Dieser Anschluss heißt dann eSATA (external Serial ATA). Aktuelle Computer haben zwar meistens immer noch, zumindest einen EIDE-Anschluss, der aber vorwiegend nur noch für DVD-Laufwerke bzw. Brenner verwendet wird. Aber auch dort setzt sich  S-ATA immer weiter durch und ersetzt den EIDE-Anschluss, so dass dieser Anschluss wohl in absehbarer Zeit komplett verschwinden wird.

Vergleich 40 & 80-adriges ATA zu einem S-ATA Kabel

Wie werden die Daten verwaltet?

 

Die Speicheraufteilung übernimmt überwiegend die Elektronik auf der Festplatte. Die Daten werden kreisförmig von außen nach innen auf die Magnetscheiben geschrieben. Der Abstand dieser Datenspuren entspricht der hier schon mehrfach beschriebenen Datendichte. Je enger die Spuren zusammen liegen, je mehr Daten passen auf eine Magnetscheibe. Außen sind die Datenspuren länger als innen.
Um schneller auf diese zugreifen zu können, werden die Magnetscheiben noch wie ein Kuchen in viele Stücke eingeteilt, den so genannten Sektoren. Dabei passen aber innen weniger Daten in einen Sektor als außen. Bei neuen Festplatten werden die Magnetscheiben daher nicht mehr in gleichmäßige "Kuchenstücke" aufgeteilt. Außen legt man heute mehr Sektoren an als innen, was den Speicherplatz effektiver ausnutzt.
Dann liegen meistens immer mehrere Magnetplatten übereinander. Die Einteilungen sind auf allen Platten gleich. Alle übereinander liegenden Spuren nennt man Zylinder. Wird der Schreib- / Lesekopf positioniert liegt dieser immer auf allen Zylindern an gleicher Stelle auf.  
Diese Angaben findet man meistens auch auf einer Festplatte und im BIOS des Computers.
Um diese Einteilungen auf der Festplatte vorzunehmen, benutzt man die so genannte "Low-Level Formatierung". Darüber muss man sich als Anwender normalerweise aber keine Gedanken machen. Die Low-Level Formatierung übernimmt immer der Hersteller. Sollten einmal schwere Probleme mit einer Festplatte auftreten, kann ein Anwender diese Low-Level Formatierung allerdings nochmals durchführen. Dazu ist aber immer ein spezielles Programm des Festplattenherstellers erforderlich.
Bevor jetzt aber Daten auf die Festplatte geschrieben werden können, muss auch das Betriebssystem eine Formatierung vornehmen. Diese heißt normalerweise "High-Level Formatierung" wird aber immer nur als "Formatierung" bezeichnet. Dabei legt das Betriebssystem das gewünschte Dateisystem und ein Inhaltsverzeichnis auf der Festplatte an. Diese Formatierung muss der Anwender meistens vor der Installation des Betriebssystems selber durchführen und wird von allen Betriebssystemen Softwareseitig unterstützt.

Was geschieht bei der Formatierung?

 

Wie oben bereits kurz angesprochen, muss eine Festplatte vor der Verwendung vom Betriebssystem formatiert werden. Beim formatieren, legt das Betriebssystem ein Inhaltsverzeichnis an und bereitet die Festplatte mit einem Dateisystem soweit vor, dass anschließend die Daten darauf abgelegt werden können. Nur wenn eine Festplatte auch formatiert ist, können Daten darauf gespeichert werden. Die meisten Betriebssysteme verwenden eigene Dateisysteme. Bei den meisten Betriebssystemen kann man sogar vor dem formatieren das gewünschte Dateisystem wählen. Apple Computer verwenden z.B. "Hierarchical File System (HFS)" oder "Apple DOS"; Linux hat eine große Vielzahl an Dateisystemen zur Auswahl, wie z.B. "Reiser", "GFS" oder "GNOME Storage".
Die meisten Anwender setzen aber auf das Microsoft Windows Betriebssystem. Dieses unterstützt bis heute das "FAT" (File Allocation Table) und das "NTFS" (New Technology File System) Dateisystem. Hier ein kurzer Überblick dieser Dateisysteme:

  • FAT 12: 1980 wurde noch unter DOS, einem Vorgänger von Windows, das Dateisystem "FAT 12" eingeführt. Dieses Dateisystem wird noch bis heute beim formatieren von Disketten verwendet. Es unterstützt Dateinamen mit maximal 8 Zeichen und einem Anhang/Kennung von 3 Zeichen (8.3). FAT 12 kann Speicher-/Partitionsgrößen von maximal 16 MB verwalten.
  • FAT 16: 1983 waren 16 MB nicht mehr zeitgemäß. Es musste ein Dateisystem her, welches größere Datenträger verwalten konnte. "FAT 16" kann Speicher-/ Partitionsgrößen von bis zu 2 GB verwalten. Lediglich Windows NT konnte mit "FAT 16" auch Partitionsgrößen bis 4 GB verwenden. "FAT 16" wurde von allen Windows Versionen bis Windows 95 verwendet. Heute setzt man "FAT 16" noch oft bei Speicherkarten bis 2 GB ein. Einzelne Dateien dürfen unter "FAT 16" auch nur maximal 2 GB groß sein. Auch "FAT 16" verwendet noch Dateinamen mit maximal 8 Zeichen und 3 für die Kennung (8.3)
  • VFAT: 1995 mit Windows 95 eingeführt. "VFAT" ist eine Erweiterung zu "FAT 16" und heißt "Virtual File Allocation Table". Diese Erweiterung zu "FAT" ermöglichte durch einen Trick die Verwendung von langen Dateinamen bis zu 255 Zeichen. Die Dateinamen wurden einfach in mehrere Teile/Dateien zerlegt und mit "~" plus einer Zahl ergänzt. Da "VFAT" nur eine Erweiterung ist, konnte dieses Dateisystem auch nur maximal 2 GB verwalten, was zu damaligen Zeiten ausreichend war.
  • FAT 32: Wurde 1997 mit Windows 95b eingeführt. Die Speichergrößen näherten sich zu dieser Zeit schon der 2 GB Grenze, so dass ein neues Dateisystem her musste. "FAT 32" kann theoretisch bis zu 8 TB (Tera Byte) verwalten, wobei es ab etwa 32 GB großen Partitionen zu Problemen und großen Platzverschwendungen kommt. Auch können unter "FAT 32" lange Dateinamen bis zu 255 Zeichen verwendet werden. Einzelne Dateien dürfen unter "FAT 32" maximal 4 GB groß sein. "FAT 32" war lange das Standard Dateisystem unter Windows.
  • exFAT: Ist ein ganz neues Dateisystem, dass 2006 speziell für Speicherkarten entwickelt wurde. "exFAT" heißt ausgeschrieben "extended File Allocation Table". Als Erstes Betriebssystem unterstützt "exFAT" Windows CE 6.0. Selbst die Erste Windows Vista Version unterstützt "exFAT" noch nicht, das war erst nach dem ServicePack 1 möglich. Bei Windows XP wird neben dem ServicePack 2 noch ein spezielles Update von Microsoft benötigt. "exFAT" soll dort eingesetzt werden, wo es mit dem "NTFS" Dateisystem zu Problemen kommen kann.
  • NTFS: Dieses Dateisystem hat den Ursprung 1993 bei den "Professionellen" Betriebssystemen, angefangen bei Windows NT 3.1. Gegenüber dem "FAT" Dateisystem hat "NTFS" einige Vorteile. "NTFS" kann Datenträger bis zu einer Größe von 256 TB (Tera Byte) verwalten. Lange Dateinamen mit bis zu 255 Zeichen sind selbstverständlich. Darüber hinaus kann "NTFS" große Datenträger viel effizienter verwalten, verschenkt also weniger Speicherplatz. Auch einzelne Dateien dürfen unter "NTFS" mit 16 TB viel größer sein, was gerade bei Videodateien ein großer Vorteil gegenüber "FAT" ist. Auch unterstützt "NTFS" eine flexible Rechteverwalung und eine Daten- und Datenträgerverschlüsselung. Heute ist NTFS fast schon Standard bei aktuellen Windows-Betriebssystemen geworden.

Welches Dateisystem soll man nun wählen?

 

Nun ja, ideal ist das Aktuellste Dateisystem welches das verwendete Betriebssystem unterstützt. Bedenken sollte man dabei nur, dass Dateisysteme zwar Abwärts- aber nicht Aufwärts kompatibel sind! Formatiert man z.B. eine externe Festplatte mit dem "NTFS" Dateisystem und benötigt die Daten darauf auch mal auf einem Computer mit Windows 98, hat man keine Möglichkeit auf diese Festplatte zuzugreifen! Bei internen, fest eingebauten Festplatten ist die Entscheidung damit noch recht einfach, bei externen Festplatten sollte man aber genau überlegen, wo man diese einmal verwenden möchte. Auch bei Verwendung anderer Betriebssysteme kann es Probleme geben. Ein immer beliebteres Betriebssystem wie Linux kann oft mit dem Dateisystem "FAT" nichts anfangen. Inzwischen gibt es wenigstens für "NTFS" entsprechende Linux Treiber.

Wie werden die Daten gespeichert?

Auf eine formatierte Festplatte beginnt die Elektronik damit Daten an die "Erst Beste Stelle" zu schreiben. Auf einer leeren Festplatte ist das ja auch problemlos möglich. Sind die Daten gespeichert wird im Inhaltsverzeichnis der Platte vermerkt, wo die Daten zu finden sind. Werden diese Daten angefordert, prüft die Elektronik das Inhaltsverzeichnis, und fährt den Lesekopf dann an den Start und liest die Daten ein.
Werden nun Daten gelöscht, werden diese nicht wirklich auf der Festplatte entfernt, das würde je nachdem viel zu lange dauern. Es wird einfach nur der Eintrag im Inhaltsverzeichnis entfernt, also auf "Leer" gesetzt. 
Müssen nun wieder neue Daten auf die Festplatte gespeichert werden, kann es sein, dass genau dieser, als Leer gekennzeichnete Bereich verwendet wird. Nur selten passen die neuen Daten dann aber genau in diese frei gewordene "Lücke". Entweder ist der Bereich ist zu klein, oder zu groß. Ist der Bereich zu groß, bleibt eine "Lücke" übrig, ist der Bereich zu klein sucht die Elektronik den nächsten freien Platz und speichert dort weiter. Man nennt dieses dann auch "fragmentieren". Je nachdem, wie die Festplatte verwendet wird, kann es sein, das Daten in viele kleine Stücken verteilt abgespeichert werden. Wo die Daten nun liegen, wird wieder im Inhaltsverzeichnis vermerkt. Für die Daten ist dieses "fragmentieren" kein Problem. Aber beim einlesen fallen erst einmal viel mehr Informationen aus dem Inhaltsverzeichnis an, um die einzelnen "Stücke" (Fragmente) wieder zusammen zu setzen und zum anderen muss der Schreib- / Lesekopf oft während des Lesens umgesetzt werden.
Das alles kostet Zeit und bremst einen Computer aus. Daher sollte man eine Festplatte, je nachdem wie diese verwendet wird, von Zeit zu Zeit "defragmentieren". Dabei werden die Daten wieder, soweit möglich hintereinander, ohne Lücken auf der Festplatte abgelegt und der Zugriff kann deutlich schneller erfolgen.

Was geschieht beim löschen von Daten?

Wie oben bereits geschrieben, werden beim standardmäßigen löschen von Daten lediglich die Einträge im Inhaltsverzeichnis entfernt und der Bereich als "Leer" gekennzeichnet. Auf herkömmliche Weise können die so "gelöschten" Daten dann nicht mehr gefunden werden. Allerdings gibt es so genannte "Rettungsprogramme", die sich nicht am Inhaltsverzeichnis orientieren, sondern wirklich die Datenspuren nach Daten absuchen und wenn sie fündig wurden diese Bereiche wieder in das Inhaltsverzeichnis eintragen. So können Daten wiederhergestellt werden, die man schon als verloren angesehen hat. Wirklich löschen kann man Daten nur durch überschreiben mit anderen Daten. Auch dafür gibt es spezielle Programme, die wirklich die Daten, oder sogar die ganze Festplatte mehrfach mit "0" oder "1" überschreiben.
Selbst eine "High-Level Formatierung" löscht nicht die Daten von der Festplatte! Dabei können zwar Dateifragmente verloren gehen, besonders wenn die Aufteilung (Partitionen) verändert werden, aber der überwiegende Teil der Daten bleibt vorhanden. Daher sollte man auf jeden Fall eine Festplatte mit Spezialsoftware löschen (überschreiben), bevor man eine "leere" Festplatte an Dritte weitergibt.

 

Gibt es Sicherheitsfunktionen?

 

Bei neueren Festplatten gibt es die so genannte "S.M.A.R.T." Funktion. Die Abkürzung steht für "Self Monitoring Analysis and Reporting Technology". Wenn "S.M.A.R.T." sowohl von der Festplatte als auch vom Computer (BIOS) unterstützt wird, können wichtige Parameter der Festplatte überwacht werden. Dazu gehören z.B. die Drehzahl, die Temperatur und die Leseversuche der Festplatte. Wenn es hier Abweichungen von Normwerten gibt, kann "S.M.A.R.T." eine Warnung ausgeben, bevor die Festplatte ganz aussteigt. Meist ist dann noch eine Datensicherung möglich.

 

Kann jede Festplatte in jedem PC verwendet werden?

Diese Frage kann nicht einfach mit "Ja" oder "Nein" beantwortet werden. Es gibt viele Faktoren die berücksichtigt werden müssen.
Y-StromadapterDer wichtigste Punkt ist natürlich erst einmal der Anschluss. Die Festplatte sollte einen Anschluss besitzen, der auch vom Computer zur Verfügung gestellt wird. Ist das nicht der Fall muss noch eine entsprechende Anschlusskarte gekauft werden, was sich in den meisten Fällen sicher nicht lohnt. Daher sollte vor dem Kauf erst einmal ein Blick in das Hauptplatinen-Handbuch geworfen werden.
Des Weiteren müssen sowohl ein Einbauplatz im Gehäuse und zum anderen ein Datenanschluss auf der Hauptplatine frei sein. Wenn nicht schon Laufwerke nachgerüstet wurden, sollte das aber meistens der Fall sein. In einen "normalen" Computer kann man heute mindestens vier, oft sogar noch mehr Laufwerke einbauen. Aktuelle Hauptplatinen haben aber nur noch einen EIDE Anschluss, woran nur noch zwei EIDE Geräte (Festplatten oder CD/DVD Laufwerke) angeschlossen werden können. Diese Computer besitzen dann aber zusätzliche S-ATA Anschlüsse, die für Festplatten sowieso besser geeignet sind.

S-ATA StromadapterJedes Laufwerk braucht auch einen Stromanschluss vom Computernetzteil. Ist dort kein Anschluss mehr frei, benötigt man einen so genannten Y-Adapter, der einfach zwischen eine bestehende Leitung geschaltet wird.
Soll eine alte Festplatte nur ersetzt werden, ist der Einbau auf jeden Fall kein Problem, solange eine Festplatte mit gleichen Anschlüssen verwendet wird.
Der letzte wichtige Punkt ist die Festplattengröße. Schnell hat ein Händler eine "Supergute" 2 TB Festplatte verkauft. Besitzt man aber nur einen älteren Computer, der dazu auch noch z.B. mit Windows 98 läuft, gibt es bei dieser Plattengröße sicher Probleme. Entweder wird die Festplatte überhaupt nicht erkannt, oder arbeitet eventuell nur mit 200 GB, der Rest ist verschenkter Platz! Daher unbedingt vor dem Kauf in das Handbuch zur Hauptplatine schauen! Dort sollte angegeben sein, bis zu welcher Größe Festplatten unterstützt werden. Eventuell anschließend noch einen Blick auf die Herstellerseite der Hauptplatine im Internet werfen. Es kann auch sein, dass ein BIOS-Update zur Verfügung steht, das eine höhere Festplattenkapazität ermöglicht.
Bei Festplatten über 2 TB gibt es sehr oft Probleme mit Computern, die noch mit einem "normalen" BIOS arbeiten. Das BIOS-Programm ist ein "altes" Relikt aus den Computer-Anfangstagen. Es kann generell nur 2³² Sektoren mit je 512 Byte ansprechen, was einer maximalen Größe von 2 TB entspricht. Alles was größer ist, kann nur über Umwege oder "Tricks" verwendet werden. Eine Abhilfe schafft das neue "UEFI - (Unified Extensible Firmware Interface)", welches das betagte BIOS ablösen soll. UEFI arbeitet mit modernen 64-Bit und besitzt eine grafische Benutzeroberfläche. Computer mit UEFI, anstelle dem BIOS haben somit kein Problem mit der 2 TB Grenze.
Auch das verwendete Betriebssystem kann entscheidend sein. Ältere Betriebssysteme können nur eine bestimmte "Partitionsgröße" verwalten. Damit ist es dann nicht möglich z.B. den gesamten Platz "als ein Stück" zu verwenden. Der Festplattenplatz muss dann in mehrere kleine Stücke (Partitionen) zerlegt werden, damit überhaupt damit gearbeitet werden kann. Windows 95 kann z.B. maximal 2 GB (FAT16) verwalten. Windows ME bereits problemlos bis zu 32 GB (FAT 32) (theoretisch auch bis zu 8 TB (Tera Byte), was aber oft Probleme bereitet). Erst Windows 2000, Windows XP und Windows Vista (NTFS) können Partitionen von bis zu 16 TB (Tera Byte) verwalten. Allerdings kommt hier das oben schon genannte BIOS Problem zum tragen. Im BIOS können generell Festplatten nur bis 2 TB problemlos angemeldet werden.
Benutzt man einen aktuellen Computer mit UEFI, können aber auch wieder Probleme bei der Betriebssystemwahl entstehen. UEFI ist ein modernes 64-Bit Programm. Möchte man ein älteres  32-Bit Betriebssystem, wie z.B. Windows XP installieren, kann die Installation scheitern, da es keine passende Schnittstelle zu UEFI gibt. Erst aktuelle Windows Versionen mit 64-Bit arbeiten auch problemlos mit UEFI zusammen.
 

Was ist beim Einbau zu beachten?

 

Im Prinzip ist ein Festplatteneinbau recht einfach. Der Computer muss geöffnet und die Platte mit vier Schrauben, oder entsprechenden Halteschienen, in einem freien Laufwerksschacht befestigt werden.  Dabei ist es fast inmmer egal, wie die Festplatte eingebaut wird. Aktuelle Festplatten arbeiten meistens in allen Einbaulagen einwandfrei. Anschließend müssen die Anschlussstecker (Daten und Strom) aufgesteckt werden. Das war es auch schon.
Bei EIDE Laufwerken ist noch zu beachten, dass der "Jumper" (Steckbrücke) für die Festplatten Reihenfolge richtig gesetzt ist. Ist die Festplatte alleine an einer EIDE- Schnittstelle, muss diese als "Master" oder "Single" eingestellt werden. Befindet sich bereits ein Laufwerk an der Schnittstelle muss das eine als "Master" und das andere als "Slave" eingestellt werden. Wie die Steckbrücke dafür jeweils gesetzt werden muss, ist auf der Festplatte aufgedruckt. Man sollte diese Einstellung daher vor dem Einbau vornehmen.
Bei neueren S-ATA Festplatten gibt es manchmal auch "Jumper". Hiermit kann dann der S-ATA Modus eingestellt werden. Damit neue Festplatten auch auf älteren Hauptplatinen funktionieren, kann man mit diesen Steckbrücken den S-ATA I- oder den S-ATA II Modus wählen. Der S-ATA II Modus ist aktueller und schneller, arbeitet aber auch nur richtig, wenn die Hauptplatine S-ATA II unterstützt. Viele S-ATA Festplatten haben aber keinen Jumper mehr und können automatisch den richtigen Modus erkennen, oder arbeiten nur in einem bestimmten Modus. Eine Unterscheidung der Laufwerke, wie bei EIDE gibt es bei S-ATA nicht,  hier darf immer nur ein Laufwerk an einen Anschluss gesteckt werden.
Nach dem Festplatten einbau sollte man einen Blick ins BIOS des Computers werfen und dieses dann wieder mit "SAVE" (Speichern) verlassen. Zwar erkennen heutige Computer eine Festplatte selbstständig und richtig, merken aber, dass sich an der Konfiguration etwas geändert hat. Bei älteren Computern ist es sogar erforderlich die Angaben zu Zylindern, Sektoren, Köpfen und Spuren zu prüfen und gegebenenfalls anhand der Angaben auf den Festplatten zu korrigieren.

 

Was ist ein RAID-Festplattenverbund?

 

Bereits mit dem SCSI- und später auch mit dem EIDE-Bus und neu auch bei der S-ATA Schnittstelle gibt es so genannte "RAID-Controller". Auf aktuellen Hauptplatinen ist ein solcher heute oft auch schon standardmäßig vorhanden. An einen solchen RAID-Controller können mehrere, idealer weise gleiche Festplatten angeschlossen werden. Je nach eingestelltem "RAID-Level" sind mindestens zwei bis vier Festplatten erforderlich. Der Controller fasst die angeschlossenen Festplatten dann zusammen und regelt die Verteilung der Daten beim lesen und schreiben. Der Vorteil eines RAID-Festplattenverbundes sind entweder eine gesteigerte Zugriffsgeschwindigkeit oder eine höhere Datensicherheit. Im Idealfall sogar beides.

 

Wie geht es weiter?

 

Festplatten mit ihrem mechanischen Aufbau sind heute in einem Computer eines der langsamsten Bauteile. Da können die Hersteller auch nicht mehr so viel daran ändern. Man arbeitet zwar an Festplatten, die sich mit 10.000 bzw. 15.000 U/min, anstelle der heute üblichen 7.200 U/min drehen, aber auch das hat wieder Nebenwirkungen. Solche Festplatten müssen besonders gute Lager haben und werden dennoch sehr warm und sind laut.

 

Als gute Alternative arbeitet man heute an komplett elektronischen Speichern, die ähnlich wie ein heutiger USB Stift oder Speicherkarten funktionieren und nur mit Flsah-Speicherbausteinen bestückt sind. Man nennt diese "Solid State Disk" oder kurz "SSD". Solche Speicher hat 2006 bereits die Firma SAMSUNG auf den Markt gebracht. Eine SSD hat gegenüber einer Festplatte viele Vorzüge: Sie ist deutlich schneller, benötigt weniger Strom, arbeitet komplett lautlos, erzeugt weniger wärme und ist unempfindlich gegenüber Stöße und Erschütterungen.
Allerdings haben SSDs derzeit noch ein verhältnismäßig kleines Fassungsvermögen gegenüber heutige Festplatten und sind dafür sehr teuer. Zwar sollen 2009 bereits SSDs mit bis zu 512 GB verfügbar sein, aber der Preis dafür liegt noch bei mindestens 1,43 EUR je MB, also würde eine 512 GB SSD noch fast 800,- EUR kosten! Für 90,- EUR bekommt man aber bereits eine Standard 1 TB 3,5 Zoll Festplatte.
Somit ist die Solid State Disk noch kein Echter Ersatz für heutige Festplatten. In ein paar Jahren könnten SSDs aber die Festplatten ablösen.

 

Um die Übergangszeit bis zur Entwicklung größerer Flash-Speicherbausteine und den Preisverfall durch höhere Produktionsmengen zu überbrücken hat man die "Hybrid Hard Disk" oder kurz "HHD" entwickelt.
Für die Hybrid Hard Disk nimmt man eine "normale" Festplatte und packt einen großen Flash-Speicher (bisher 256 MB) dazu. Die wichtigsten "Arbeitsdaten" sollen möglichst immer in diesem Speicher gehalten werden. Dadurch ist die Zugriffsgeschwindigkeit darauf ähnlich hoch wie bei der SSD. Erst wenn andere Daten angefordert werden, läuft die Festplatte an und überträgt die Daten in die Speicherbausteine. Danach stoppt die Festplatte wieder.
Eine HHD soll im Betrieb so etwa zu 95% die Daten nur aus dem Speicher liefern können und somit überwiegend lautlos und Strom sparend arbeiten.

[Zurück zur Übersicht]

Joomla Toplist

Besucher heute

® Auf im Beitrag genannte Namen und Bezeichnungen, sowie auf Logos können Markenrechte von Firmen im In- und Ausland liegen

www.CompTech-Info.de wird gehostet von:

ALL-INKL.COM - Webhosting Server Hosting Domain Provider

Wer ist online

Aktuell sind 35 Gäste und keine Mitglieder online

Beiträge:

Deine Daten

IP

Kleine Spende

Hier bitte ich Dich um eine kleine Spende für meine Webseite "www.CompTech-Info.de".
Weitere Infos dazu habe ich hier für Dich zusammengestellt.
Vielen Dank!
 

Ziel, mindestens: 119,40 €
Gespendet 2017:  28,37 €
Letzte Aktualisierung: 25.02.2017
Zum Seitenanfang