CompTech-Info Computer Informatonen

CompTech-Info.de, die Compter- und Technik Infoseite. Es werden viele Informationen und Berichte rund um die Bereiche Computer und Technik angeboten. Darüber hinaus steht ein Anwenderforum, ein Download- und ein Spielebereich sowie viele weitere nützliche Informationen kostenlos zur Verfügung.
  1. ADSL (Asymmetric Digital Subscriber Line) wird auch bei uns immer beliebter und wird oft auch als "Internet-Turbo" bezeichnet. Über das derzeitige DSL Netz kann man mit beachtlicher Geschwindigkeit im Internet surfen. Eine ausführliche Beschreibung von DSL findest Du in einem eigenen Artikel.

    Bei uns wird überwiegend und standardmäßig immer ADSL angeboten. ADSL benutzt eine asymmetrische Auslastung der DSL-Leitung. Das heißt, das empfangen der Daten geschieht schneller als das senden. Maximal ist bei ADSL eine Geschwindigkeit von 8 MBit/s beim Datenempfang (downstream) und 1 MBit/s beim Datensenden (upstream) möglich. Das begrenzen die Provider (Netzbetreiber) aber erheblich. Üblich sind heute meist 1 bis 2 MBit/s downstream und 128 bis 192 kBit/s upstream. Vereinzelt wird auch ein downstream bis 4 MBit/s mit einem upstream bis 448 kBit/s angeboten. Die Begrenzung ist auch erforderlich, da eine hohe Geschwindigkeit auch nur auf eine begrenzte Strecke möglich ist. Das heißt, je länger die Entfernung zwischen Vermittlungsstelle und Anwender, je langsamer wird die Übertragung bei ADSL. Daher kann eine hohe Datenrate meist auch nur in Ballungsgebieten angeboten werden. Ländliche Gebiete, kommen meist gar nicht in den Genuss von ADSL, weil die Entfernung zur nächsten Vermittlungsstelle einfach zu groß ist.

    Eine asymmetrische Auslastung benutzt man, weil der empfangene Datenstrom meist größer ist als der zu sendende Datenstrom. Würde man auf eine symmetrische Auslastung setzten, wäre die Auslastung bereits bei niedrigerer Datenrate erreicht und sicher nur in unmittelbarer Nähe zur Vermittlungsstelle umsetzbar.

     ADSL2, was ist neu?

    In der heutigen Zeit sind die mit ADSL erreichten Geschwindigkeiten zwar ausreichend aber nicht Zukunftssicher. Es soll über DSL möglich sein, z.B. Filme direkt per Internet zu bestellen und anzusehen (Video on Demand) und das natürlich in bester HDTV Qualität. Dafür ist das heutige ADSL einfach zu langsam. Außerdem möchten die Provider natürlich auch so viele Kunden wie möglich erreichen, was in Randgebieten und ländlichen Gegenden derzeit nicht möglich ist.
    Daher wurde der ADSL2 Standard entwickelt, und von der ITU genormt. Bei ADSL2 wurde die Datenrate auf 12 MBit/s erhöht und die Signalverarbeitung verbessert. Dadurch ist es möglich in Ballungsgebieten eine höhere Datenrate zu erreichen und durch die verbesserte Signalverarbeitung auch längere Strecken zu überbrücken. Somit sollen mit ADSL2 dann viel mehr Kunden in den Genuss von DSL kommen können.

     ADSL2+

    ADSL2+ legt noch einen drauf und ist besonders für den schnellen Internetzugang für TV- und Multimedia Übertragungen in hoher Qualität ausgelegt. ADSL2+ benutzt eine Datenrate von maximal 24 MBit/s was dreimal höher ist als das heutige ADSL. Natürlich ist auch hier die Signalverarbeitung gegenüber ADSL verbessert worden.
    Damit sollten dann noch mehr Kunden in den Genuss von DSL kommen können und in Ballungsgebieten kann dem Kunden eine sehr hohe Bandbreite zur Verfügung gestellt werden.

     Gibt es auch ADSL2 mit höherer Sendeleistung?

    Ja! Wie es heute auch verschiedene DSL-Anschlüsse z.B. für Firmen gibt, wird es auch eine ADSL2 Variante geben, die eine höhere Datenrate beim Senden erreichen kann. Allerdings wird diese höhere Datenrate beim senden von Daten aber mit einer niedrigeren Datenrate beim Empfangen von Daten erkauft.

     Braucht man für ADSL2 oder ADSL2+ neue Hardware?

    Ja! Wenn die Anbieter ADSL2 (2+) anbieten und man möchte auf diese Norm umsteigen, benötigt man auch ein neues DSL-Modem, da die heutigen Geräte meistens noch nicht diese Geschwindigkeit ausnutzen können. Allerdings arbeitet ein älteres DSL-Modem unter gleichen Bedingungen auch an ADSL2 (2+). Möchte man also nicht umsteigen, kann man bei seiner alten Hardware bleiben, auch wenn der Netzanbieter bereits auf ADSL2 (2+) umgestellt hat. Umgekehrt funktioniert das natürlich auch. Wer ein ADSL2 (2+) taugliches DSL-Modem hat, kann damit auch am einfachen ADSL- Anschluss arbeiten!

    Ein angeschlossener, externer DSL-Router braucht meist nicht ausgetauscht zu werden, da dieser meist schon mit maximal 100 MBit/s arbeiten sollte.

     Wie werden die Geräte angeschlossen?

    An der Verkabelung ändert sich gegenüber dem einfachen ADSL-Anschluss nichts. Es werden weiterhin folgende Geräte benötigt:

    • DSL-Splitter (wird meist vom Provider zur Verfügung gestellt)
    • NTBA -> nur bei ISDN-Telefon (wird vom Provider zur Verfügung gestellt)
    • DSL-Modem
    • Netzwerkkarte im PC (oder bei einigen Modems auch USB Anschluss)
    • DSL-Router (wenn mehrere PC’s angeschlossen werden sollen)

    Wie diese Verkabelung hergestellt werden kann, habe ich in einem eigenen Artikel bereits ausführlich beschrieben.

     Ab wann kann ich ADSL2 nutzen?

    Fast alle Provider bieten ADSL2(+) Internetzugänge an. ADSL2(+) wird immer dann verkauft, wenn Internetzugänge mit mehr als 6 MB/s angeboten werden. Bestellt man z.B. einen Internetzugang mit 16 MB/s kann man davon ausgehen, dass es sich um einen ADSL2 Anschluss handelt.

     Wie geht es weiter?

    Mit ADSL2(+) hat man noch nicht das Ende des machbaren erreicht! ADSL2(+) hat für bestimmte Anwendungsbereiche noch zu viele Nachteile und ist immer noch zu langsam. Heute (Herbst 2006) beginnt die Verbreitung von IPTV, also das Fernsehen über das Internet. Dafür werden besonders schnelle Breitbandzugänge benötigt, schließlich möchte man IPTV zusätzlich zu den bereits vorhandenen Möglichkeiten (IP-Telefon, Internet) nutzen. Für diesen Zweck hat man VDSL entwickelt. Über VDSL bzw. VDSL2 können Geschwindigkeiten bis zu 200 MB/s realisiert werden, wovon die Netzanbieter derzeit aber nur etwa 50 MB/s nutzen.

    [Zurück zur Übersicht]

  2. AGP LogoAGP PortAGP steht für "Accelerated Graphics Port" und ist ein Grafikkartenanschluss der heute bereits wieder ausstirbt und nur noch vereinzelt auf Hauptplatinen (Mainboards) zu finden ist.
    Die Leistung der Grafikkarten steigt stetig an, das war auch schon in den 90er Jahren so. Da blieb es nicht aus, und der bis dahin verwendete PCI-Bus wurde zu langsam. Auch die Datenanbindung zum Prozessor reichte für die nächste Grafikkartengeneration nicht mehr aus. So brachte der Chiphersteller Intel 1997 den AGP-Port auf den Markt. Da der AGP-Port ausschließlich für Grafikkarten entwickelt wurde, befindet sich meist auch nur ein solcher Anschluss auf den Hauptplatinen.

    Der AGP-Port ist direkt am Chipsatz der Hauptplatine angeschlossen. Dadurch hat dieser eine schnelle Datenverbindung zum Prozessor und zum internen Speicher. Da Speicherbausteine am Anfang sehr teuer waren, konnte eine Grafikkarte so auch problemlos den PC-Speicher mitbenutzen und brauchte nicht so viel des sehr teuren Grafikspeichers besitzen.

    Mainboard mit AGP Anschluss (schwarz)

    AGP-Bus AnschlussAm Anfang hatte der AGP-Port (1x) eine Übertragungsrate von 266 MByte/s, somit schon eine doppelt so hohe wie der PCI-Bus. Die Entwicklung bei den Grafikkarten blieb nicht stehen und der Datendurchsatz musste erhöht werden. Nach AGP 1x kam AGP 2x mit ca. 528 MByte/s, AGP 4x mit ca. 800 MByte/s und zum Schluss AGP 8x mit ca. 2133 MByte/s. Hier ist aber heute das Ende des Machbaren beim AGP-Port erreicht.

    Im Jahr 2004 kam nun der Nachfolger vom AGP-Port und dem PCI-Bus auf den Markt, der so genannte PCI-Express Steckplatz. Er hat zwar nicht mehr eine direkte Datenanbindung zum Chipsatz, was aber heute bei den leistungsstarken Grafikprozessoren und dem schnellen Grafikspeicher auch nicht mehr erforderlich ist, dafür ist der Datendurchsatz verhältnismäßig leicht und flexibel den Bedürfnissen anpassbar.

    AGP Grafikkarte

     [Zurück zur Übersicht]

  3. AMD LiveDie Bezeichnung "AMD LIVE!" wurde 2006 vom Prozessorhersteller "AMD" ins Leben gerufen. Diese Bezeichnung war für Computer vorgesehen, die hauptsächlich im Wohnzimmer als "Multimedia Center" oder auch "Home Theater PC (HTPC)" genannt, stehen sollten. Der Computer muss bestimmte Voraussetzungen erfüllen, um das "Live!"-Logo tragen zu dürfen.

     Was benötigt ein AMD-LIVE! PC?

    AMD gab im September 2008 auf seiner Webseite an, das ein Computer mit diesem Logo einen AMD Prozessor (CPU) mit zwei Prozessorkernen (Dual-Core) mit mindestens der Bezeichnung "4000+" besitzen muss. Empfohlen wurde ein Dual-Core Prozessor mit der Bezeichnung 5200+. Als Chipsatz auf der Hauptplatine sollte mindestens der "AMD 580X" oder ein "NVIDIA nForce 500" für den AM2 CPU Sockel verwendet werden.

    Die Soundausgabe musste mindestens über 5 Lautsprecher plus Basslautsprecher (5.1 System) in HD-Qualität erfolgen. Unterstützt wurde über "LIVE!" aber häufig eine 7.1 HD Surround-Soundausgabe. Das ist heute aber auch schon Standard und bietet bereits jede Hauptplatine an.

    Weiter musste ein "LIVE!" Computer einen Netzwerkanschluss haben, idealer Weise sollte auch ein Funknetzwerk (WLAN) vorhanden sein, was AMD zwar nicht zwingend vorgeschrieben, aber den Herstellern nahe legt wurde.

    Was nützt ein Wohnzimmer PC wenn man diesen erst mehrere Minuten lang hochfahren muss um überhaupt damit zu arbeiten? Darum verwendete AMD LIVE! eine spezielle "Ein- und Ausschaltfunktion" die im PC-BIOS (internes Steuerprogramm) integriert wurde und mittels so genanntem "Away Mode Treiber" gesteuert wird. Dieser Treiber wird von Fa. Microsoft bereitgestellt und in Windows integriert. Dadurch kann ein LIVE! PC schnell hochgefahren und auch schnell in einen "Schlafmodus" (Standby) versetzt werden.

    Für die Datenspeicherung in LIVE!-Systemen musste in AMD LIVE! Computern entweder eine Festplatte nach dem S-ATA(2) Standard oder sogar zwei S-ATA(2) Festplatten in einem RAID Verbund eingebaut sein. Die Festplatte sollte 16 MB Cache Speicher besitzen und NCQ (Native Command Queuing)" unterstützen, um die Geschwindigkeit der Festplatten zu verbessern.
    Die Größe des Arbeitsspeichers gab AMD mit mindestens 1 GB an, wobei 2 GB empfohlen wurden.
    Zusätzlich musste ein optisches DVD+/- RW Laufwerk im PC vorhanden sein.

    Die eingebaute Grafikkarte sollte DirectX 10 unterstützen und mindestens eine GPU vom Typ ATI 2400HD oder NVIDIA 8300 besitzen.
    Idealer Weise sollte die Bildausgabe zumindest über VGA und DVI möglich sein. Ein HDMI Anschluss mit HDCP wird von AMD empfohlen.

    Des Weiteren legte AMD auch großen Wert auf einen leisen LIVE! PC. Es wird unter anderem ein Netzteil gefordert, dass genug Leistung erbringt und einen Temperatur geregelten Lüfter mit möglichst geringer Drehzahl hat.
    Der Prozessor arbeitete, wie schon lange bei AMD üblich, mit der "AMD Cool‘n’Quiet" Funktion. Dadurch wird die Prozessorleistung an die aktuelle Beanspruchung angepasst.

    Auch das zu verwendete Betriebssystem, welches auf einem AMD LIVE! PC installiert sein muss, hat AMD vorgegeben. Es sollte "Windows Vista Home Premium bzw. Ultimate" verwendet werden, wobei auch "Microsoft Windows XP Media Center Edition" benutzt werden konnte.

    Zwei weitere, eigentlich für einen "Media Center" sinnvolle Bestandteile, nämlich eine Fernbedienung und eine TV-Karte hat AMD für das LIVE!-Logo nicht zwingend vorgeschrieben, empfiehlte den Herstellern aber den Einbau. Ein "Media Center" PC für das Wohnzimmer ohne Fernbedienung und TV-Karte macht ja auch keinen Sinn. Daher bauten die Hersteller meist ungefragt diese Hardware ein bzw. legen diese bei.
    Genau so sinnvoll wäre eine Funkmaus und Funktastatur um mit dem PC z.B. vom Sessel aus zu arbeiten. Aber auch das waren nur Empfehlungen von AMD und kein Muss.

    Das AMD Live! Logo gab es auch für tragbare Computer (Laptops), hier sind die Voraussetzungen ähnlich.

     Wie ist die Verbindung zur Unterhaltungselektronik

    Laut anfänglichen Planungen von AMD sollten sich PCs mit dem LIVE!-Logo problemlos auch mit anderen HiFi-Komponenten verstehen, allerdings nur dann, wenn diese Komponenten auch "AMD LIVE!" geeignet sind. Allerdings gab es aber keine reinen HiFi Komponenten mit dem AMD LIVE! Logo.

     Was ist mit HDTV Unterstützung?

    Eines der derzeit wichtigsten Themen in der Unterhaltungselektronik "HDTV" wurde von AMD LIVE! nicht als Voraussetzung angegeben. Es waren weder eine HDTV Fernsehkarte noch ein neues Blu-Ray- oder HD-DVD Laufwerk vorgeschrieben.
    Beim Thema HDTV kommt heute auch immer das Thema "Kopierschutz" zum tragen. Eine Grafikkarte sollte somit einen HDMI- oder DVI Ausgang mit HDCP besitzen. Ein solcher Kopierschutz kann allerdings die TV Aufnahme auf Festplatte verhindern.

     Gab es AMD LIVE!-PCs?

    Ja, einige Hersteller die PCs, aber vor allem auch "Media Center" im HiFi-Komponenten Design angeboten haben, erfüllten die von AMD angegebenen Vorrausetzungen und haben Geräte mit dem "AMD LIVE!" Logo angeboten.

     Warum waren LIVE!-PCs relativ teuer?

    Die geforderten Komponenten wurden ständig an die aktuelle Hardware angepasst. Es wurden nur hochwertige, aktuelle Bauteile verwendet. Nicht zu vergessen auch das Microsoft Betriebssystem und ein meist besonderes Gehäuse im "HiFi Design", damit das Gerät im Wohnzimmer auch ansehnlich aussah. Ein schönes Gehäuse mit Display oder gar LCD Anzeige kostet alleine schon leicht 200,- bis 400,- EUR.
    Dennoch wurden "AMD LIVE!" Computer ständig billiger. Baute man sich selber ein solches Gerät nach den Vorgaben zusammen und hatte man nicht ganz so hohe Ansprüche, bekam man oft schon mit 400,- EUR bis 500,- EUR aus. Ein guter Festplatten SAT-Receiver kostete mindestens genau so viel und kann bei weitem nicht so viel wie ein Wohnzimmer PC.

     Gab es auch Alternativen?

    Ja, auch der Prozessorhersteller "Intel" bot unter der Bezeichnung "Intel Viiv" eine ähnliche Produktreihe an. Allerdings hat Intel bereits im Dezember 2007 angekündigt, die offizielle Unterstützung für "Viiv" einzustellen.

     Fazit:

    AMD LIVE! war in seiner Zeit ein Zeichen für einen PC mit guter, hochwertiger Ausstattung, der auch problemlos in der Lage war, HDTV wiederzugeben. Diese Voraussetzung musste ein PC erfüllen, um als so genannter "MC (Media Center PC)" oder auch "HTPC (Home Theater PC)" verwendet werden zu können.

    Heute erfüllt jeder Einsteiger PC diese Voraussetzungen problemlos. DualCore Prozessoren (CPUs) gehören bereits zur Einstiegsklasse. PCs ohne mindestens 4 GB Arbeitsspeicher und ohne Festplatte mit S-ATA2 Anschluss gibt es so gut wie nicht mehr. Heute werden häufig sogar schon sehr schnelle SSD-Laufwerke verwendet, die um einiges schneller als Standardfestplatten sind.
    Lediglich ein spezielles HTPC-Gehäuse ist nicht Standard, kann man heute aber auch problemlos überall kaufen.

    Kurz gesagt, die Bezeichnungen AMD Live! und auch Intel Viiv wird heute nicht mehr verwendet, bzw. besonders gekennzeichnet, da so gut wie jeder PC die Voraussetzungen erfüllt.

    [Zurück zur Übersicht]

  4. Annex ist eine Spezifikationen die bei DSL-Anschlüssen Verwendung findet. In der Richtlinie G.992.1 für ADSL (Asymmetric Digital Subscriber Line) ist festgelegt, welche Frequenzen für die Sende- und Empfangseinrichtungen über Kupferdoppeladern (Standard Leitungen) von Telefonnetzen verwendung findet.
    Diese unterschiedliche Frequenznutzung ist innerhalb der Richtlinie G.992.1 dann in den "Annex" Spezifikationen beschrieben.

    Welche Annex Spezifikationen gibt es?

    Derzeit sind folgende Annex Spezifikationen festgelegt:

    Spezifikation Telefon analog/digital Schutzband Upstream Downstream ADSL/ADSL2 zusätzlicher Downstream ADSL2+
    Annex A  Bis 4 kHz  Bis 25 kHz  Bis 138 kHz  Bis 1104 kHz  Bis 2208 kHz
    Annex B  Bis 120 kHz  Bis 138 kHz  Bis 276 KHz  Bis 1104 kHz  Bis 2208 kHz
    Annex I  --  --  Bis 138 kHz  Bis 1104 kHz  Bis 2208 kHz
    Annex J  --  --  Bis 276 kHz  Bis 1104 kHz  Bis 2208 kHz
    Annex L  Bis 4 kHz  Bis 25 kHz  Bis 138 kHz  Bis 552 kHz  --
    Annex M  Bis 4 kHz  Bis 25 kHz  Bis 276 KHz  Bis 1104 kHz  Bis 2208 kHz

    Der Bereich Telefon analog/digital wird für „echte“ Telefonverbindungen im analogen oder digitalen (ISDN) Telefonnetz verwendet. Das "Schutzband" ist im Prinzip ein freier, nicht verwendeter Frequenzbereich zwischen den Frequenzen für die "echten" Telefonverbindungen und den Internet basierten (IP – Internet Protokoll) Daten. Der Frequenzbereich für den "Upstream" wird zum Senden von Internetdaten und der Bereich "Downstream" zum Empfangen von Daten verwendet. Beim schnelleren ADSL 2+ gibt es einen größeren Bereich zum Empfangen von Daten (Downstream).
    Bei den Spezifikationen Annex I und Annex J gibt es keinen Frequenzbereich für "echte" Telefonverbindungen. Hier wird alles über das Internet (IP- basierend) abgewickelt. Somit wird auch das Schutzband nicht benötigt.

    Wie werden die Spezifikationen eingesetzt?

    Annex A, L und M haben nur einen kleinen Frequenzbereich für "echte" Telefone – bis 4 kHz. Diese Spezifikationen eignen sich somit lediglich für analoge Telefone.
    Für "echte" digitale (ISDN) Telefonie ist nur Annex B geeignet.

    Annex I und J werden bei ausschließlich IP-basierenden Anschlüssen verwendet. Wobei in Deutschland derzeit nur Annex J Verwendung findet.

    Annex L ist speziell für sehr lange Leitungswege von der Vermittlungsstelle zum Anwender entwickelt worden. Anschlüsse die mit der Spezifikation Annex L geschaltet werden, nennen sich auch "RE-ADSL2". Das "RE" steht hier für "Reach-Extended". Bei dieser Spezifikation werden, besonders bei den niedrigen Frequenzen, der Sendepegel erhöht. Somit kann gegenüber Annex A, welches mit ähnlicher Frequenzeinteilung arbeitet, eine um etwa 40% höhere Reichweite erzielt werden. Annex L Anschlüsse werden bisher seit etwa 2006 nur in Frankreich geschaltet.

    Annex M wurde speziell für Firmenkunden entwickelt. Diese benötigen oft ein höheres Sendevolumen für Daten, können aber auch auf "echte" Telefonanschlüsse nicht verzichten. Über Annex M kann auch in Senderichtung (Upstream) eine Geschwindigkeit bis zu 3,5 Mbit/s erreicht werden. Da Annex M starke Ähnlichkeit mit Annex B und J aufweist, können theoretisch auch hierzulande Annex M Anschlüsse geschaltet werden. Allerdings wurde das bisher, nach meinen Informationen, noch nicht gemacht.

    DSL-Anschlüsse in Deutschland

    NTBATheoretisch werden in Deutschland derzeit nur drei der genannten Spezifikationen verwendet: Annex A, B und J. Wobei hier Annex A eigentlich auch keine Verwendung findet. Das hat einen einfachen Grund: jede Annex Spezifikation benötigt entsprechende Hardware, die diese unterstützt. Um das für die Anbieter einfacher zu gestalten, verwenden alle Anbieter in Deutschland nur Annex B und J. Über den größeren Frequenzbereich für "echte" Telefone bei Annex B können sowohl analoge, als auch digitale Telefone bereitgestellt werden.

    Annex J verwenden die Anbieter für neue Anschlüsse, die (Telefon und Daten) ausschließlich über das Internet (IP- basierend) bereitstellen. Wird ein solcher Anschluss geschaltet, werden beim Kunden auch ganz andere Geräte benötigt. Für das Telefon und den Internetanschluss wird ausschließlich ein Annex J fähiger Router benötigt. Andere Hardware wie Splitter oder NTBA bei digitalen ISDN-Anschlüssen werden nicht mehr verwendet.

    Wie DSL-Anschlüsse verdrahtet werden, habe ich in einem >>eigenen Artikel<< ausführlich beschrieben.

    Vorteile eines Annex J Anschlusses

    Seit ein paar Jahren stellen die Anbieter immer mehr zu IP-basierende Annex J Anschlüsse um. Doch welche Vorteile hat das?

    Für den Nutzer verringert sich der Installationssaufwand. Es müssen nicht mehr bis zu drei Geräte (Splitter, NTBA, Router) installiert werden. Für Annex J Anschlüsse reicht ein passender Router, fertig.
    Auch für die Anbieter verringern sich damit die Kosten. Ein Annex J Router ist, wenn überhaupt, nur unwesentlich teurer als ein Router für Annex B Anschlüsse. Weitere Geräte brauchen nicht abgegeben werden.
    Aber einer der Hauptvorteile für die Anbieter ist, dass nur noch IP basierende Daten übertragen werden müssen. Das vereinfacht die Übertragung deutlich. Für den Upstream wird dadurch ein deutlich breiteres Frequenzband genutzt, was eine schnellere Verbindung zulässt, oder der Anbieter kann Anschlüsse mit einer weiteren Entfernung von der Vermittlungsstelle erreichen.

    Bei Annex B sind Geschwindigkeiten von maximal 1 Mbit/s (Upstream) und 12 Mbit/s (Downstream bei ADSL2) möglich. Annex J bietet dagegen 3,5 Mbit/s (Upstream) und 12 Mbit/s (Downstream bei ADSL2) bzw. 24 Mbit/s (Downstream bei ADSL2+).

    Fazit

    DSL-Anschlüsse über Annex J werden immer häufiger geschaltet werden. Die Telekom hatte sogar angekündigt, bis in ein paar Jahren, alle Anschlüsse auf IP basierende Annex J Anschlüsse umzustellen. In wie weit sich das so verwirklichen lässt, bleibt abzuwarten. Sicher werden aber neue Anschlüsse voraussichtlich nur noch Annex J Anschlüsse sein.

    Ob und wann auch bei uns andere Spezifikationen verwendung finden werden, bleibt abzuwarten. Allerdings stehen mit Annex B und Annex J derzeit Spezifikationen mit ausreichend Leistung zur Verfügung.

     [Zurück zur Übersicht]

  5. Mit Antialiasing bezeichnet man die so genannte "Kantenglättung" bei Texten und Grafiken. Die Grafikkarte erzeugt jede Bildausgabe aus vielen kleinen Punkten. Bei senkrechten oder waagerechten Linien gibt es dabei auch keine Probleme. Die Linien werden sauber dargestellt. Muss aber eine Rundung oder eine schräge Linie erzeugt werden, muss die Grafikelektronik diese durch aneinandersetzen vieler kleiner Quadratischer Punkte (Pixel) erzeugen. Dadurch kann keine saubere Rundung dargestellt werden, es entsteht der so genannte "Treppeneffekt". Je nach Bildauflösung kann man bei Rundungen und schrägen Linien dann deutlich die Abstufungen erkennen.

    Antialiasing bei Schriftzeichen

    Bei Schriftzeichen ist Antialiasing noch verhältnismäßig einfach umzusetzen und wird sogar standardmäßig heute meist immer verwendet. Damit der Treppeneffekt z.B. bei schwarzer Schrift weniger auffällt berechnet der Antialiasing Effekt nun graue Bildpunkte in verschiedenen Helligkeiten um das vorhandene Zeichen herum. Dabei werden aber auch Teile die ohne Antialiasing satt in einer Farbe dargestellt werden in Grautöne umgewandelt.
    Bei anderen Farben ist es ähnlich. Benutzt man z.B. eine blaue Schrift, werden hellblaue Bildpunkte um das Zeichen erzeugt. Dadurch wirkt der Rand der Zeichen weicher und der Treppeneffekt fällt weniger stark auf.

    Das hat aber auch einen Nachteil: der Antialiasing-Effekt erzeugt für das Menschliche Auge eine "Unschärfe". Der Text wirkt somit nicht mehr so klar. Außerdem gibt es Probleme wenn eine sehr kleine Schrift gewählt wird. Durch den Antialiasing-Effekt ist diese dann nur noch schwer lesbar.

    Antialiasing  

    Antialiasing bei Grafiken

    Bei (3D) Grafiken galt der Antialiasing-Effekt lange als Domäne für sehr teure Hochleistungsgrafikkarten, da Antialiasing die Grafikausgabe deutlich verlangsamt. Darum werden bei Grafiken meist auch mehrere Antialiasing-Stufen angeboten, die je nach Computer- und Grafikkartenleistung eingestellt werden können.
    Antialiasing wird zwar bereits seit der 3D-Zusatzgrafikkarte von 3dfx-Interactive, der Voodoo 4, unterstützt, wurde aber meist nur selten vom Anwender aktiviert. Der Hintergrund für den hohen Rechenaufwand ist, dass der Antialiasing-Effekt bei Grafiken viel aufwendiger ist als bei zweifarbiger Schrift. Bei Grafiken kann ja im Prinzip jeder Punkt eine andere Farbe haben. Die Grafikelektronik muss somit immer passende Farben für einen weichen Übergang zwischen den verschiedensten Flächen berechnen.
    Dazu wird meistens ein Bild in einer viel höheren Auflösung berechnet und dann je nach eingestellter Antialiasing-Stufe wieder runtergerechnet. Dabei entstehen "überzählige" Bildpunkte die dann dem Bild zugefügt werden. Je höher die Antialiasing-Stufe eingestellt ist, je genauer kann der Übergang berechnet werden aber je rechenintensiver ist auch der Aufwand für die GPU. Ist z.B. eine Bildauflösung von 1024 x 768 Punkte eingestellt und es wird eine 4-fache Antialiasing-Stufe gewählt, berechnet die Grafikkarte intern das Bild in der 4-fachen Auflösung und rechnet dieses dann wieder runter auf 1024 x 768 Pixel.
    Die Antialiasing-Funktion kann erst bei heutigen (Jahr 2005), aktuellen Grafikkarten vernünftig benutzt werden, da die GPU- und die Grafikspeicherleistung schnell genug sind, damit bei aufwendigen Spielen die Grafikleistung nicht übermäßig ausgebremst wird.

    Fazit

    Antialiasing kann in Maßen eingesetzt eine deutliche Kantenglättung erzeugen. Allerdings wirkt besonders Schrift dadurch etwas unscharf. Es muss jeder für sich entscheiden, welche Darstellung angenehmer ist.
    Bei Grafiken bringt Antialiasing dagegen häufig eine "bessere" Qualität, da ja auch in der Natur meist die Farben nicht hart ineinander übergehen. Allerdings setzt gerade Antialiasing bei Grafiken eine hohe Computer- und Grafikkartenleistung voraus.

    [Zurück zur Übersicht]

  6. ATA SteckerATA (Advanced Technology Attachment) oder auch IDE genannt, ist ein veralteter Anschluss für interne PC Geräte wie Festplatten, CD-ROM, DVD-ROM, Brennern u.s.w. Der ATA-Anschluss erfolgt über einen 40-poligen Stecker. Für die Verbindung zu den Speichergeräten wird eine Flachbandleitung verwendet. Die Daten werden parallel über diese Datenleitung übertragen.

    Wie ist die ATA Schnittstelle entstanden?

    Ein Festplattenhersteller entwickelte Mitte der 80er Jahre eine genormte Anschlussmöglichkeit für Festplatten. Dieser Hersteller nannte seinen Anschluss IDE. Daraufhin schlossen sich weitere Hersteller zusammen und entwickelten daraus dann Ende der 80er Jahre den ATA-1 Anschluss. Ab diesem Zeitpunkt wurde dieser Anschluss dann von allen Herstellern verwendet.

    Wie funktioniert der ATA Anschluss?

    An einem ATA-Anschluss können maximal zwei Laufwerke angeschlossen werden. Dabei muss das erste Laufwerk als "Master" und das zweite Laufwerk als "Slave" eingestellt werden. Hauptplatinen besaßen früher meist zwei solcher Anschlüsse. Bei zwei ATA-Anschlüssen können somit maximal 4 Laufwerke daran angeschlossen werden. Zu beachten ist beim Anschluss noch, dass das langsamste Laufwerk an einem Anschluss die Geschwindigkeit an diesem vorgibt. Es sollten möglichst schnellere Laufwerke mit dem einen und langsamere Laufwerke mit dem anderen ATA-Anschluss verkabelt werden. Heute ist dieser Anschluss weit in den Hintergrund geraten. Es werden, wenn überhaupt, oft nur noch ein ATA-Anschluss auf der Hauptplatine zur Verfügung gestellt.
    Beim ATA Anschluss benutzt man zwei Modi zum Datenaustausch zwischen den Speichergeräten und dem Computer:

    Den PIO-Mode (Programmed Input/Output). Dieser Modus wird über die CPU des Computers gesteuert und kostet somit Rechenleistung. Allerdings beherrschen den PIO-Mode alle Betriebssysteme, dieser ist somit in jedem Computer einstellbar.

    Den DMA-Mode (Direct Memory Access). Bei diesem Modus wird der Datentransfer nicht von der CPU gesteuert. Daher belastet der DMA-Mode auch kaum die Rechenleistung. Der DMA-Mode ist immer schneller als der PIO-Mode und sollte eingestellt werden, wenn das vom Laufwerk und vom Betriebssystem unterstützt wird. Aktuelle Laufwerke und Betriebssysteme können alle im DMA-Mode arbeiten.

    Im laufe der letzten Jahre ist die Geschwindigkeit der Computer stetig gestiegen. Das hatte natürlich auch zur Folge, dass die Datenübertragung im Computer gesteigert werden musste. So wurde auch der ATA Anschluss weiter entwickelt.

     ATA-1 (IDE) Standard ab etwa 1989:

    Der "Ur-ATA" Anschluss arbeitet noch asynchron und kann entweder im PIO-Mode 0 (3,3 MB/s), 1 (5,2 MB/s), 2 (8,3 MB/s), oder im DMA-Mode 0 (2,1 MB/s) betrieben werden. Ist an einem ATA-1 Anschluss nur ein Laufwerk angeschlossen, sind auch der DMA-Mode Singel 1 (4,2 MB/s) und Singel 2 (8,3 MB/s) möglich.

     ATA-2 (EIDE) Standard ab etwa 1994:

    Ab dem ATA-2 Standard arbeitet dieser synchron. Außerdem sind folgende Übertragungsmöglichkeiten dazu gekommen: PIO-Mode 3 (11,1 MB/s) und 4 (16,6 MB/s), sowie der DMA-Mode 1 (13,3 MB/s) und 2 (16,6 MB/s).

     ATA-3 Standard ab etwa 1996:

    Beim ATA-3 Standard wurde an der Übertragungsgeschwindigkeit nichts geändert. Hier wurden allerdings zwei recht nützliche Funktionen integriert. Zum einen die "S.M.A.R.T" Funktion und zum anderen der Secure Mode.

     ATA-4 / ATAPI-4 Standard ab etwa 1997:

    Im ATA-4 Standard wurde die DMA-Geschwindigkeit weiter gesteigert. Um diese neue, höhere Geschwindigkeit besser zu verkaufen nannte man die neuen DMA-Geschwindikkeiten jetzt UltraDMA-Mode. Außerdem wurde der ATA-4 Standard auch um die Fähigkeit erweitert Treiberlos andere Laufwerke zu unterstützen. Bis zum ATA-3 Standard war der ATA Anschluss den Festplatten vorbehalten. CD-Rom Laufwerke mussten an andere Anschlüsse, die meist auf Soundkarten bereitgestellt wurden, angeschlossen werden. Außerdem waren bis zur Einführung des ATA-4 Standards immer Treiber für den Betrieb von CD-Rom Laufwerken erforderlich. Durch diese Erweiterung nannte man ATA-4 jetzt auch ATAPI-4 (Advanced Technology Attachment Packet Interface). Die neuen Übertragungsgeschwindigkeiten sind der UltraDMA-Mode 0 (16,7 MB/s), 1 (25 MB/s) und 2 (33,3 MB/s). Heute arbeiten noch fast alle CD-Rom, DVD-Rom und Brenner, die für den ATA-Anschluss gebaut sind, mit diesem Standard.

     ATA-5 / ATAPI-5 Standard ab etwa 1999:

    ATA LeitungenBeim ATA-5 Standard wurde weiter an der Geschwindigkeitsschraube gedreht. Inzwischen wird die bisher verwendete 40-adrige Flachbandleitung aber immer Störanfälliger. So bediente man sich ab dem ATA-5 Standard eines kleinen Tricks: neben jeder Datenleitung wird eine Masseleitung verwendet, die als zusätzliche Abschirmung der einzelnen Datenleitungen dient. Somit müssen Geräte ab dem ATA-5 Standard mit 80-adrigen Flachbandleitungen verbunden werden. Die verwendeten 40-poligen Stecker konnten aber erhalten bleiben. Somit ist auch dieser Anschluss weiterhin Abwärts kompatibel. Neu eingeführt wurde der UltraDMA-Mode 3 (44,4 MB/s) und der Mode 4 (66,6 MB/s). Diesen Modus nennt man auch "UDMA-66" Mode. Verwendung findet der ATA-5 Mode überwiegend nur noch bei Festplatten. Andere Laufwerke benötigen nicht so eine große Übertragungsgeschwindigkeit und kommen weiterhin mit dem ATA-4 Mode aus.

     ATA-6 / ATAPI-6 Standard ab etwa 2000:

    Eine weitere und für diesen Anschluss letzte Steigerung war der ATA-6 Mode. Hier wurde nochmals an der Geschwindigkeitsschraube gedreht und der UltraDMA-Mode 5 (100 MB/s) eingeführt. Diesen nennt man auch ATA100 (UDMA 100).
    Einige Hersteller verwenden aber auch den inoffiziellen UltraDMA-Mode 6 (133 MB/s). Man findet dafür auch Bezeichnungen ATA133 (UDMA 133).
    Angeschlossen werden die Festplatten auch hier wieder mit 80-adrigen Flachbandleitungen.

    ATA Anschlüsse 

    ...und wie geht es weiter?

    Vergleich ATA zu einem S-ATA KabelMit dieser Änderung ist das Ende der ATA/ATAPI – Schnittstelle erreicht. Die verwendete Flachbandleitung ist nicht dafür ausgelegt, Daten mit so einer hohen Geschwindigkeit fehlerfrei zu übertragen. Eine ATA-Leitung darf auch höchstens 45 cm lang sein, was bei großen Server-Gehäusen schon mal zum Problem werden kann. Außerdem ist bei heutigen Hochleistungsrechnern, mit einer enormen Wärmeentwicklung, eine so breite Leitung im Gehäuse für die Kühlung nur hinderlich. Werden beide ATA-Schnittstellen benötigt, sind schon zwei solche breiten Leitungen erforderlich. Dazu kommt dann eventuell noch eine Flachbandleitung für das Diskettenlaufwerk. Gut, es gibt inzwischen auch Rundleitungen für den ATA-Anschluss. Diese verbessern zwar die Kühlung, sie ändern aber nichts an der Störanfälligkeit.

    Seit 2000 ist nun auch ein Nachfolger der ATA-Schnittstelle gefunden. Diese neue Schnittstelle nennt sich S-ATA und arbeitet mit der seriellen Datenübertragung. Inzwischen hat der S-ATA Anschluss schon die ATA-Schnittstelle abgelöst. Auf aktuellen Hauptplatinen findet man heute bereits einige S-ATA Anschlüsse, aber oft, wenn überhaupt nur noch eine ATA-Schnittstelle für zwei Geräte. Heute werden alle internen Geräte wie Festplatten, DVD- und CD Laufwerke fast ausschließlich nur noch in einer S-ATA Version angeboten. Die ATA-Schnittstelle wird komplett verschwinden.

    [Zurück zur Übersicht]

  7. Bluetooth Logo

    Bluetooth ist ein Standard für die drahtlose Verbindung mobiler Geräte und steht als Konkurrent zu Wireless LAN. Der Name Bluetooth heißt frei übersetzt "Blauzahn" und ist abgeleitet vom dänischen König Harald Blåtand. Diesem König gelang es große Bereiche von Skandinavien unter seiner Herrschaft zu vereinen. So soll auch das Funknetzwerk "Bluetooth" große Bereiche Mobiler Geräte zu einem Netzwerk vereinen.

     Seit wann gibt es Bluetooth?

    Bluetooth wurde 1994 vom Mobiltelefon Hersteller "Ericsson" als Ersatz für die Kabelgebundene Verbindung zwischen Mobiltelefon und Computer entwickelt. In den darauf folgenden Jahren verbesserte die Firma Ericsson diesen Standard immer weiter bis sich dann 1998 neben Ericsson noch weitere Firmen zur Arbeitsgruppe "Bluetooth SIG" (Bluetooth Special Interest Group) zusammengeschlossen haben. Von da an konzentrierte man sich nicht nur auf den Mobiltelefon Markt sondern wollte Bluetooth als Übertragungsstandard für alle mobilen Geräte etablieren. Dazu sollte Bluetooth bei niedrigem Energieverbrauch wie ein Netzwerk alle erdenklichen Daten übertragen können. Im Jahr 2000 erschien das Erste Handy mit Bluetooth-Technik. Seit 2002 ist Bluetooth jetzt auch als offizieller "IEEE 802.15.1 (Institute of Electrical and Electronics Engineers)" Standard anerkannt.

     Wie funktioniert Bluetooth?

    Bluetooth hat man so entwickelt, dass es mit möglichst wenig Energie einen hohen Nutzen liefert. Somit eignet sich Bluetooth besonders für den Einsatz in mobilen Geräten, die sowieso mit Energie sehr sparsam umgehen müssen. Auch hat man bei der Entwicklung darauf wert gelegt, dass ein Anwender eine Verbindung nicht noch aufwendig konfigurieren muss. Abgelegte Profile (siehe unten) erlauben es, dass man Bluetooth einfach nur einschalten muss und die Geräte verbinden sich fast selbstständig und wissen was das andere Gerät kann.
    Bluetooth "funkt" im ISM-Band (Industrial Scientific Medical Band) zwischen 2,402 GHz und 2,480 GHz und ist (fast) weltweit Lizenzfrei nutzbar. Hier kann es aber Störungen anderer Funkverbindungen wie Wireless LAN, Schnurlostelefone oder Mikrowellen geben. Damit die Störungen bei einer Bluetooth Übertragung aber so gering wie möglich gehalten werden, nutzt man das so genannte "Frequenzsprungverfahren". Dabei wird die genutzte Frequenz mehrmals in der Sekunde gewechselt.

     Wozu dienen die Bluetooth Klassen?

    Damit man den Stromverbrauch und auch die Sicherheit bei der Bluetooth-Verbindung noch flexibel halten kann, wurden drei Sendeleistungsklassen eingeführt. So braucht z.B. eine Verbindung bei einem Mobiltelefon nicht mit so einer hohen Leistung betrieben werden, da davon ausgegangen werden kann, dass ein "angeschlossenes" Bluetooth Gerät wie Computer oder Freisprecheinrichtung sich in unmittelbarer Nähe befindet. Eine Bluetooth-Karte für den Computer dagegen sollte mit voller Leistung betrieben werden, da es da meist auf die Überbrückung größerer Entfernungen ankommt. Folgende Sendeleistungsklassen wurden festgelegt:

    • Klasse I = 100mW, entspricht etwa 20 dBm (Dezibel Milliwatt) und hat eine Reichweite von ca. 100 m
    • Klasse II = 2,5 mW, entspricht etwa 4 dBm (Dezibel Milliwatt) und hat eine Reichweite von ca. 10 m
    • Klasse III = 1 mW, entspricht etwa 0 dBm (Dezibel Milliwatt) und hat eine Reichweite von ca. 1 m

    Man sollte aber bedenken, dass mit geeigneter Technik diese Reichweiten vergrößert werden können! So soll es z.B. möglich sein, mit einer speziellen "Richtantenne" und Sichtverbindung, ein Handy mit eingeschaltetem Bluetooth noch aus über 1,5 km Entfernung anzusprechen!

     Welche Geschwindigkeit ist möglich?

    Ist eine Bluetooth Verbindung aufgebaut, stehen mehrere Übertragungskanäle zur Verfügung. Es gibt dabei so genannte synchrone Kanäle und es gibt einen asynchronen Datenkanal.
    Bis zur Bluetooth Version 1.2 ist eine Datenübertragungsgeschwindigkeit bei den synchronen Kanälen, oder auch "Leitungsvermittelte-Verbindung" (SCO) genannt, mit 64 kBit/s, also in etwa ISDN-Geschwindigkeit möglich. Diese Kanäle sind besonders für die Musik- und Sprachübertragung zu Kopfhörern oder Sprechgarnituren geeignet.
    Über den asynchronen Datenkanal, der auch "Paketvermittlung" (ACL) genannt wird, können Daten entweder "asymmetrisch" mit maximal 732,2 kBit/s in der einen und gleichzeitig mit 57,6 kBit/s in der anderen Richtung, oder "symmetrisch" mit 433,9 kBit/s in beide Richtungen übertragen werden. Dieser eignet sich somit gut zum Austausch von Daten, da es hier auf hohe Geschwindigkeiten ankommt.

    Bis zur Version 1.2 beträgt die Übertragungsleistung einer Bluetooth-Verbindung somit etwa 1 MB/s, abzüglich der Kontrolldaten bleiben ca. 800 kBit/s für reine Daten übrig.

    Mit Bluetooth Version 2.0 wurde eine Datenbeschleunigung mit dem Namen "EDR" (Enhanced Data Rate) oder auf deutsch (verbesserte Datenrate) eingeführt. EDR beschleunigt eine Datenverbindung um etwa das Dreifache. Die Übertragungsleistung einer Verbindung mit Version 2.0 steigt somit auf 3 MBit/s, abzüglich der Kontrolldaten bleiben noch etwa 2,1 MBit/s übrig.

    Da es immer auf eine hohe Datenübertragungsrate ankommt, wurde mit Bluetooth 3.0 nochmals an der Geschwindigkeitsschraube gedreht. Durch die Einführung eines Highspeed-Kanals und der Umstellung auf eine andere Übertragungsart konnte die Geschwindigkeit auf 24 Mbit/s erhöht werden. Man plante sogar, bei Bluetooth 3.0 auf eine Geschwindigkeit bis 480 Mbit/s zu kommen. Dazu wollte man UWB (Ultrabreitband) als physikalische Übertragungsart und WiMedia MAC als Protokollschicht nutzen. Diese Planungen hat man allerdings Ende 2009 aufgegeben.

    Mit der Version 4.0 wurde eine Low Energy Funktion entwickelt, die den Stromverbrauch deutlich reduziert. Bei Bluetooth 4.0 LE soll die Stromaufnahme unter 20 mA liegen. Im Idealfall sollen sogar nur 15 mA verbraucht werden. Theoretisch könnte man Bluetooth somit über Jahre mit einer Knopfzelle betreiben. Bei der Geschwindigkeit wurde nicht viel verändert. Auch die Version 4.0 liegt in etwa auf dem Niveau von Version 3.0. Im Low Energy Modus soll immer noch 1 MBit/s möglich sein.

     Welche Bluetooth Versionen gibt es bisher?

    Bis heute (2013) sind folgend Bluetooth Versionen erschienen:

    • Version 1.0: Die erste Bluetooth-Version erschien 1999. Diese war noch mit Fehlern behaftet und man erkannte schon bald Sicherheitsprobleme.
    • Version 1.1: Kurz darauf erschien die Version 1.1. Es wurden Fehler beseitigt und neue Funktionen hinzugefügt.
    • Version 1.2: Im Jahr 2003 kam diese Version heraus. Es wurden weitere Verbesserungen unternommen. Besonders die Störanfälligkeit wurde durch das ständige wechseln der Frequenz deutlich verbessert.
    • Version 2.0: 2004 wurde mit der Version 2.0 und dem Beschleuniger "EDR" eine große Veränderung unternommen. Bluetooth ist nun etwa dreimal so schnell wie vorher.
    • Version 2.1: Im August 2007 erschien die sogenannte Lisbon Release auch mit dem Beschleuniger "EDR". Mit dieser können nun Geräte einfacher miteinander "verbunden" werden (Secure Simple Pairing) und Quality of Service (QoS) für eine besser Güte der Verbindung.
    • Version 3.0: Im April 2009 wurde diese Version (Seattle Release) offiziell verabschiedet. Hier wird als wichtigste Neuerung die Unterstützung eines Highspeed-Kanals eingeführt (Version 3.0+HS). Dieser Kanal arbeitet ähnlich wie ein heutiges Funknetzwerk (WLAN) bzw. UWB (Ultra Wide Band - auf Deutsch: Ultra-Breitband-Technologie). In Version 3.0 funktioniert die Kommunikation zwischen den einzelnen Geräten Peer-to-Peer und nicht wie bisher per Multicast. Multicast Verbindungen werden von einem Punkt zu einer Gruppe von Geräten aufgebaut. Ein Gerät ist dabei der "Sender" die anderen "Empfänger". Bei Peer-to-Peer Verbindungen ist jedes Gerät gleichberechtigt, kann also nicht nur Daten senden, sondern auch empfangen.
      Version 3.0 gibt es auch als "EDR" Version und nennt sich entsprechend Version 3.0 + EDR.
    • Version 4.0: Das ist die derzeit (2013) aktuelle Version. Bluetooth 4.0 wurde im Dezember 2009 verabschiedet und stellte als Hauptneuerung neue Profile zu Low Energy zur Verfügung. Low Energy bei Bluetooth bewirkt die Reduzierung des Stromverbrauchs durch kürzere Aufbauzeiten einer Übertragung. In weniger als fünf Millisekunden kann so eine Übertragung aufgebaut und es kann diese jetzt bis zu einer Entfernung von 100 Metern aufrecht gehalten werden. Das ist besonders bei Mobilgeräten von großem Vorteil, da eine Verbindung jetzt deutlich stabiler gehalten werden kann und das bei geringerem Energieverbrauch.

     Können sich mehrere Geräte gleichzeitig verbinden?

    Bluetooth bis zu Version 2.1 ist im Prinzip ein Netzwerk und wird "Piconet" genannt, es können darin bis zu 255 Geräte miteinander verbunden werden. Von diesen 255 Geräten können aber maximal nur 8 "Aktiv" sein, die anderen stehen auf "Abruf". Wird ein solches Gerät, welches auf "Abruf" steht angesprochen, muss ein anderes Gerät in den "Abruf-Modus" wechseln und das neue Gerät ist sofort einsatzbereit.
    Ein Bluetooth Piconet besteht immer aus einem "Master", und bis zu sieben "Slaves". In jedem Piconet darf es nur ein "Master" Gerät geben. Das "Master" Gerät übernimmt die Steuerung des Piconet und ist für den Verbindungsaufbau zu den "Slaves" verantwortlich. Für die "Master" Geräte bestimmt man meistens Handys, Computer oder PDA's. "Slave" Geräte sind z.B. Drucker oder Kopfhörer. Wobei allerdings fast jedes Gerät zum "Master" werden kann.
    Es ist möglich, dass ein Gerät in mehreren Piconetzen gleichzeitig angemeldet ist. Somit könnte z.B. ein Drucker per Bluetooth gleichzeitig mit zwei Computern verbunden werden, so dass man von beiden Computern drucken kann.
    Allerdings darf jedes Gerät nur in einem Piconet als Master fungieren. Auch möglich ist es, dass ein Gerät z.B. in einem Piconet als "Master" funktioniert und gleichzeitig als "Slave" in einem anderen Piconet angemeldet ist.
    Es können bis zu zehn solcher "Piconetze" miteinander verbunden werden. Diesen Zusammenschluss nennt man dann "Scatternet. Dieser Ausdruck kommt aus dem englischen und steht für "scatter" = ausstreuen.

    Hier noch ein Beispiel: Hat man zwei Computer und einen Drucker die über Bluetooth kommunizieren sollen, bildet man am besten zwei Piconetze. Beide Computer übernehmen in jedem dieser Piconetze die "Master" Funktion. Damit können beide Computer jetzt den Drucker in ihr Piconetz als "Slave" einbinden. Damit man auch Daten zwischen den Computern austauschen kann, bindet man an jedem Computer dann den anderen als "Slave" ein.

    Ab Bluetooth 3.0 ist ein verbindungsloser Betrieb in Sende- und Empfangsrichtung möglich. So können Daten wie in einem Standartnetzwerk zwischen den verbundenen Geräten hin und her geschickt werden. Die Einteilung in "Master" und "Slave" entfällt somit.

     Wie wird eine Verbindung aufgebaut?

    Nehmen zwei Bluetooth-Geräte Kontakt zueinender auf wird eine Authentifizierungsfunktion, die bereits im Bluetooth-Standard festgelegt ist, gestartet. Dazu tauschen die Geräte eine 48 Bit lange Seriennummer (Mac-Adresse) aus, die am entsprechend anderen Gerät akzeptiert werden muss. Nun tauschen die Geräte noch ihre Profile (siehe unten) aus. Anhand dieser Profile erkennen die Geräte nun was das andere Gerät kann. Erst danach besteht die Verbindung. Diesen Abgleich muss man nur einmal durchführen. Bei der nächsten "Verbindung" erkennen sich die Geräte dann sofort. Dazu werden so genannte "Protokolle" angelegt.
    Darüber hinaus können die Daten noch mit einem 128-Bit Schlüssel kodiert werden. Dieser Schlüssel wird bei jedem Verbindungsaufbau automatisch gewechselt.

    Seit 2005 wird vermehrt auch NFC (Near Field Communication, auf deutsch „Nahfeldkommunikation") eingesetzt, um eine Verbindung zwischen zwei Bluetooth Geräten herzustellen. Dafür benutzt Bluetooth das zusätzliche RF-Protokoll.

     Ist eine Bluetooth Verbindung dann sicher?

    Gegenfrage: Ist ein Kopierschutz sicher? Man kann nur sagen, dass Bluetooth üblicher Weise eine recht sichere Verbindung aufbaut. Einen Profi, der es auf den Angriff per Bluetooth abgesehen hat, wird man oft nicht aufhalten können.
    Bei Tonübertragungen wird ein Abhören durch das Frequenzsprungverfahren deutlich erschwert. Bei Datenverbindungen z.B. zwischen zwei Handys wird beim ersten Verbindungsaufbau zweier unbekannter Geräte immer eine Bestätigung verlangt. Darüber hinaus besitzt Bluetooth eine relativ geringe Reichweite, was bereits einen natürlichen Schutz darstellt.
    Allerdings muss man auch selber für die Sicherheit sorgen: Werden PIN's benötigt sollten diese möglichst lang gewählt werden. Bluetooth sollte man immer nur dann einschalten, wenn man es auch wirklich benötigt. In Bereichen mit vielen Menschen (Flughäfen, Bus, Bahn) sollte man auf Bluetooth verzichten. Im Handy möglichst immer den "Sichtbarkeitsmodus" deaktivieren. Darüber hinaus immer wachsam sein, wenn eine Verbindungsbestätigung verlangt wird!

    2005 ist es Forschern gelungen, eine Bluetooth Verbindung zu knacken. Es wurde mit einem Störsignal deine bestehende Bluetooth Verbindung unterbrochen. Die Geräte versuchen daraufhin, eine neue Verbindung herzustellen. Diesen Verbindungsaufbau belauscht dann der Eindringling und schaltet sich in diese Verbindung. Wenn ein nummerischer PIN gefragt wird, wird dieser in Windeseile mit der so genannten Brute-Force-Methode (austesten der einzelnen Zahlen) ermittelt. Bei dieser Methode hilft sogar der "Unsichtbarkeitsmodus" nichts.
    Abhilfe schaffen gegen solche Angriffe nur lange PIN-Schlüssel mit mehr als 8 Stellen oder feste auf den Geräten gespeicherte Schlüssel. Wird die Verbindung dann unterbrochen, wird kein neuer PIN angefordert, sondern die Verbindung wird mit dem bereits gespeicherten Schlüssel wieder hergestellt.

     Was könnte ein Eindringling machen?

    Im Prinzip ist Bluetooth ein Netzwerk. Das heißt, gelingt es einem Profi per Bluetooth Zugang zu einem Gerät zu bekommen, ist fast alles möglich! Je nach Gerät und unterstützten Profilen, könnte der Eindringling Daten runter kopieren, Daten löschen oder verändern, er könnte Telefonverbindungen aufbauen oder SMS unter dem Namen des Besitzers verschicken und nicht zu vergessen, es können persönliche Daten (Bilder, Kontakte) eingesehen werden.

     Wie werden die Geräte unterschieden?

    Damit z.B. ein Computer über Bluetooth einen Drucker als solchen erkennt, gibt es festgelegte Profile. Diese werden bei der "Kontaktaufnahme" unter den Geräten ausgetauscht. Wird in einem Raum z.B. ein Kopfhörer und ein Drucker per Bluetooth mit dem Computer verbunden, wird der Computer z.B. nie zu druckende Daten an den Kopfhörer senden.
    Aber auch diese Profile wurden im laufe der Zeit ständig erweitert. Das aktuelle Profil für die Übertragung von Audiodaten zu Kopfhörern ist z.B. "A2DP". Damit sich der Bluetooth Kopfhörer auch z.B. mit dem Handy koppeln kann, müssen beide Geräte dieses Profil unterstützen.

    Hier eine alphabetische Liste aller wichtigen Bluetooth Profile:

    Profil  Profilbeschreibung  Funktion des Profils 
    A2DP  Advanced Audio Distribution Profile  Audio Übertragungen 
    AVRCP  Audio Video Remote Control Profile  Fernbedienung für Audio und Video  
    BIP  Basic Imaging Profile  Bild Übertragungen im JPEG Format 
    BPP  Basic Printing Profile  Einfache Druckdienste  
    CIP  Common ISDN Access Profile  ISDN Verbindung über CAPI Schnittstelle 
    CTP  Cordless Telephony Profile  Schnurloses telefonieren 
    DUN  Dial-up Networking Profile  Verbindung über Access Point ins Internet 
    ESDP  Extended Service Discovery Profile  Erweiterte Erkennung von Bluetooth Geräten 
    FAX, FAXP FAX Profile  Profil für die Faxübertragung 
    OBEX-FTP File Transfer Profile  Datenaustausch über TCP/IP 
    GAP  Generic Access Profile  Verbinden von Bluetooth Geräten 
    GAVDP  Generic AV Distribution Profile  Übertragung von Audio- & Videosignalen 
    GOEP  Generic Object Exchange Profile  Austausch von Objekten (Dateien, Visitenkarten) 
    HCRP  Hardcopy Cable Replacement Profile  Dokumentenausgabe auf Druckern 
    HDP Health Device Profile sichere Verbindung zwischen medizinischen Geräten
    HFP  Hands Free Profile  Verbindung zu Auto- Freisprechanlagen 
    HID  Human Interface Device Profile  Verbindung zu Tastaturen & Mäusen 
    HSP  Headset Profile  Verbindung zu Kopfhörern 
    INTP, ICP Intercom Profile  Sprechfunk Funktion (Walkie-Talkies) 
    LAP  LAN Access Profile (nur Version < 1.2)  Verbindung zu Netzwerken 
    MAP Message Access Profile Nachrichtenaustausch zwischen Geräten
    MDP  Medical Device Profile  Verbindung medizinischer Geräte 
    OBEX Object Exchange generische Datenübertragung zwischen Geräten
    OPP  Object Push Profile  Adress- und Terminaustausch 
    PAN  Personal Area Networking Profile  Verbindung / Erstellung eines Netzwerkes 
    PBA, PBAP Phonebook Access Profile Lesezugriff auf Telefonbuch
    SAP, SIM, rSAP SIM Access Profile  Zugriff auf die Handy SIM-Karte 
    SCO Synchronous Connection-Oriented link Zugriff auf ein Hadset (Mikrofon und Lautsprecher)
    SDAP  Service Discovery Application Profile  Sucht Bluetooth Geräte in Reichweite 
    SPP  Serial Port Profile  Simuliert eine Serielle Schnittstelle 
    SYNCH, SYNC Synchronisation Profile  Datenabgleich zwischen Geräten 
    VDP Video Distribution Profile Übertragung von Videodaten

     Welche Vorteile hat Bluetooth?

    Es gibt neben Bluetooth noch Infrarot (IrDA), Wireless LAN und NFC (Near Field Communication) als verbreitete Drahtlose Datenverbindung. Bluetooth hat seit der Version 2.x deutlich an Geschwindigkeit zugelegt. Bis zur V1.2 galt Bluetooth als die langsamste Verbindungsmöglichkeit. Bluetooth ist sehr günstig herzustellen, kompakt aufzubauen und benötigt am wenigsten Strom und ist damit erste Wahl bei mobilen Geräten. Auch benötigt man bei Bluetooth keinen direkten Sichtkontakt. IrDA hingegen benötigt immer Sichtkontakt und ist nur für sehr geringe Entfernungen geeignet. NFC verbreitet sich inzwischen bei mobilen Geräten auch sehr schnell, wobei hierfür eine nahezu direkte Berührung der Geräte erfolgen muss.

     Fazit

    Bluetooth gehört die Zukunft! Nachdem nun mit der V2.x auch die Geschwindigkeit stimmt, verwenden immer weniger Hersteller IrDA (Infrarot). Bluetooth hingegen findet Einzug in immer mehr Geräten. Nicht nur in Handys oder PDA's findet man heute Bluetooth, auch in medizinischen Geräten, Spielkonsolen, Spielzeug und in der kompletten Unterhaltungselektronik wird immer häufiger Bluetooth eingesetzt.

    [Zurück zur Übersicht]

  8. C-States (Energie Zustand) nennt man Energiesparmodi in einem Prozessor (CPU). Bereits seit dem 486DX4 Prozessor (CPU) gibt es Energiesparmodi. Diese sollen den Stromverbrauch, aber auch die Temperatur des Prozessors regeln. Bei aktuellen Hochleistungsprozessoren hat man die Energiesparmodi mit der Zeit noch erweitert.

    Wie funktionieren die C-States?

    Wenn ein Prozessor im Leerlauf ist, oder z.B. Prozessorkerne (Cores) nicht benötigt werden, reduziert der Prozessor selbstständig die Leistung. Das geschieht in verschiedenen Schritten.  Wie viele Schritte ein Prozessor unterstützt hängt vom Alter und vom Einsatzgebiet ab. Ältere Prozessoren z.B. besitzen noch wenige C-State Schritte. Auch gibt es Unterschiede zwischen Desktopprozessoren und Prozessoren für Mobile Geräte. Bei mobilen Geräten kommt es deutlich mehr auf eine gute Energieeinteilung an, als z.B. beim Schreibtischcomputer, der ja sowieso immer an der Steckdose angeschlossen ist.
    Damit ein Prozessor in den Energiesparmodus wechselt muss dieser eine bestimmte Zeit im Leerlauf sein. Es reicht auch, wenn einzelne Prozessorkerne im Leerlauf sind. So kann z.B. ein 4-Kern Prozessor 2 oder 3 seiner Kerne in den Energiesparmodus setzen und nur noch 1 oder 2 Kerne verrichten die Arbeit.
    Sobald dann wieder mehr Leistung vom Prozessor verlangt wird schaltet dieser zurück in den normalen Arbeitsmodus.

    Bremst C-State einen Prozessor aus?

    Nun ja, wenn man ständig von einem geringen Gebrauch in einen Hochleistungsgebrauch wechseln würde, könnte man sicher gegenüber einer durchgängigen Vollleistung einen Unterschied feststellen. Nur das macht sicher keiner. Bis zum Energiesparmodus C2 (siehe unten) benötigt ein Prozessor nur Nanosekunden um zur vollen Leistung zurück zu kehren. Befindet sich der Prozessor bereits im C5 Modus dauert es durchschnittlich 250 Mikrosekunden bis der Prozessor wieder seine volle Leistung erreicht hat.

    Welche C-State Energiesparmodi gibt es?

    In der folgenden Tabelle habe ich die derzeit verfügbaren 9 C-State Modi  aufgeführt. Alle 9 Modi werden nicht von allen Prozessoren unterstützt. Wie oben bereits beschrieben, verwenden Prozessoren, je nach Anwendungsgebiet, immer nur eine bestimmte Auswahl dieser C-State Energiesparmodi.

    C-State Funktion Intel-Prozessoren AMD-Prozessoren Zeit zurück bis Vollleistung
    C0 Standard Vollleistung Alle Alle Vollleistung
    C1 Halt Interner CPU Takt wird teilweise per Software angehalten Interner CPU Takt wird teilweise per Software angehalten ~ 10 ns
    C1E Erweiterter Halt Interner CPU Takt wird teilweise per Software angehalten und reduziert die CPU Spannung  (Vcore) Interner CPU Takt wird komplett per Software angehalten > 10 ns
    C2 Stopp Interner CPU Takt wird per Hardware angehalten Interner CPU Takt wird per Hardware angehalten ~ 100 ns
    C2E Erweiterter Stopp Interner CPU Takt wird per Hardware angehalten und reduziert die CPU Spannung  (Vcore) Nicht vorhanden > 100 ns
    C3 Schlaf / Tiefschlaf Interner (Schlaf) bzw. Interner und externer (Tiefschlaf) CPU Takt wird komplett angehalten. Der Level 1 Cache wird geleert. Interner (Schlaf) bzw. Interner und externer (Tiefschlaf) CPU Takt wird komplett angehalten. Teilweise mit Reduzierung der CPU Spannung  (Vcore) ~ 50 µs
    C4 Tieferer Schlaf Reduziert die CPU Spannung (Vcore) deutlich. Der Level 1 und Level 2 Cache wird geleert Reduziert die CPU Spannung (Vcore) deutlich. Der Level 1 und Level 2 Cache wird geleert. ~ 150 µs
    C4E / C5 Erweiterter Tieferer Schlaf Reduziert die CPU Spannung (Vcore) noch weiter und schaltet den Cache aus Nicht vorhanden ~ 250 µs
    C6 Spannungsabschaltung Reduziert die CPU Spannung (Vcore) auf Werte nahe 0 Volt Nicht vorhanden > 250 µs

    Bringt C-State große Energieeinsparungen?

    Nun ja, die C-State Technik haben die Prozessorhersteller alle in ihre CPUs integriert. Das macht natürlich auch immer einen guten Eindruck, wenn man mit "Energiesparmodi" werben kann.
    Unter dem Strich hängt die Effektivität der C-State Energieeinsparung auch vom Anwender und den Betriebssystemeinstellungen sowie von den installierten Programmen ab.
    Wenn man z.B.  einen schönen Bildschirmschoner einsetzt, der bei Arbeitspausen den Prozessor belastet, wird dieser nicht in einen Energiesparenden C-State Zustand wechseln können.  Auch sind aktuelle Virenscanner, Beschleunigungstools oder die Windows Suchfunktion so eingestellt, dass sie gerade bei Arbeitspausen, also im theoretischen Leerlauf, anspringen und ihre Arbeiten durchführen. Damit wird ein Prozessor dann auch nicht in einen hohen Energiesparmodus wechseln können.
    Dazu kommen die aktuellen Betriebssysteme. Selbst wenn Programme theoretisch nur einen Prozessorkern unterstützen, verteilen diese die Aufgaben auf mehrere Kerne, so dass jeder etwas zu tuen hat. Das ist zwar gut für die Leistung des Computers, aber schlecht um Energie zu sparen.

    Was sind in diesem Zusammenhang Turbo Boost bzw. Turbo Core?

    Oft liest man im Zusammenhang mit C-State auch etwas von "Torbo Boost" bzw. "Turbo Core". "Turbo Boost" ist eine Technik vom Prozessorhersteller "Intel" und "Turbo Core" eine ähnliche Technik des Prozessorherstellers "AMD".  Beide Techniken werden in aktuellen Prozessoren genutzt um die Leistung zu steigern. Geht ein Kern oder sogar mehrere Prozessorkerne in einen Energiesparenden C-State Modus, erhöht diese Technik die Leistung der aktiven Prozessorkerne entsprechend. Damit wird dann zwar keine Energie gespart, aber die Leistung des Prozessors wird erhöht. Verwendet ein Programm z.B. nur zwei Kerne eines aktuellen 4-Kern Prozessors, und die anderen beiden Kerne gehen in einen bestimmten C-State Energiesparmodus, erhöht der Prozessor den Takt der beiden aktiven Kerne um festgelegte Schritte. Damit wird der Prozessor nicht wärmer und verbraucht nicht mehr Energie als wenn alle 4 Kerne benutzt würden, aber das Programm läuft auf den beiden verwendeten Prozessorkernen schneller als mit den Standardwerten.

    Fazit:

    Energiesparen ist in der heutigen Zeit generell wichtig und überall erwünscht. Egal wohin man hin schaut, fast alle Anbieter von elektrischen Geräten werben mit "hoher Energieeinsparung" oder "geringem Energieverbrauch".  Gerade bei tragbaren Computern (Laptops / Netbooks) ist ein geringer Stromverbrauch für das lange Arbeiten unterwegs unerlässlich. Allerdings möchten die meisten Anwender auch eine hohe Leistung haben. Beides zusammen verträgt sich aber leider nicht.
    Werben Prozessorhersteller mit speziellen Energiesparmodi, wie dem hier beschriebenen "C-State", macht das sicher einen guten Eindruck. Allerdings wie hoch die Energieeinsparung im Endeffekt ist, hängt auch vom Anwender ab. Möchte man Energie sparen, müssen im Betriebssystem und in den Anwenderprogrammen einige Einstellungen vorgenommen werden,  die dann aber optische und funktionelle Einschränkungen mit sich bringen.

    [Zurück zur Übersicht]

  9. Die Bezeichnung "Chipsatz" benutzt man für die Steuerbausteine auf komplexen elektronischen Baugruppen. Am häufigsten wird diese Bezeichnung für die Steuerbausteine auf Computer Mainboards (Hauptplatinen) gebraucht. Chipsätze findet man aber auch auf anderen elektronischen Baugruppen wie z.B. im SAT-Receiver.

     Wozu dienen Chipsätze?

    Ein Chipsatz besteht meist aus mehreren Bausteinen und dient als elektronische "Brücke" zwischen allen zur Verfügung stehenden Bauteilen und den Anschlusssteckplätzen. Auf einem Computer Hauptplatine besteht der Chipsatz meist aus zwei Bausteinen, der so genannten Northbridge und der Southbridge. Intel nennt die Southbridge auch "ICH (I/O Controller Hub)". Bei neueren Mainbords werden teilweise auch schon die Northbridge und die Southbridge in einem Chip zusammengefügt, was, dank immer weiter fortschreitender Miniaturisierung, heute möglich ist.

    Die Northbridge z.B. regelt den Datenverkehr zwischen CPU, RAM, Cache und AGP- bzw. PCI-Express Grafikport. Somit bestimmt die Northbridge den zu verwendenden Speicher und die CPU.
    Die Southbridge ist zuständig für alle vorhandenen Datenschnittstellen wie PCI-Bus, ATA-Anschlüsse, S-ATA, USB u.s.w. Beide Bausteine sind über einen Datenbus miteinander verbunden.

    Ein Chipsatz ist also ein sehr wichtiger Bestandteil in einer elektronischen Baugruppe. Dort laufen alle Daten zusammen und werden an die entsprechenden Stellen weitergeleitet. Somit ist ein Chipsatz auch stark für die gesamte Computergeschwindigkeit mit verantwortlich. Ein Chipsatz ist heute bereits so Leistungsstark, dass vor allem die Northbridge wie eine CPU gekühlt werden muss. Auf aktuellen Mainboards befindet sich daher  auf dem Northbridge Baustein mindestens ein Kühlkörper, manchmal sogar mit eigenem Lüfter.

     Wie ist es zur Namensgebung gekommen?

    Die Northbridge ist der "Hauptbaustein" eines Chipsatzes, da an diesem unter anderem der Prozessor angebunden ist. Somit befindet sich dieser Baustein im oberen Bereich von einer Hauptplatine, also in der Nähe des CPU-Sockels.  Betrachtet man eine Hauptplatine geografisch, liegt die Northbridge somit im "Norden" (englisch: North). Die Southbridge liegt weiter unten in der Nähe der Anschlüsse also geografisch gesehen im "Süden" (englisch: South). "Bridge" heißt auf deutsch "Brücke" und deutet somit auf die Verbindung zu den Bauteilen hin.

     Welche Hersteller gibt es?

    Neben den großen CPU-Herstellern "AMD" und "Intel" werden Chipsätze für Hauptplatinen hauptsächlich von der Firma "VIA" und "SiS" gebaut. Da für günstige Computer auch eine komplette GPU (Grafikbaustein) häufig in den Chipsatz integriert wird, bauen auch "AMD " und "nVidia" komplette Chipsätze für Computer. Die Firma "AMD" hat vor einiger Zeit die Grafikfirma "ATI" aufgekauft.
    Heute befinden sich die GPU (Grafikbausteine) aber sehr häufig auch schon direkt in den Prozessoren (CPUs) und werden nicht mehr in den Chipsätzen integriert.

     Wie kann ich mir einen Chipsatz aussuchen?

    Für einen Chipsatz muss man sich sofort beim Kauf des Computers bzw. der Hauptplatine entscheiden. Die Hauptplatinenhersteller beziehen die Chipsätze und verbauen diese fest auf den verkauften Hauptplatinen. Allerdings bieten die Hauptplatinenhersteller meist für einen bestimmten CPU-Sockel Hauptplatinen mit unterschiedlichen Chipsätzen an. Denn jeder Chipsatz hat sicher seine Vor- und Nachteile und unterstützt unterschiedliche Komponenten. Man sollte daher vor dem Kauf prüfen, welche Anschlüsse einem wichtig sind und danach dann die Hauptplatine mit dem passenden Chipsatz wählen.

     Kann ich einen Chipsatz beeinflussen?

    Gesteuert wird der Chipsatz über das Computerbios oder neu über Computer UEFI. Das Bios oder UEFI ist ein kleines Programm, welches in einem überschreibbaren Speicherbaustein abgelegt ist. Damit dieses Programm auch nach dem ausschalten und ausstecken der Stromversorgung nicht verloren geht, befindet sich eine kleine Knopfbatterie auf der Hauptplatine, die diesen Speicherbaustein mit Strom versorgt. Wenn der Hersteller Fehler im Chipsatz feststellt oder den Chipsatz an neuere Komponenten (z.B. Speicher und CPU) anpassen möchte, bringt er ein neues Bios-Programm auf den Markt, das der Anwender dann in den Bios-Baustein einspielen (flashen) kann. In diesem Bios / UEFI können dann auch geziehlt Komponenten ein- und ausgeschaltet werden.

    Der Chipsatz des Commodore AMIGA

    Als Fan und ehemaliger Commodore AMIGA Besitzer, möchte ich noch kurz auf diesen alten Rechner eingehen. Der AMIGA war einer der Ersten "Homecomputer" mit einer überragenden Ton- und Grafikleistung. Den Commodore AMIGA gab es von Juli 1985 bis etwa 1993 und war ein sehr erfolgreicher Computer. Der Chipsatz des AMIGA bestand seiner Zeit aus 3 Chips:

    • Agnus bzw. Alice – als Kontrollzentrum des Amiga-Chipsatzes. Diser Chip kontrollierte insgesamt 25 DMA-Kanäle.
    • Paula – War zuständig für Sound- und Interrupt Kontrolle.
    • Denise bzw. Lisa  – War zuständig für die Grafikausgabe.

    [Zurück zur Übersicht]

  10. Prozessoren (CPUs) in Computern benötigen einen Befehlssatz, um überhaupt zu wissen, was dieser mit den Daten machen muss. Die ersten Prozessoren für Computer arbeiteten mit der so genannten "Mikroprogrammierung". Als "Mikroprogrammierung" bezeichnet man eine Art Steuersprache für Schalter, also den internen Transistoren in einem Prozessor. Im laufe der weiteren Entwicklung sind die Prozessoren immer Leistungsfähiger geworden. Die einfache "Mikroprogrammierung" reichte irgendwann nicht mehr aus, um die komplexen Aufgaben eines Prozessors umzusetzen.

    So hat der CPU Hersteller Intel 1978 mit dem 8086 Prozessor den CISC (Complex Instruction Set Computer) Befehlssatz eingeführt, der in den 1970er Jahren von IBM entwickelt wurde. Übersetzt heißt das etwa "Computer mit komplexem Befehlssatz". Genau das bietet auch der CISC-Befehlssatz, sehr komplexe Einzelbefehle.

    Die Vorteile des CISC-Befehlssatzes:

    Der CISC-Befehlssatz ist sehr komplex. Somit konnten damit alle erforderlichen Rechenformeln leicht umgesetzt werden. Der CISC-Befehlssatz ist darauf ausgelegt, bei den anstehenden Aufgaben alle nötigen Daten zu laden und dann damit zu rechnen. Dadurch sind die meisten Daten immer direkt verfügbar und können schnell verarbeitet werden.

    Die Nachteile des CISC-Befehlssatzes:

    Was zum einen Vorteile sind, können aber auch Nachteile sein. Dadurch, dass der CISC-Befehlssatz sehr komplex ist und auf die Daten im Speicher angewiesen ist, benötigen diese Prozessoren einiges an Leistung und damit Strom und sind relativ unflexibel.

    Die Betriebssysteme und Programme

    Bereits 1980 kam mit QDOS das erste Betriebssystem für den CISC-Befehlssatz heraus. Aus QDOS wurde ende der 1980er Jahre 86-DOS und dann Mitte 1981 MS-DOS aus dem dann wiederrum 1985 Windows 1.0 entstanden ist. Auch die Programme für die x86 Prozessoren wurden seit dem für den CISC-Befehlssatz geschrieben. Das ist bis heute so geblieben.

    Gibt es Alternativen?

    Ja, die gibt es. Bereits Ende der 1960er Jahre wurde der RISC-Befehlssatz entwickelt, der somit älter ist als der CISC-Befehlssatz. RISC steht für "Reduced Instruction Set Computer" also auf deutsch etwa "Computer mit reduziertem Befehlssatz". Der Vorteil ist, dass Prozessoren mit diesem Befehlssatz deutlich ressourcenschonender arbeiten. Diese laden nicht erst alles benötigte in den Speicher sondern arbeiten die Programme in kleinen Häppchen sofort ab. Damit können diese Prozessoren mit weniger Energie ähnlich gute Leistung wie Prozessoren mit dem CISC-Befehlssatz erbringen.

    Der Nachteil ist, dass Prozessoren mit dem RISC-Befehlssatz spezielle Betriebssysteme und Programme benötigen. Daher laufen die beliebten Programme für x86 Rechner nicht auf Rechnern mit Prozessoren mit dem RISC-Befehlssatz.
    Allerdings haben die Prozessorhersteller hier schon vor einiger Zeit eine Lösung entwickelt, wie man dieses Problem umgehen kann. Seit dem "Pentium Pro" 1995 schaltet Intel z.B. vor seine Prozessoren, die intern mit dem RISC-Befehlssatz arbeiten, einfach eine Funktionseinheit mit dem CISC-Befehlssatz, die die Befehle einfach in RISC-Befehle"übersetzt". Natürlich macht das AMD ähnlich. So konnte die Leistung der Prozessoren gesteigert werden, bei geringerer Energieaufnehme und es können weiterhin die bekannten Standardprogramme verwendet werden.

    Reine Prozessoren mit dem RISC-Befehlssatz hatten von 1974 bis etwa 1991 ihre Blütezeit. In diesen Jahren wurden solche Prozessoren sehr viel bei Servern und Workstations eingesetzt, die dann z.B. mit dem UNIX-Betriebssystem liefen. Anfang der 1990er Jahre stellte man aber auch hier mehr und mehr auf x86 Prozessoren mit dem CISC-Befehlssatz um. Lediglich Apple verwendete noch bis 2006 PowerPC Prozessoren mit dem RISC-Befehlssatz, stellte aber dann auch auf x86 Prozessoren von Intel um.

    2007 kam dann wieder die gegenteilige Wende für CPUs mit dem RISC-Befehlssatz. Das erste Smartphone von Apple kam auf den Markt. Genau für diese kleinen Geräte, bei denen zwar die Leistung stimmen muss, aber auch der Energieverbrauch und die Wärmeentwicklung nicht hoch sein dürfen, sind Prozessoren mit dem RISC-Befehlssatz ideal geeignet. Hier wird auch ein eigenes "neues" Betriebssystem verwendet, dass man leicht für diese Prozessoren anpassen konnte. Man musste also nicht auf bereits bestehende "Standards" achten. So werden heute fast ausschließlich RISC-Prozessoren in den SoCs für mobile Systeme eingesetzt.
    Der Absatz von Prozessoren mit dem RISC-Befehlssatz steigt seit dem unaufhörlich an, wohingegen der Absatz von x86 Prozessoren mit dem CISC-Befehlssatz nachlässt.

    [Zurück zur Übersicht]

Joomla Toplist

Besucher heute

® Auf im Beitrag genannte Namen und Bezeichnungen, sowie auf Logos können Markenrechte von Firmen im In- und Ausland liegen

www.CompTech-Info.de wird gehostet von:

ALL-INKL.COM - Webhosting Server Hosting Domain Provider

Wer ist online

Aktuell sind 34 Gäste und keine Mitglieder online

Beiträge:

Deine Daten

IP

Kleine Spende

Hier bitte ich Dich um eine kleine Spende für meine Webseite "www.CompTech-Info.de".
Weitere Infos dazu habe ich hier für Dich zusammengestellt.
Vielen Dank!
 

Ziel, mindestens: 119,40 €
Gespendet 2017:  28,37 €
Letzte Aktualisierung: 25.02.2017
Zum Seitenanfang