Значение слова "COMPUTERTECHNIK IM MODERNEN ALLTAG" найдено в 1 источнике

COMPUTERTECHNIK IM MODERNEN ALLTAG

найдено в "Universal-Lexicon"

Computertechnik im modernen Alltag
 
Grundlage für den Fortschritt in allen Bereichen der Kommunikationstechnik ist die rasante Weiterentwicklung der Computertechnik. Verschiedene Gründe sprechen dafür, dass diese Entwicklung noch mehrere Jahre ihr Tempo beibehalten wird. Unter anderem werden die Rechner der Zukunft immer schneller, kleiner und leistungsfähiger. Der Computer von morgen bietet mehr Anwendungen und lässt sich einfacher bedienen.
 
 Leistung ohne Ende
 
Die Leistungsfähigkeit elektronischer Rechner explodierte binnen weniger Jahre — heute übertreffen privat genutzte Computer jene Supercomputer, die noch vor zehn Jahren nur einem kleinen Kreis von Auserwählten in Forschungseinrichtungen oder bei der Militärtechnik zur Verfügung standen. Basis dieses schnellen Fortschritts ist die exponentielle Zunahme an Rechenleistung, die der US-Ingenieur Gordon Moore in dem Moore'schen Gesetz beschreibt. Orientieren sich Prognosen für künftige Rechenleistungen an der bisherigen Entwicklung, stellt sich vor allem die Frage, ob sich das Wachstum wie bisher fortführen lässt.
 
Skeptiker führen hierzu an, dass der Siliziumchip bis im Jahr 2015 an eine natürliche physikalische Grenze stoßen wird: Die auf den Chips eingeätzten Schaltelemente wären dann nur noch wenige Atome dick. Es bleibt jedoch abzuwarten, ob die Industrie bis etwa im Jahr 2015 nicht neue Wege gefunden haben wird, die Anzahl der Transistoren auf elektronischen Chips trotzdem noch zu vergrößern. Ein denkbarer Weg wäre beispielsweise, die elektronischen Schaltungen in die dritte Dimension auszubreiten. Heute noch zweidimensional aufgebaute Schaltungen lassen sich nämlich prinzipiell auch in mehreren Ebenen auf einem Chip anbringen. Mit diesem Trick ließe sich die Komplexität der Chips und damit auch ihre Leistung noch über lange Zeit steigern.
 
Wie kann sich diese Entwicklung auf Supercomputer und heimische Rechner auswirken? Heutige Supercomputer erreichen durch die Parallelschaltung von bis zu 512 Mikroprozessoren eine Rechenleistung von rund fünf Billionen Fließkomma-Operationen pro Sekunde (fünf »Tera-Flops«). Ein Supercomputer mit einem einzigen Prozessor leistet immerhin noch rund zehn Milliarden Fließkomma-Operationen pro Sekunde (zehn »Giga-Flops«). 140-mal langsamer dagegen arbeitet ein Mitte 1999 handelsüblicher Pentium-III-PC mit 550 Megahertz Taktfrequenz. Er erreicht »nur« 70 Millionen Fließkomma-Operationen pro Sekunde, das sind 70 »Mega-Flops«.
 
 Steigende Rechenleistung steuert den Alltag
 
Um das Jahr 2010 dürften sich die Verhältnisse der Rechenkünstler um eine Leistungsklasse verschoben haben. Der normale Rechner zu Hause oder am Arbeitsplatz wird vermutlich die Leistung aufweisen, mit der ein heutiger Supercomputer arbeitet. Dementsprechend steigt selbstverständlich auch die Leistung von Supercomputern proportional an. Die Fachwelt geht davon aus, dass solche Rechenkünstler künftig mehr als eine Million mal schneller sein werden als heute übliche PC. Ihr Standard liegt dann bei Trillionen Operationen pro Sekunde (»Exa-Flops«). Die eigentliche Bedeutung dieser Zahlenspiele liegt jedoch in den komplexen Aufgaben, die sich mit solchen Rechenmaschinen lösen lassen werden.
 
Schon heute nutzen sehr viele Menschen Computer aller Klassen im Alltag, ohne sich dessen immer bewusst zu sein. Denn Mikroprozessoren finden sich bei weitem nicht nur in PC und größeren Rechnern. Auch in Haushaltsgeräten, Autos, Aufzügen, Verkehrsampeln — praktisch überall sind schon heute unsichtbare Rechner im Einsatz. Auch diese »versteckten« Computer profitieren von der steigenden Rechenleistung: Im vernetzten Haushalt der Zukunft sind »intelligente« Kühlschränke, die selbstständig über die Vorratshaltung wachen und fehlende Produkte per Internet automatisch nachbestellen, keine Utopie mehr. Haushaltsgeräte wie Wasch- und Spülmaschinen oder Elektroherde und Backöfen nutzen intelligente Steuerungstechnik, um ihren Energieverbrauch zu reduzieren. Auch Lüftungssteuerungen sowie computergestützte Licht- und Heizsysteme werden dazu beitragen, den Energiebedarf zu senken.
 
In Fahrzeugen wird der »Auto-PC« die Funktionen heutiger Autotelefone, Autoradios und Navigationssysteme übernehmen. Das computergestützte Autoradio der Zukunft wird vom Fahrer komfortabel mit Sprachbefehlen bedient. Es kann zum Beispiel E-Mails vorlesen und Verkehrsinformationen intelligent mit Routenplanung kombinieren.
 
Geschäftsleute nutzen schon heute Personal Digital Assistants (PDA), elektronische Adressbücher und Terminkalender, statt konventionelle Papierhefter. Dieser allgemeine Trend dürfte sich bis im Jahr 2005 auch im privaten Bereich fortsetzen: Die intelligenten elektronischen Assistenten sind dann ebenso selbstverständlich wie heute der Gebrauch von Handys. Der Übergang ist fließend und unauffällig, weil künftige Komfortkombigeräte ohnehin die Funktionen von Mobiltelefonen und PDA in sich vereinen werden. Entscheidend ist, dass Computer immer weniger sichtbar sind — sie funktionieren unauffällig in den meisten Gegenständen des täglichen Gebrauchs.
 
Die zunehmende Miniaturisierung erlaubt es künftig sogar, Computer in Kleidungsstücke oder unauffälligem Schmuck zu integrieren. Die Elektronik eines PDA mit Kommunikationsfunktionen könnte sich in einer Weste verbergen, ein Ohrring als Ohrhörer und eine Brosche oder Krawattennadel als Mikrofon dienen. Die einzelnen Komponenten stehen dabei drahtlos miteinander in Kontakt. Möchte der Besitzer seine Weste oder ein Schmuckstück wechseln, schließen sich die neuen Komponenten automatisch wieder zu einem Gesamtsystem zusammen. Produkte dieser Art sind bereits um das Jahr 2005 zu erwarten.
 
 Unsichtbar im Netz
 
Schon heute lassen sich tragbare Computer oder Organizer mit anderen Geräten wie Mobiltelefonen per Infrarot drahtlos vernetzen. Der Nachteil dieser Technik: Zwischen den Geräten muss eine Sichtverbindung bestehen. Deshalb setzt sich zunehmend Kurzstrecken-Funktechnik durch, um Computer- und Kommunikationskomponenten miteinander zu vernetzen. Unter dem Namen »Bluetooth« haben sich schon über 170 Herstellerfirmen auf einen Standard geeinigt. Die Technik, die im Jahr 2000 auf den Markt kommt, befindet sich auf einem einzigen Chip, der den Gerätepreis künftig nur um wenige Euro verteuern soll. Werden zum Beispiel ein tragbarer Computer und ein Mobiltelefon per Bluetooth miteinander vernetzt, kann das Telefon in der Jackentasche stecken bleiben.
 
Auch der heimische PC wird davon profitieren: Denn viele heute notwendigen Kabelverbindungen werden damit überflüssig — Tastatur, Maus, Drucker und andere Geräte lassen sich künftig drahtlos per Funk anschließen. Intelligente Steuerungsprotokolle mit Zugangskontrolle sorgen dafür, dass sich nur die gewünschten Geräte untereinander vernetzen. So kann etwa im Zug kein Reisender sein Notebook versehentlich — oder absichtlich — beim Handy eines anderen Reisenden anmelden.
 
Neue Konzepte gehen noch einen Schritt weiter: In einigen Jahren werden »Körper-Netzwerke« auf den Markt kommen. Mit geringen elektrischen Strömen könnten sich dann Signale per Händedruck austauschen lassen. PDA, die zwei Geschäftsleute in ihren Jackentaschen tragen, werden dann während des Händedrucks bei der gegenseitigen Begrüßung die elektronischen Visitenkarten ihrer Besitzer austauschen.
 
 Genug Platz für alle: Speichertechniken im Wachstum
 
Intelligentere Computeranwendungen sowie multimediale Inhalte verlangen nach immer größeren Speicherkapazitäten. Binnen weniger Jahre haben sich die Standardgrößen von Festplatten in privat genutzten PC um mehrere Zehnerpotenzen erhöht: War noch im Jahr 1991 eine Festplatte mit nur zehn Megabyte Kapazität Stand der Technik, wurden wenige Jahre später die heimischen PC schon serienmäßig mit Festplatten geliefert, die zehn und mehr Gigabyte Platz zur Verfügung stellen.
 
Mit dem Speichervolumen von Festplatten wächst auch die Kapazität der wechselbaren Speichermedien, die sich vor allem dazu eignen, große Datenmengen zu transportieren. Die seit 1980 gängigen Disketten mit ihrer begrenzten Kapazität von 1,44 Megabyte verloren im Jahr 1999 schon weitgehend an Bedeutung. Etabliert haben sich dagegen magnetische Wechselspeicher mit Kapazitäten zwischen 100 Megabyte und zwei Gigabyte. Langfristig werden sich allerdings optische Speichermedien durchsetzen: Die wieder beschreibbare CD bietet genug Platz für 700 Megabyte, wieder beschreibbare DVD mit Kapazitäten von zunächst 4,7 Gigabyte pro Seite und später bis zu 10 Gigabyte pro Seite werden folgen.
 
Für den Einsatz von CD und DVD als Datenspeicher sprechen vor allem deren hohe Verbreitung und damit die Kompatibilität zu anderen Abspielgeräten: Selbst beschriebene CD lassen sich in allen Arten von Computern, CD-Playern und Multimediakonsolen abspielen, selbstbeschriebene DVD werden ohnehin die Nachfolge der Videokassette als Speicher für eigene Fernsehaufnahmen antreten. Optische Speicher werden vermutlich auch nach dem Jahr 2010 am Markt dominant sein. Erst wenn der Bedarf an Speicherkapazität weiter wächst, werden die Unternehmen reagieren und neue Technologien anbieten. Möglicherweise werden sich langfristig dreidimensionale, holographische Speicher gegen optische Platten durchsetzen.
 
 Aufs Wort gehorchen
 
Die beträchtlich höhere Rechenleistung künftiger Computer wird es auch erlauben, den Umgang mit dem Rechner zu revolutionieren. Folgen Computer heute fast ausschließlich den Befehlen von Tastatur und Maus, werden die Maschinen von morgen aufs Wort gehorchen. Die elektronische Spracherkennung ist auf dem besten Weg, sich als Steuerung von Computern zu etablieren. Schon heute leisten Spracherkennungsprogramme Erstaunliches, wenn es darum geht, dem Computer Texte zu diktieren. Der heutige Stand der Technik lässt sich mit höherer Verarbeitungsgeschwindigkeit binnen weniger Jahre noch weiter verbessern: Diktierprogramme werden sprachliche Zweifelsfälle durch Kontextanalysen und einfaches Verständnis der Inhalte selbstständig lösen können. Noch ferner, aber keineswegs unerreichbar ist der umgangssprachliche Umgang mit dem Computer: Um das Jahr 2010 könnte der Rechner auch Sprachbefehle verstehen, die keiner vorher festgelegten Syntax folgen. Schon heute öffnet der Computer das Textverarbeitungsprogramm, wenn ihm jemand sagt: »Ich möchte einen Brief schreiben.« Künftig kann man diesen Wunsch aber auch beliebig anders formulieren: »Ich werde jetzt den Brief an Tante Else schreiben.«
 
Mit Sensoren und Kameras ausgestattet werden Computer aber auch lernen, auf Gesichtsausdruck, Augenbewegungen und Gestik ihres Benutzers zu reagieren. Ebenso kann der Rechner künftig erkennen, welche Person vor ihm sitzt, und alle individuellen Einstellungen und Vorgaben entsprechend dem aktuellen Benutzer aktivieren. Computerforscher experimentieren außerdem mit Gehirnwellensteuerung: Der Rechner reagiert, sobald der an Sensoren angeschlossene Benutzer sich auf bestimmte Objekte konzentriert. Ob die Rechner allerdings jemals lernen werden, die Gedanken ihres Benutzers »zu lesen«, ist unwahrscheinlich — zumindest ist damit sicherlich nicht vor dem Jahr 2020 zu rechnen.
 
Die Computertechnik hängt jedoch nicht nur von Größe und Leistung der heute bekannten Prozessortechnik ab. Neue Konzepte, die sich am menschlichen Gehirn orientieren, sollen dafür sorgen, die heutige Funktionsweise von Rechnern zu erweitern. »Neuronale Netze« etwa erreichen ihre hohe Leistung dadurch, dass sie parallel arbeiten. Relativ einfache Verarbeitungseinheiten werden miteinander zu einer größeren Einheit vernetzt, die selbst wiederum komplexe Aufgaben in vergleichsweise kurzer Zeit lösen kann. Heute nutzt diese Technik vor allem die Softwareindustrie, künftig wird dieses Prinzip der neuronalen Vernetzung auch in die Hardware- und Prozessorarchitektur von Rechnern einfließen.
 
 Hat viele Vorbilder: Computertechnik der Zukunft
 
Eine weitere interessante Entwicklung sind optische Computer: Während derzeit Prozessoren den Fluss von Elektronen durch Leiterbahnen regeln, experimentieren Forschungslabors mit Rechnermodellen, die Lichtteilchen (Photonen) zur Übermittlung von Signalen und Informationen nutzen. So produziert ein Laserstrahl Milliarden kohärenter Photonenströme. Jeder davon kann parallel einen eigenen Rechenvorgang abarbeiten. Optische Elemente wie Spiegel, Linsen und optische Gitter realisieren die Rechenoperationen der einzelnen Photonenströme. Auch optische Computer zeichnen sich durch parallele Verarbeitung aus. Auf absehbare Zeit jedoch werden sie Datenverarbeitungsaufgaben nur in einer festen Konfiguration bewältigen können. Denn noch lässt sich der optische Rechner nicht frei programmieren. Doch auch in fester Konfiguration leistet er schon Erstaunliches bei Aufgaben wie der Mustererkennung.
 
»Genetische Computer« dagegen entwerfen Forscher, indem sie Bio- und Informationstechnologie miteinander verknüpfen. Erste Fortschritte erzielten sie mit DNS-Molekülen bei der Datenverarbeitung. Diese Rechnertypen unterscheiden sich grundlegend von heute üblichen Computern: Enzymreaktionen ersetzen elektronische Schaltungen. Dadurch können DNS-Computer vor allem komplizierte kombinatorische Probleme in der Mathematik lösen. Ihre besondere Architektur gestattet ihnen, Aufgaben bei Optimierungsprozessen zu bearbeiten, für die klassische Computer in angemessener Zeit keine Lösung errechnen können. Auch sie nutzen dazu den Vorteil massiv-paralleler Verarbeitung.
 
 Stecken noch in den Kinderschuhen: Nanotechnik und Quantencomputer
 
Die »Nanotechnologie« befasst sich derweil mit der extremen Miniaturisierung von Schaltfunktionen, aber auch von Aktoren und Sensoren: Schon ist es Forschern gelungen, mechanische Elemente wie ein Getriebe mit mehreren Zahnrädern zu konstruieren, die nur aus einigen Hundert Atomen bestehen. Mit diesem Wissen lassen sich künftig technische Geräte nicht nur drastisch verkleinern, sondern auch ganz neue Anwendungen realisieren: Nanosonden können zum Beispiel in der Medizin helfen, Ablagerungen in Blutgefäßen abzubauen oder beschädigtes Gewebe zu reparieren.
 
Einen völlig anderen Ansatz wiederum verspricht das »Quantencomputing«. Obwohl diese Entwicklung heute noch in den Kinderschuhen steckt, könnte sie die Arbeitsweise von Computern irgendwann revolutionieren. Quantencomputer nutzen die Effekte der Quantenmechanik. Während ein digitaler Rechner mit Bits arbeitet, die entweder den Wert Null oder Eins haben, operiert ein Quantencomputer — vereinfacht dargestellt — mit Bits, die gleichzeitig Null und Eins sind. Der Wert dieser Qu-Bits bleibt so lange uneindeutig, bis ihre »Ambiguität« durch einen Prozess aufgehoben wird, der das Teilchen zwingt, sich für eine bestimmte Eigenschaft »zu entscheiden«. Dieser Effekt wird »Quantendekohärenz« genannt. Sie ist so organisiert, dass nur eine Lösung, die einer Überprüfung standhält, die Dekohärenz übersteht. »Falsche« Lösungen heben einander auf. Dieser Ansatz erlaubt es, mit einer ausreichenden Anzahl Qu-Bits eine sehr große Anzahl von Lösungen gleichzeitig zu überprüfen. 1000 Qu-Bits können parallel 21000 Lösungen einer Aufgabenstellung untersuchen — das entspricht einer Zahl mit 302 Stellen. Selbst die heute schnellsten Computer würden Tausende von Jahren benötigen, um eine solche Aufgabenstellung zu lösen. In der Theorie eignen sich Quantencomputer etwa zum Entschlüsseln von Chiffriercodes oder für die Faktorisierung von hundert- und mehrstelligen Zahlen. US-amerikanische Forscher haben am Massachusetts Institute of Technology (MIT) bereits den ersten Quantencomputer gebaut — wenngleich er bislang nur in der Lage ist, eins und eins zu addieren.
 
Dipl-Ing. (FH) Hannes Rügheimer
 
Weiterführende Erläuterungen finden Sie auch unter:
 
virtuelle Realität: Nicht nur zur Unterhaltung
 
Grundlegende Informationen finden Sie unter:
 
Telekommunikation: Immer im Gespräch
 
Literatur:
 
Crevier, Daniel: Eine schöne neue Welt? Die aufregende Geschichte der künstlichen Intelligenz. Aus dem Englischen. Düsseldorf u. a. 1994.
 
Dienstleistungen für das 21. Jahrhundert. Gestaltung des Wandels und Aufbruch in die Zukunft, herausgegeben von Hans-Jörg Bullinger. Stuttgart 1997.
 Gates, Bill: Der Weg nach vorn. Die Zukunft der Informationsgesellschaft. Aus dem Amerikanischen. Taschenbuchausgabe München 1997.
 Kaku, Michio: Zukunftsvisionen. Wie Wissenschaft und Technik des 21. Jahrhunderts unser Leben revolutionieren. Aus dem Amerikanischen. München 1998.
 Mitchell, William J.: City of bits. Leben in der Stadt des 21. Jahrhunderts. Aus dem Englischen. Basel u. a. 1996.
 Negroponte, Nicholas: Total digital. Die Welt zwischen 0 und 1 oder die Zukunft der Kommunikation. Aus dem Amerikanischen. Taschenbuchausgabe München 1997.
 Popcorn, Faith/Marigold, Lys: »Clicking«. Der neue Popcorn-Report. Trends für unsere Zukunft. Von clanning bis zu cyberpools. Neue Ideen für das Jahr 2000. Aus dem Amerikanischen. Taschenbuchausgabe München 1997.


T: 36