Значение слова "MPEG" найдено в 11 источниках

MPEG

найдено в "Universal-Lexicon"
MPEG: übersetzung

MPEG 〈EDV; Abk. für engl.〉 Moving Pictures Experts Group (Expertengruppe für bewegte Bilder), eine Bildkomprimierung für Bewegtbilder

* * *

MPEG
 
[Abk. für Moving Pictures Experts Group, dt. »Expertengruppe für bewegte Bilder«], eine Arbeitsgruppe der internationalen Normungsorganisation ISO/IEC. Die MPEG setzt und entwickelt in Zusammenarbeit mit der Industrie Normen für die Wiedergabe digital kodierter Bilder und Töne, die jeweils nach der Expertengruppe benannt werden. Bisher hat die MPEG drei Normensysteme verabschiedet, nämlich MPEG-1 für die Video-CD, MPEG-2 für DVDs und digitales Fernsehen und den Multimediastandard MPEG-4. Das als MP3 bezeichnete Audiowiedergabeverfahren basiert auf MPEG-1 Layer 3 (dem Kapitel des Standards, das sich mit Audioformaten befasst). Da damals ein weiterer MPEG-Standard erst angedacht war, schliff sich die Umbenennung zu MP3 in den Sprachgebrauch ein. Eine MPEG-3 genannte Norm (nicht mit MP3 zu verwechseln!) wurde zwar ebenfalls entwickelt (für das hochauflösende Fernsehen HDTV), sie kam aber als separate Norm nie zum Einsatz, sondern ging in MPEG-2 auf.Zwei weitere Normen (MPEG-7 und MPEG-21) sind derzeit noch nicht vollendet.
 
Die Arbeit der Gruppe zielt im Wesentlichen auf die Komprimierung und Wiedergabe von Filmen und Tönen ab. Eine ähnliche Arbeitsgruppe, die JPEG, befasst sich mit der Komprimierung von Standbildern. Das grundlegende Konzept von MPEG-1 bis MPEG-4 basiert auf dem Gedanken der Redundanzunterdrückung: In vielen Filmsequenzen ändern sich die Hintergründe nur wenig, von Bild zu Bild treten also nur geringe Unterschiede auf. Um die Bilddaten für die Speicherung und für ihre Wiedergabe in Computer, Kabel- und Satellitenfernsehen möglichst effizient zu machen, ohne dass die Bildqualität wesentlich darunter leidet, werden daher in jedem Bild nur Informationen über Änderungen gespeichert. Die weitgehend konstanten Hintergründe werden in einem sog. Key Frame (dt. »Schlüsselbild«) gehalten und von den folgenden Bildern von dort übernommen. Für die Aufnahme einer Person, die beispielsweise vor der Kulisse eines Waldes läuft, müsste man daher den Hintergrund des Waldes in einem Key Frame speichern, während die Bewegung der Person sowie der durch die Blätter streichende Wind in den Einzelbildern festgehalten würde. Dadurch lassen sich sehr hohe Kompressionsverhältnisse bis etwa 150:1 erreichen, was allerdings bereits einen Qualitätsverlust nach sich zieht. Bilder mit einer Kompressionsrate von 25:1 bis 50:1, weit höher als die bei Standbildern mögliche Kompression, weisen dagegen nur geringe Qualitätseinbußen auf.
 
MPEG-Daten müssen mit sog. Decodern abgespielt werden, wobei es sich um reine Software-Lösungen, also Anwendungsprogramme für ein bestimmtes Betriebssystem, oder Hardware in Form externer Decoder handeln kann. Letztere werden beispielsweise auch schon beim digitalen Fernsehen eingesetzt, sie sind jedoch im Rahmen des MPEG-Standards noch nicht vereinheitlicht. Zeitweilig waren auch spezielle Erweiterungskarten in Gebrauch, meist als MPEG-Karten bezeichnet, mit denen das Abspielen von MPEG-Videos möglich wurde. Sie mussten mit der Grafikkarte verbunden werden und enthielten die notwendigen Decoder auf entsprechenden Speicher-Chips. Beispiele von Anwendungsprogrammen sind der mit Windows ausgelieferte Mediaplayer, die MPEG-Player der Firma Xingtechnology Inc. oder die für Unix konzipierten Abspielprogramme der Berkeley Plateau Research Group.
 
MPEG-1 ist als Standard in der Empfehlung ISO/IEC 11172 enthalten, die in fünf - als Layer bezeichneten - Teilen zwischen 1993 und 1998 veröffentlicht wurde. Die Teile befassen sich mit systemtechnischen Fragen, mit der Kompression von Videodaten, von Audio, Kompatibilitätstests und Software-Simulationen. Der Videoteil von MPEG-1 unterstützt Bildgrößen von 525 und 625 Zeilen, also die in Europa und den USA eingesetzten Fernseh- und Videoformate. Die durch Kompression angestrebten Übertragungsraten sollen mindestens 1,5 Mbit/s betragen, entsprechend etwa 192 KByte/s, was selbst mit einfachen CD-ROM-Geräten noch zu erreichen ist. Die Grundanforderungen entsprachen den damals üblichen CD-ROMs, deren minimale Übertragungsrate bei 150 KByte/s lag. Sie zielten auch auf die damals noch verbreitete Video-CD ab. Auch die Speicherung der Filme auf Festplatte und das Übertragen von der Festplatte sowie über das Internet wurden durch MPEG-1 mit einheitlichen Bildformaten möglich. Der Standard enthält mehrere Methoden zur Bildkompression und Übertragung, die in einer optimalen Kompressionsrate zwischen 50:1 und 25:1 resultieren. Hierbei werden zuerst die Bilder selbst komprimiert, dann wird aufgrund der vorherigen sowie der folgenden Bilder eine Vorhersage über bewegte Elemente getroffen, die ebenfalls komprimiert wird. Diese komprimierten Datenblöcke werden in einem Datenstrom zusammengefügt, der erneut komprimiert wird.
 
Der Audioteil von MPEG-1, der als MP3 bekannt gewordene Layer 3, unterstützt maximal zwei Audiokanäle, die mit Abtastraten von 32 kHz, 44,1 kHz oder 48 kHz verarbeitet werden können. Aufgrund des revolutionär neuen Konzepts einer psychoakustischen, sehr effektiven Datenreduktion konnte der Standard v. a. im Internet zum führenden Konzept bei der Übermittlung von Audiodateien werden. »Psychoakustisch« bedeutet, dass bestimmte Anteile des Klangspektrums, die vom menschlichen Ohr nicht wahrgenommen oder bei deren Fehlen unbewusst ergänzt werden, nicht gespeichert werden. Üblicherweise sind außer bei Menschen mit außergewöhnlich gutem Gehör die Unterschiede zwischen dem reinen Klang und dem komprimierten Klang schon bei Abtastraten von 44,1 kHz nicht mehr zu hören, weshalb dies unter anderem für die Übertragung von digitalem Radio über terrestrische Sender und Satelliten genutzt wird.
 
MPEG-2 wurde ab 1993 als ISO/IEC 13818-1 eingeführt. Die Norm gliederte sich ursprünglich in zehn Teile, von denen jedoch nur die ersten drei als internationale Norm anerkannt sind. Teil acht wurde zurückgezogen, die restlichen gelten als noch nicht fertig gestellt. Die ersten fünf Teile behandeln dieselben Themen wie ihre Gegenstücke unter MPEG-1, die restlichen befassen sich mit zusätzlichen Fragen der Video- und Audiokompression, Decodern sowie Übertragungen in Echtzeit. MPEG-2 ist in der Lage bildschirmfüllende Filme in einer Qualität zu liefern, die diejenige von herkömmlichen Videos (VHS, SVHS) erreicht oder übersteigt. Allerdings benötigt sie ein Trägermedium, das mindestens 512 KByte/s übertragen kann, was von schnelleren CD-ROM- und DVD-Geräten erreicht wird. In MPEG-2 wird der Gedanke der Redundanzunterdrückung noch weiter ausgeführt als in MPEG-1, allerdings muss MPEG-2 zu MPEG-1 kompatibel bleiben. Ein Abspielgerät, das MPEG-2 unterstützt, muss also in der Lage sein, auch MPEG-1-Filme abzuspielen. Bei der Kompression der Daten wird einerseits nach kaum veränderten Bildinhalten gesucht, was bisweilen als Intrabildredundanz bezeichnet wird, beispielsweise eine Mauer. Zudem werden Bildelemente gesucht, die sich von Bild zu Bild rasch verändern (die sog. Interbildredundanz), etwa ein Ball, der von der Mauer abprallt.
 
Bei der Kompression werden zunächst diese Interbildredundanzen komprimiert, erst danach sind die Intrabildredundanzen an der Reihe. Beide komprimierten Sequenzen werden wieder in einen Datenstrom eingefügt, der erneut komprimiert wird. Die unterschiedlichen Bildinhalte verursachen dabei einen unterschiedlich großen Aufwand, sodass die Übertragungsrate pro Bild, gemessen in einem regelmäßigen Zeitraster, verschieden sein wird. Die Bilddaten werden daher zunächst in einem Puffer gehalten und entsprechend der Komplexität sortiert. Dann werden hier die am schnellsten wechselnden Szenen teilweise gefiltert, was die Kontinuität zwischen aufeinander folgenden Bildern erhöht, allerdings um den Preis eines geringen, oft noch tolerierbaren Qualitätsverlusts. Die Bildkompression erfolgt in MPEG-2 außerdem mit einem von mehreren unterschiedlichen Verfahren, das die jeweiligen Daten am besten komprimiert. Entsprechend müssen auch die Decoder all diese Kompressionsverfahren verstehen und beinhalten. Tests zeigten, dass MPEG-2 durchaus die in Studios geforderte Qualität erreichen kann. Zudem zeigte sich, dass die Anforderungen an MPEG-2 bereits ausreichen, um auch HDTV im MPEG-2-Format wiederzugeben, sodass der ursprünglich für HDTV vorgesehene Standard MPEG-3 mit MPEG-2 verschmolzen wurde.
 
Der Audioteil von MPEG-2 erweitert den in MPEG-1 vorgegebenen Bereich in mehreren Punkten, bleibt aber wie der Videoteil abwärts kompatibel zur älteren Definition. Zum einen wurden weitere Abtastfrequenzen zugelassen, die nun bei 16 kHz, 22,05 kHz und 24 kHz liegen. Dadurch verbesserte sich die Tonqualität bei niedrigen Übertragungsraten. In einer proprietären Erweiterung des Fraunhofer-Instituts für Integrierte Schaltungen (IIS) in Erlangen, als MPEG-2.5 bezeichnet, sind noch niedrigere Abtastfrequenzen bei 8 kHz, 11,025 kHz und 12 kHz möglich. Dies wird aber nicht von allen Decodern unterstützt.
 
Des Weiteren umfasst MPEG-2 nun bis zu fünf Audiokanäle sowie einen zusätzlichen Kanal für tiefe Frequenzen. Dies ermöglicht beispielsweise die mehrsprachige Vertonung von DVDs. Schließlich wurde ein neues Kodierungsschema eingeführt, das vom IIS entwickelte AAC, das allerdings nicht zu MPEG-2 abwärts kompatibel ist. Es unterstützt zum einen mehr als fünf Audiokanäle, bietet also so etwas wie Zukunftssicherheit, der wesentliche Fortschritt sind jedoch eine höhere Zahl von Kodierungsmethoden, die den Daten noch besser als die bisherigen angepasst werden können und somit eine noch bessere Tonqualität liefern. Ebenfalls neu in MPEG-2 ist die Unterstützung von zwei Datentypen, die mit den binären Film- oder Tondaten übertragen werden können. Sie umfassen Informationen über das Video oder den Tonträger, können aber auch andere Arten von Hintergrunddaten übertragen. Sie werden als Service Information bezeichnet. Der zweite Datentyp wird Private Data genannt (dt. private Informationen) und enthält Daten, die nur für einen bestimmten Anwender oder eine bestimmte technische Ausstattung bestimmt sind. Durch sie lassen sich in einem digitalen Kabelfernsehen beispielsweise spezielle Programminformationen übertragen.
 
MPEG-4 ist eine noch nicht vollständig abgeschlossene Norm, deren grundlegende Inhalte jedoch 2000 als ISO/IEC 14496 akzeptiert wurden. Die Norm behandelt die Gebiete digitales Fernsehen, interaktive Grafikanwendungen (etwa Spiele) sowie interaktive multimediale Inhalte, die beispielsweise im WWW angeboten werden. Ziel der Norm ist es, die Komposition audiovisueller Inhalte in einem einheitlichen Format zu ermöglichen, unabhängig davon, ob es sich um tatsächliche Aufnahmen oder vollständig von einem Computer generierte Inhalte handelt. Die Daten können aus unterschiedlichen Quellen stammen und werden durch die in der Norm beschriebenen Verfahren so zusammengefügt, dass beispielsweise ein Schauspieler vor einem computeranimierten Hintergrund erscheint. Die Übertragungsmedien müssen dabei, je nach Inhalt der Daten, Übertragungsraten zwischen 5 Kbit/s und 10 Mbit/s zur Verfügung stellen können, was Werten von 640 Byte/s bis hin zu 1280 KByte/s entspricht. Die Norm stellt hohe Anforderungen an die Beschreibung der Daten, da beispielsweise Bereiche transparent geschaltet oder mit neuer Textur versehen werden können. Auch wird nun die Form eines grafischen Objekts übergeben, sodass verschiedenen Bildinhalte übereinander geschoben werden können, ohne dass Qualitätsverluste in einzelnen Bereichen auftreten. Durch eine spezielle Behandlung der feinen Details soll die Qualität der Aufnahmen weiter steigen. Neu in MPEG-4 sind dreidimensionale Objekte, die beispielsweise mit VRML erzeugt werden können. Auch sie werden als normale Bildinhalte behandelt, zwischen denen beispielsweise ein Schauspieler agieren kann. Verbesserte Kodierungsschemata und Fehlerkontrollfunktionen erhöhen sowohl die Qualität der Inhalte als auch die Übertragungsqualität. Einsatzbereiche von MPEG-4 sollen sein: die Echtzeitkommunikation (Bildtelefon), Überwachungssysteme, mobile multimediale Dienste, die etwa über UMTS vermittelt werden, digitales Fernsehen und DVD, digitaler Rundfunk und interaktive Programme.
 
MPEG-7 (der offizielle Titel lautet »Multimedia Content Description Interface«, dt. »Schnittstelle zur Beschreibung multimedialer Inhalte«) ist ein Entwurf, der nicht, wie in den bisherigen Normen, konkrete Kompressions- oder Wiedergabemethoden umfasst, sondern vielmehr die Beschreibung von Objekten, wie sie beispielsweise in MPEG-4 eingesetzt werden. Standen dort noch Inhalte und Wiedergabe im Vordergrund, befasst sich MPEG-7 eher mit den informationstechnischen Details solcher Inhalte, die von unterschiedlichsten Anwendern, vom Programmierer bis zum Endkunden eines Kabelsenders, unterschiedlich wahrgenommen werden. Die angestrebte Norm definiert also Metadaten, in denen die eigentlichen Daten beschrieben werden, sodass sie beispielsweise in Datenbanken u. Ä. leichter zugänglich sind.
 
Mit MPEG-21 will die Arbeitsgruppe schließlich einen allgemeinen Rahmen schaffen, der Produktion und Austausch beliebiger medialer Daten ermöglicht und fördert. Der bisherige Entwurf listet mehrere wesentliche Inhalte auf. So sollen digitale Inhalte in einem einheitlichen Schema definiert werden können. Diese digitalen Inhalte sollen auf einheitliche Weise identifizierbar und beschreibbar sein. Herstellung, Veränderung, Speicherung, Suche und Lieferung der Inhalte sollen durch einheitliche Datenschnittstellen und Protokolle vereinfacht und der Schutz des geistigen Eigentums verbessert werden. Unabhängig von bestimmten technischen Gegebenheiten, etwa der Funktionalität eines Bildschirms oder einer Datenverbindung, sollen die Daten auf einheitliche Weise zugänglich sein. Zudem soll die Darstellung der Inhalte vereinheitlicht werden.
 
TIPP:
 
Bestimmte MPEG-Verfahren sind einem CD-Typ fest zugeordnet. So gehört MPEG-1 zur Video-CD, MPEG-2 zur Super-Video-CD. MPEG-4 ist nicht so eindeutig festgelegt, wird aber v. a. von DivX benutzt. DVD-Player können derzeit MPEG-4-Dateien nicht abspielen.


T: 141