Glossar

AAC (Advanced Audio Coding)
Advanced Audio Coding (AAC) ist ein von der Moving Picture Experts Group (MPEG) entwickeltes Audiokompressionsverfahren, eine Weiterentwicklung des MPEG-2 Standard (zu dem u.a. auch das MP3-Format gehört), das bei kleineren Dateigrößen einen gleichwertigen oder besseren Klang bietet. Das AAC-Format ist Apple’s Pendant zum sonst gängigen MP3 Format. Es wird auch als „MPEG-4 AAC“ bezeichnet .

Analoges Signal
Als Analogsignal wird ein Signal bezeichnet, wenn seine Stärke (Amplitude) kontinuierlich jeden Wert zwischen einem Minimum und einem Maximum annehmen kann. Analoge Signale repräsentieren einen Ton direkt. Es kann innerhalb eines bestimmten Bereiches einen beliebigen Wert annehmen und wechselt stufenlos zwischen Werten, im Gegensatz zu digitalen Signalen, die durch diskrete Datenbits in numerischen Schritten gekennzeichnet sind.

Abtastrate
Abtastrate, auch Samplingrate, bezeichnet die Häufigkeit, mit der ein Signal pro Zeitintervall abgetastet wird. Der Abstand zwischen den Abtastzeitpunkten ist das Abtastintervall. Ist er konstant, heißt die Abtastrate auch Abtastfrequenz oder Samplingfrequenz. Je höher die Abtastrate, desto mehr Daten müssen verarbeitet werden, gleichzeitig steigt aber auch die Genauigkeit der Abtastung, d.h. das abgetastet Signal ist näher am Original. Bei CD liegt die Abtastfrequenz bei 44,1 kHz (also 44.100 Abtastungen pro Sekunde). Qualitativ höherwertige Aufnahmen haben Abtastfrequenzen von bis 192 kHz oder sogar 384kHz.

AES/EBU
AES/EBU (Audio Engineering Society / European Broadcasting Union) ist eine umgangssprachliche Bezeichnung für die Spezifikation einer Schnittstelle zur Übertragung digitaler Audiosignale zwischen verschiedenen Geräten (z.B. CD/DVD-Player, DAT-Recoder, SAT- und Heimkino-Receiver etc.) gemäß der Norm AES3. Sie wird hauptsächlich im professionellen Tonstudio- oder HighEnd-Umfeld verwendet. Die Übertragung erfolgt über symmetrische XLR-Kabel.

AIFF
Das Audio Interchange File Format (AIFF) ist ein unkomprimiertes Dateiformat (Containerformat) von Apple Macintosh zum Speichern von LPCM-Audiodaten. Es ist das Standard Audio-Format auf Mac-Computern und somit das Äquivalent zu Microsofts  RIFF WAVE–Format.

LPCM (Linear Pulse Code Modulation) ermöglicht im Gegensatz zu anderen Audiodateien wie MP3 keine Datenkompression. Das bedeutet zum einen, dass beim Speichern von AIFF-Dateien große Datenmengen entstehen. Zum anderen sind diese Audiodaten verlustfrei und können ohne zusätzlichen Rechenaufwand verarbeitet werden. Das Datenformat AIFF wird zumeist in Tonstudios und in der Musikproduktion verwendet.

Aliasing-Effekt
Ein periodisches, diskretes Abtasten eines Signals im Zeitbereich hat im Frequenzbereich ein ebenso periodisches, diskretes Spektrum zur Folge. Es entstehen sog. Aliasing-Effekte, d.s. Ultraschall-Spiegelungen des ursprünglichen analogen Signals bei Vielfachen der Abtastrate (fS) und Nutzfrequenz (fN):

Audiokomprimierung
Audiodateien können mit verlustfreien oder verlustbehafteten Codecs in eine mehr oder weniger Platz sparende Form gebracht werden. Während bei verlustfreien Codecs die Datenreduzierung absolut originalgetreu vonstatten geht, kann insbesondere bei starker Komprimierung mit verlustbehafteten Codecs ein Unterschied zum Ausgangsmaterial hörbar sein.

Ohne Qualitätsverlust komprimierte Audiodateien verlieren etwa 25% bis 50% ihrer ursprünglichen Dateigröße. Typische Vertreter sind Monkey’s Audio, FLAC oder WavPack. Die Tonqualität ist immer identisch mit dem Original und Prüfsummen fördern beschädigte Dateien zutage. Moderne verlustbehaftete Codecs wie AAC, Ogg Vorbis oder MP3 schrumpfen das Ausgangsmaterial dagegen um 90%, ohne dabei gleich hörbar schlechter zu klingen.

Bit
Bit (Wortkombination aus binary digit) ist die Maßeinheit für die Datenmenge. Dabei ist 1 Bit die kleinste darstellbare Datenmenge, bestehend aus den Werten „0“ oder „1“. Größere Datenmengen sind immer ganzzahlige Vielfache von 1 Bit. (nicht zu verwechseln mit der Datenmengengröße Byte, wo 1 Byte = 8 Bit).

Bittiefe
Die Anzahl der Bits, die im Quantisierungsprozess zum Repräsentieren der Audioamplitude verwendet werden. Höhere Bittiefen ermöglichen einen größeren Dynamikumfang, wobei die Datenmenge und damit Dateigröße allerdings zunimmt. Dabei bieten 16 Bit 216=65.536 mögliche Dynamikwerte, 24 Bit schon 224=16.777.216 mögliche Dynamikwerte.

1 Bit entspricht ungefähr 6 dB Dynamik, sodass 16-Bit-Dateien einen Dynamikumfang von 96 dB umfassen können, während 24-Bit-Datein einen Dynamikumfang von bis zu 144 dB umfassen können.

Bitrate (kbps)
Das Verhältnis von Datenmenge und Zeit. Die Bitrate wird verwendet um die Kodierqualität in der Audiokompression anzugeben. Eine höhere Bitrate benötigt bei gleicher Titellänge mehr Speicherplatz.

Buffering
Buffering bezeichnet die Zwischenspeicherung von Daten bei der Datenübertragung. Der Puffer (engl.: Buffer) dient dem Ausgleich von Differenzen in der Verarbeitungsgeschwindigkeit. Daten werden vorher in den Puffer geladen und aufgestaut, um dann zeitversetzt abgespielt zu werden. Dadurch kommt es seltener zu „Aussetzern“ bei der Übertragung.

CD-Ripper
Hard- und/oder Software-Instrument zum Kopieren der digitalen Musikdaten einer Audio-CD auf die Festplatte. Die Daten werden, ggf. unter Ergänzung von Informationen aus dem Internet (Titel-, Albumdaten, CoverArt etc.)  als Musikdatei zum Beispiel im FLAC, MP3- oder WAV-Format abgespeichert.

Codec
Als Codec (Kunstwort aus engl. coder und decoder) bezeichnet man ein Verfahren bzw. Programm, das Daten oder Signale digital kodiert und dekodiert. Beim direkten Umwandeln
von einem Format in ein anderes (bspw. MPEG-2 zu MPEG-4 oder MP3 zu WMA) spricht man auch von Transkodierung. Beim Kodiervorgang werden die analogen Signale häufig nicht verlustfrei digitalisiert, sondern es wird eine Datenkompression des digitalen Signals vorgenommen, die je nach Ausmaß und Verfahren zu Qualitätsverlusten bei der Tonqualität führen kann.

dB (Dezibel)
Das Dezibel ist im Bereich der Akustik eine nach Alexander Graham Bell benannte logarithmische Maßeinheit für Schalldruckegel. Ein Rückschluss von Schalldruckpegeln auf die vom Menschen wahrgenommene Lautstärke ist nur sehr eingeschränkt möglich, da der Schalldruckpegel nicht proportional bestimmt  wird, sondern logarithmisch. Das heißt, ein Ton mit 60 dB ist nicht sechs mal lauter als ein Ton mit 10 dB, sondern besitzt die 600fache Intensität. Als Faustformel gilt, dass 10 dB Unterschied etwa als doppelte bzw. halbe Lautstärke wahrgenommen wird. Die Hörschwelle liegt bei 0 dB. Flüstern entspricht 15 bis 25 dB, Sprechen in normaler Lautstärke 65 bis 70 dB. Live-Rockmusik erreicht über 120 dB, ein Düsenflugzeug etwa 140 bis 180 dB. Jede Lautstärke über 140 dB ist schmerzhaft und kann Gehörschäden verursachen.

Digitales Signal
Ein Digitalsignal ist ein von einem Analog/Digital-Konverter erzeugtes diskretes und quantisiertes Signal und das Gegenstück zum kontinuierlichen Analogsignal. Digitalsignale werden durch 2 Kenngrößen definiert: die Abtastrate (gemessen in kHz) und die Wortbreite oder Bittiefe (gemessen in Bit). Digitalsignale werden meist anhand einer Folge von Binärzahlen dargestellt. Während der Aufnahme bzw. Analog-zu-Digital-Wandlung wird das Analogsignal in diskreten Intervallen gemessen (z.B. 44.100 mal pro Sekunde bei CDs) und jedem Messpunkt ein binärer Quantisierungswert zugeordnet (z.B. einer aus 16Bit bei der CD).

Digitalisierung
Digitalisierung bezeichnet die Umwandlung kontinuierlicher analoger Signale in diskrete und quantisierte digitale Signale mit Hilfe von Sampling und der Quantisierung.

Downmix
Unter Downmix versteht man das gezielte heruntermischen von Mehrkanalaufnahmen auf eine geringere Kanalanzahl (z.B. Downmix von Dolby Digital 5.1 auf Stereo). Dabei gehen die Informationen der nach dem Downmix nicht mehr vorhandenen Kanäle nicht unter, sondern werden pegelrichtig den anderen Kanälen zugemischt.

DSD (Direct-Stream Digital)
Direct-Stream Digital (DSD) ist ein von Philips Ende der 90er Jahre entwickeltes digitales Modulationsverfahren, das auf dem Prinzip der Delta-Sigma-Modulation beruht und die Musikinformationen mit einer Abtastrate von 2,82MHz (bei DSD64, bzw. 5,64MHz bei DSD128) und einer Wortbreite von 1Bit moduliert. Kommerziell genutzt wurde das DSD-Verfahren primär in der von Sony und Philips entwickelten SACD. Durch Weglassung der klanglich problematischen Dezimierungs- und Interpolationsfilter des klassischen Sigma-Delta-Verfahrens, vereinfacht das DSD-Verfahren die Analog-Digital- und Digital/Analog-Wandlung und verbessert einige der klanglichen Probleme des klassischen Verfahrens. Diese Verbesserungen kommen allerdings zum Preis einer extrem erhöhten Rauschmenge über das gesamte Frequenzspektrum, das mittels dem sog. „Noise Shaping“ aus dem menschlichen Hörbereich verschoben werden muss.

Dynamikumfang
Dynamikumfang bezeichnet den Unterschied zwischen dem leisesten und lautesten Signal einer Musikdatei und wird in dB gemessen. Nach unten wird der Dynamikumfang durch das Grundrauschen des Audiosystems begrenzt. Werden Signale unterhalb dieses Pegels ausgesteuert, würden sie vom Rauschen maskiert und dadurch unhörbar werden. Nach oben wird der Dynamikbereich durch Erreichen der maximalen Aussteuerung des Systems ohne hörbare Verzerrungen begrenzt.

Equalizer
Ein Equalizer (engl. to equalize: angleichen) ist eine elektronische Komponente zur Entzerrung von Tonfrequenzen. Man unterscheidet grafische und parametrische Equalizer. Beim grafischen Equalizer ist jedem beinflußbaren, aber festeingestellten Frequenzband ein Regler zu geordnet, so dass man den Verlauf der Frequenzgangkorrektur „grafisch“ anhand der Reglerpositionen sehen kann. Der parametrische Equalizer bietet dagegen die Möglichkeit, für jedes seiner verfügbaren Filter die Einsatzfrequenz (f), die Stärke der Amplitudenbeeinflussung (gain) und die Bandbreite der Änderung (meist über die Filtergüte Q ausgedrückt) frei einstellen zu können.

FLAC
Verlustfreies Open Source Audioformat. FLAC steht für „Free Lossless Audio Codec“. Unter anderen verlustfreien Codecs hat FLAC einige Vorteile: FLAC folgt der Open Source Philosophie (kostenlos, offener Quellcode, für viele Betriebsysteme verfügbar), arbeitet sehr schnell, hat eine gute und sichere Framestruktur (wichtig für Seeking, Streaming und Archivierung) und bietet ReplayGain und CueSheet Unterstützung.

freedb
Freedb ist eine Datenbank mit Informationen über Audio-CDs, die über das Internet abgerufen werden können. CD-Ripper greifen auf diese Daten zurück, um Titel automatisch zu benennen und mit Titelinformationen (Tags) zu versehen.

Frequenz
Die Frequenz ist ein Maß für periodische Vorgänge, wie Schallwellen und wird in Herz (Hz) gemessen. Im Akustikbereich beschreibt die Frequenz die Tonhöhe eines Signals. Niedrigere Zahlen beschreiben tiefe Töne. Der Frequenzbereich, den das menschliche Ohr hören kann, liegt etwa – je nach Alter und individuellen Umständen – zwischen 20 und 20.000 Hz (20 Hz und 20 kHz).

Gigabyte (GB)
Maßeinheit für Datenmengen. Die Speicherkapazität von Speichermedien wird oft in Gigabyte angegeben und entspricht 1Mio. kB.

Jitter
Jitter bezeichnet das zeitliche Schwankungen im Taktsignal bei der Übertragung von Digitalsignalen. Die im Digitalisierungsprozess verwendete Samplingmethodik setzt exakt gleichgroße Abstände (Periodendauer) zwischen den Messpunkten voraus (z.B. bei der CD mit 44.100 Messpunkten pro Sekunde 1/44.100 = 22,67 μs). Abweichung von dem theoretischen Soll zu den tatsächlichen Taktraten wird zeitliche Taktflankenungenauigkeit oder auch Taktflankenzittern („Jitter“) genannt. Jitter ist einer der Hauptverursacher mangelhafter Klangperformance. Die Folgen für den Klang reichen von ungenauer Abbildung, fehlender Körperhaftigkeit bis zu tonalen Problemen.

MP3
Audioformat. MP3 steht für MPEG 1 layer 3 (MPEG = Motion Picture Experts Group). MP3 ist ein verlustbehaftetes Kompressions-Verfahren. Auf einer Audio-CD werden circa 11 MB für eine Minute Musik benötigt. MP3 kommt mit etwa 10% davon aus. Das MP3-Format wird von praktisch allen Programmen und Geräten unterstützt, die Musikdateien abspielen.

MP4
Containerformat. Nicht der Nachfolger des MP3-Audioformats, sondern eine Bezeichnung für Mediendateien, die Musik, Filme, Bilder nach dem MPEG-4 Standard enthalten können.

Noise Shaping
Noise Shaping (zu deutsch: „Rauschformung“) bezeichnet ein Verfahren, in dem das Quantisierungsrauschen einer DSD-Aufnahme mit Hilfe von digitalen Rückkopplungsfiltern in Frequenzbereiche außerhalb des menschlichen Hörbereiches (20Hz – 20kHz) verschoben wird. Die Rauschenergie selbst wird hierbei nicht abgeschwächt – vielmehr wird das Rauschen durch das Verfahren nur in Frequenzbereiche „verschoben“, die für die menschliche Wahrnehmung ohne Bedeutung sind (>20kHz).

Normalisieren
Das Angleichen des höchsten Lautstärkepegels bei Musikdateien. Trotz der Angleichung können verschiedene Titel dennoch unterschiedlich laut klingen. Ein Verfahren, das sich am Lautstärkeniveau orientiert ist ReplayGain.

Ogg Vorbis
OggVorbis ist ein kostenloses Coder/Encoder-Paket aus dem Linux-Umfeld und verspricht eine zu MP3 ebenbürtige Klangqualität bei gleicher Dateigröße. Obwohl OggVorbis Dateien eigentlich effektiver sind als mp3s, hat sich dieser Standard nicht durchgesetzt.

Oversampling
Oversampling bezeichnet eine Überabtastung eines digitalen Signals per Abtastratenkonvertierung mit einer höheren Abtastrate (meist ganzzahlige Vielfache), als für die Darstellung der Signalbandbreite (gem. Nyquist-Shannon-Theorem) eigentlich benötigt wird. Dies wird durch Interpolation der bestehenden Samples durch neue Samples erreicht: z.B. beim 4fachen Oversampling einer CD werden 3 neue Samples für jedes bestehende Sample hinzugefügt und so die Abtastrate von 44,1kHz auf 176,4kHz erhöht. Die zusätzlichen Samples enthalten zwar keine sinnvollen Informationen, sorgen aber dafür, dass die Aliasing-Spektren erst mit deutlich größerem Abstand zum hörbaren Frequenzbereich einsetzen und ermöglichen die Verwendung von Filtern, die das Musiksignal weniger negativ beeinflussen, weil sie ein breiteres Frequenzspektrum zu ihrer Funktion zur Verfügung haben:

Playlist
Playlisten bezeichnen Abspielliste in denen sich Titelzusammenstellungen in fester Reihenfolge abspeichern und mit Abspielprogrammen oder dafür geeigneten MP3-Playern wiedergeben lassen.

ReplayGain
Das Lautstärkeniveau verschiedener Audio-CDs wird nicht immer als gleich empfunden. Das ReplayGain-Verfahren gleicht diese Unterschiede an.

PCM
PCM steht für Pulse Code Modulation und das am häufigsten eingesetzte System zur Umwandlung von analogen Audiosignalen in digitale Signale. PCM wurde 1937 von dem britischen Wissenschaftler Alec Reeves für Telekommunikationsanwendungen entwickelt, konnte aber erst nach Entwicklung der Transistortechnik ab den 1970er Jahren kommerziell genutzt werden. Das PCM-Verfahren besteht im Prinzip aus 3 Schritten: 1. dem Sampling,  2. der Quantisierung und 3. der Codierung.

Eine spezielle Form des PCM-Verfahrens ist das LPCM-Verfahren (Linear Pulse Code Modulation), bei dem die Quantisierungsstufen linear, d.h. einheitlich groß sind. Da die allermeisten Analog/Digital- und Digital/Analog-Wandler fixe Quantisierungsstufen verwenden wird die Bezeichnung PCM meist gleichbedeutend mit LPCM verwendet, obwohl das streng genommen nicht ganz korrekt ist.

PDM
PDM steht für Pulse Density Modulation, eine Variante der Pulse Width Modulation, und das DSD-Verfahren.

Quantisierung
Die Quantisierung ist der zweite Schritt im digitalen Wandlungsprozess. Die Quantisierung ordnet jedem Messpunkt aus dem Sampling-Schritt ein diskreten Wert zu. Dieser Quantisierungswert wird anschließend im dritten Schritt codiert, d.h. ihm wird eine binäre Zahlenfolge (bestehend aus 0en und 1en) zugeordnet. Das Ergebnis wird in Bit angegeben (z.B. bei der CD 16Bit).

Sampling
Das Sampling ist der erste Schritt im digitalen Wandlungsprozess. Das Sampling tastet ein analoges Signal mittels Pulsamplitudenmodulation (PAM) mit einer zeitlich konstanten Abtastrate ab, die in Hz angegeben wird (z.B. bei der CD 44,1kHz). Dabei wird aus dem zeitkontinuierlichen Signalverlauf eine zeitdiskrete Signalfolge gebildet.

Samplingrate = Abtastrate

SPDIF
SPDIF steht für Sony/Philips-Digital Interface und ist eine Schnittstellenspezifikation für die Übertragung digitaler Audiosignale zwischen verschiedenen Geräten (z.B. CD/DVD-Player, DAT-Recoder, SAT- und Heimkino-Receiver etc.). Es werden in der Regel Cinch- oder optische Kabel, seltener auch BNC-Verbindungen zur Übertragung benutzt.

Streaming
Üblicherweise können Dateien erst genutzt werden, wenn sie vollständig zur Verfügung stehen. Um im Internet das Abspielen von Multimediadateien, die relativ groß werden können, zu erleichtern, gibt es das Streaming-Verfahren, wofür allerdings Software benötigt wird, wie z.B. mit QuickTime, WindowsMedia, RealAudio, Shockwave, die der User kostenlos erhalten kann. Dabei werden die Dateien in einzelne kleine Datenpakete aufgeteilt, die schon aktiviert werden, obwohl die Datei noch nicht komplett übertragen ist. Dadurch ist es z.B. möglich, über das Internet Radio zu hören. Für den Urheber stellt das Streaming ein Mittel dar, sein Werk der Öffentlichkeit zu präsentieren, gleichzeitig aber die Nutzung zu kontrollieren, da kein kompletter Download der Werke stattfindet. (Anmerkung: Eigentlich findet schon ein Download statt. Die Daten werden aber nur temporär auf dem Rechner zwischengespeichert.)

Streaming-Service
Zu den legalen Musikstreamingdiensten in Deutschland gehören z.B. Spotify, Simfy, oder Napster. Diese Unternehmen bieten gegen eine monatliche Nutzungspauschale ihren mehr oder weniger umfangreichen Musikkatalog zum Streaming an. Diese Angebote gibt es häufig auch in einer werbungsfinanzierten Umsonstvariante. Der Konsument kann die Musiktitel nur so lange nutzen, wie er die monatlichen Abogebühren bezahlt. Dies wird durch ein entsprechendes DRM gewährleistet. Der zur Verfügung gestellte Musikkatalog ist bei der zuständigen Verwertungsgesellschaft lizenziert.

Tag (ID3Tag)
Titelinformationen, die in einer Musikdatei abgespeichert sind, zum Beispiel Interpret, Titel, Album, Musikrichtung, usw. Viele MP3-Player und Abspielprogramme verwenden Tags für die Musikverwaltung.

WAV
Ein von Microsoft und IBM entwickelter Dateiformat-Standard für das verlustfreie Speichern von digitalisierten Audiodaten. WAV ist der größte gemeinsame Nenner der Windows Audioformate. Das Macintosh-Äquivalent nennt sich AIFF. WAV ist eigentlich der Sammelbegriff für verschiedene Unterformate, von denen PCM das gebräuchlichste ist und meist mit WAV gleichgesetzt wird.
Bei WAV (PCM) handelt es sich um eine unkomprimierte Aufzeichnung von Soundsamples.

Wortbreite = Bittiefe

 

© Alexej C. Ogorek