Zurück zur Hauptübersicht
< vorherige Seite
Der Glossar stellt Begriffe aus allen audiovisuellen Erhaltungsbereichen in alphabetischer Reihenfolge vor.
Audio Interchange File Format. Siehe unter IFF.
Aufzeichnungsverfahren, bei dem kontinuierliche magnetische Tonsignale aufgezeichnet werden. Diese Signale entsprechen den unterschiedlichen Spannungssignalen, die vom aufnehmenden Mikrophon kommen und verstärkt werden.
AOB-Files sind MPEG-Streamingdateien (vergleichbar mit VOB-Files), die Audiodaten enthalten. Anders als VOB-Files enthalten sie keine Informationen für die Navigation, sondern nur den Audiostream. Quelle: http://dvd-audio.sourceforge.net/spec/aob.shtml
Lagerbedingungen, die speziell darauf ausgerichtet sind, die Lebensdauer eingelagerter Medien zu verlängern oder zu maximieren. Das mit «Archivbedingungen» bezeichnete Raumklima zeichnet sich generell durch Temperaturen und Luftfeuchtigkeitswerte aus, die unter denen des Arbeitsarchivs liegen. Aus Sicherheitsgründen hat das Personal nur eingeschränkt Zugang zu unter Archivbedingungen eingelagerten Medien. Siehe auch Kasten «Klima im Archiv», Seite 30 => ev. Seitenzahl anpassen
Künstlich entstandene, ursprünglich nicht vorhandene Geräusche, welche vor allem durch digitale Nachbearbeitung des originalen Tonsignals entstehen. Kaum messbar, können aber störender sein als das Phänomen, welches optimiert werden sollte.
Siehe unter «Kurzsteckbriefe von Tonträgern und Fileformaten» (Unkomprimierte bzw. nicht datenreduzierte (lineare) Audio-Fileformate).
Sammelbegriff für verschiedene Verfahren zur Reduktion der Datenmenge im Tonbereich. Es wird unterschieden zwischen Datenreduktion, welche verlustbehaftet ist und auch «lossy coding» genannt wird, und Datenkompression, welche mittels einem verlustfreien Algorithmus «lossless coding» arbeitet. Siehe auch Kurzsteckbriefe Seite 19 => ev. Seitenzahl anpassen.
Trägermaterial, aus dem bis in die 60er-Jahre Audiobänder hergestellt wurden. Umgangssprachliche Bezeichnung für den Kunststoff Zelluloseazetat, chemisch verwandt mit dem Zellulosediazetat. Analog/Digital-Wandlungsvorgang, bei dem ein analoges Signal gemessen und quantisiert wird. Die gewonnenen Pegelwerte werden dann in Zahlen des Binärsystems umgewandelt. Siehe auch unter Lineares Audioformat.
Kraft, die beim Abspielen auf ein Band einwirkt. Die Bandspannung sollte regelmässig überprüft werden. Siehe auch Kapitel «Wartung von Aufnahme- und Wiedergabegeräten» anpassen.
Die mechanischen Elemente eines Tonbandgerätes, die das Band während des Abspielens an den Magnetköpfen vorbeiführen. Zum Bandtransport gehören die Bandführungselemente, der Capstan (engl. für Bandantriebswelle), die Bandrollen usw. Siehe auch Kapitel «Wartung von Aufnahme- und Wiedergabegeräten», Seite 30 => ev. Seitenzahl anpassen.
BD steht für Blu-ray Disc und gehört zu den optischen Datenspeichern, weil die sie wie die ältere CD- und die DVD-Familie mit Laserstrahlen gelesen und für BD-R (recordable) und BD-RE (recordable, erasable) auch geschrieben bzw. gebrannt werden kann. BD kam 2006 auf den Markt mit dem Ziel, die DVD als Medium für das Heimkino abzulösen. BD ermöglicht die Speicherung von bewegten Bildern in High-Definition-Auflösung. Das Format setzte sich gegen Konkurrenzsysteme wie die HD DVD durch.
Datenmodell für Bibliotheken, gedacht als Nachfolger von MARC 21, mit dem Ziel, Linked (open) Data verwenden zu können. BIBFRAME bezieht sich auf eine vereinfachte Version des FRBR-Datenmodells, nutzt aber wie jenes RDF (Ressource Description Framework). Für mehr Informationen siehe den Eintrag in Wikipedia und die offizielle BIBFRAME-Website der Library of Congress.
Das Polymer, mit Hilfe dessen die Magnetpartikel zusammen-gehalten und auf das Trägermaterial «geklebt» werden. Bindemittel werden meist auf Polyester oder Polyurethanbasis hergestellt. Beim Zerfall von Tondokumenten sind Bindemittel oft die Auslöser.
Schadensbild, bei dem sich das Bindemittel auf einem Magnetband so weit zersetzt hat, dass sich während des Abspielens die Magnetschicht ablöst. Führt zu Signalverlust und kann Video- oder Audioköpfe verschmutzen. In der Fachsprache «Sticky Shed Syndrome» genannt. Siehe auch unter Bindemittel sowie Hydrolyse.
Kleinste Informationseinheit der Digitaltechnik. Mit einem Bit (Binary digit) kann man genau zwei verschiedene Zustände darstellen, nämlich «0» oder «1». Mit n Bits lassen sich genau 2n verschiedene Zustände darstellen. So ergeben 8 Bits beispielsweise 28, also 256 verschiedene Zustände, nämlich alle Zahlen zwischen einschliesslich 00000000 (im Dezimalsystem 0) und 11111111 (im Dezimalsystem 255). Mit 8 Bits können die Pegelwerte eines Signals einzeln gemessen und jedem Pegelwert ein Wert zwischen 0 und 255 zugeteilt werden, wodurch sich 256 mögliche verschiedene Werte ergeben. Für die CD mit 16 Bits beispielsweise gelten also 216 Bits = 65 536 mögliche Werte.8 Bits = 1 Byte
1024 Bytes = 1 Kilobyte (KiB)
1024 kB = 1 Megabyte (MiB)
1024 MB = 1 Gigabyte (GiB)
1024 GB = 1 Terabyte (TiB)
1024 TB = 1 Petabyte (PiB)
Wenn anstelle von 1024 (binäres System) 1000 Einheiten (Dezimalsystem) gemeint sind, wird KB, MB, GB, TB oder PB geschrieben.
Das Broadcast Wave Format (BWF) wurde speziell für den Rundfunkbereich entwickelt, eignet sich aber auch gut als Archivformat. In der EBU (European Broadcasting Union) ging es Anfang der 90er Jahre des letzten Jahrhunderts unter anderem darum, ein Format zu standardisieren, das den filebasierten Programmaustausch ermöglichen sollte. Dies unabhängig davon, ob die Audiofiles in der MAC/UNIX-Welt (AIFF-Format) oder in der PC-Welt (RIFF/WAVE bzw. .wav) angewendet werden und auch unabhängig davon, ob es datenreduzierte oder lineare Files sind. Das BWF-Format kann neben dem Audiosignal auch strukturierte Metadaten enthalten, die mit einer Datenbank kommunizieren können. Das im BWF enthaltene Audiofile kann mit den meisten üblichen Playern auch dann gelesen werden, wenn die restlichen Metadaten nicht auslesbar sind. Insofern ist das BWF universell einsetzbar, enthält aber je nachdem für die Archivierung wichtige zusätzliche Begleitdaten. Der BWF-Standard ist inzwischen auch in der AES (Audio Engineering Society) und in der Industrie akzeptiert und hat den Charakter einer verbindlichen Norm (siehe auch IFF).
Comité Consultatif International des Radiocommunications. Internationaler, beratender Ausschuss für den Funkdienst, der sich mit Normungsfragen befasst. Seit Ende 1992 Teil der International Telecommunication Union (ITU). Unter anderem gebräuchlich im Zusammenhang mit der technischen Normierung des Tonbands und im Zusammenhang mit Farbcodierverfahren PAL (CCIR/PAL). Siehe «Fernsehnorm».
CD für Compact disc bezeichnet eine Familie von optischen Medien. 1981 für den Vertrieb von Musik eingeführt (Audio-CD oder CD-DA für Digital Audio). Die Musik wird mit 16-Bit-Stereo und einer Abtastrate von 44.1 Kilohertz gespeichert. Es gibt zwei Grössen: Durchmesser 120mm und 80mm (Mini-CD).
Steht für Compact Disc Read-Only Memory. Die CD-ROM enthält computerlesbare Dateien. Sie wurde 1985 präsentiert und 1988 als ISO 9660 standardisiert. Die Speicherkapazität einer CD-ROM beträgt zwischen 553 und 900 MB. Verwendet für die Publikation von Software, Video Games, Lexika, Lernmedien etc.
Es gibt Dateiformate, die mehrere Dateien unterschiedlicher Art umfassen können. Solche Dateien werden Container oder auch Wrapper genannt. Im audiovisuellen Bereich können Container unterschiedliche Codecs und Streams fassen. In Containerformaten (wie z. B. im BWF) können neben den Audiodaten auch strukturierte Metadaten (z. B. XML) abgelegt werden, um sie für bestimmte Anwendungen zu gebrauchen.
Siehe Datenreduktion
Datenreduktion wird oft auch «Datenkompression» genannt. Es ist ein Verfahren, um die Menge der aufgezeichneten Daten klein zu halten. Es gibt verlustbehaftete Datenreduktion (lossy coding oder compression) und verlustfreie Datenreduktion (lossless coding oder compression).
Feuchtigkeitsveränderungen und zu hohe oder zu niedrige Temperaturen können bei audiovisuellen Trägern zu irreversiblen Schäden und Veränderungen führen. Dehnung wird durch Wärme, Zusammenziehen oder Kontraktion durch Kälte verursacht.
Ein Aufzeichnungsverfahren, bei dem das Spannungssignal vom Mikrophon in binären Code umgewandelt wird. Beim Abspielen werden diese Codes von einem Digital-Analog-Wandler wieder in ein analoges Ausgangssignal umgewandelt.
Die Auflösung wird entweder mit Pixel oder Punkten per inch angegeben. Die technisch korrekte Bezeichnung ist bei Eingabegeräten (Scanner, Kameras) pixel per inch (ppi) und bei Ausgabegeräten (Drucker) dots per inch (dpi).
Die DVD (Digital Versatile Disc) gehört zu den optischen Datenträgern. DVD-R und DVD+R (recordable) können einmal , DVD-RW (rewritable) mehrfach beschrieben werden. Wie bei der älteren CD (bzw. CD-R, CD-RW) ist ein Laserstrahl für das Lesen und das Schreiben der Information verantwortlich. 1996 eingeführt, löste die DVD die VHS-Videokassetten für das Heimkino ab.
Abk. für Electronic Industries Alliance in Arlington, Virgina, USA, seit 1991 mit der Telecommunications Industry Association (TIA) zusammen geschlossen, gibt Standards frei. Im Video bzw. Fernsehbereich in Verbindung mit US-Fernsehnorm NTSC gebräuchlich (EIA/NTSC). Siehe «Fernsehnorm».
Abk. für Electronic Industries Association of Japan. Definierte u.a. 1969 den Standard für Halbzollbänder. Auch Japanstandard genannt.
Engl. «Vinegar Syndrome». Durch Hydrolyse bedingte Zersetzung von Magnetbändern aus Zelluloseazetat. Dabei wird unter anderem Essigsäure freigesetzt, die für den typischen essigähnlichen Geruch verantwortlich ist. Hat das Essigsyndrom einmal eingesetzt, zerfällt das Band deutlich schneller, da die Hydrolyse des Zelluloseazetats durch die Essigsäure noch beschleunigt wird. Kein Problem von Videobändern (da nicht aus Azetat), häufig bei Film und bei separaten Magnettonaufnahmen zu Filmen (Sepmagbänder).
Eine Fernsehnorm beschreibt grundsätzlich die Zeilenanzahl (aus wie vielen Zeilen sich ein TV-Bild zusammensetzt) und die Bildwechselfrequenz (wie viele Male sich ein TV-Bild pro Sekunde erneuert). Für das Fernsehen mit so genannter Standardauflösung (SDTV) wird in Europa die Norm 626/50 verwendet, also 625 Zeilen mit 50 Hz übertragen. In den USA und in Japan gilt die Norm 525/60, dort werden 525 Zeilen mit 60 Hz übertragen. In der Umgangssprache wird die Fernsehnorm mit den Farbcodierverfahren PAL für Westeuropa, SECAM für Frankreich und Teile Osteuropas und NTSC für USA und Japan gleichgesetzt. Siehe auch «HDTV».
In der Tontechnik hat die Fehlerkorrektur spätestens seit der Einführung der CD in den 1980er Jahren einen grösseren Bekanntheits- grad erhalten. Im Wesentlichen geht es darum, Fehler (z. B. Kratzer auf einer CD) ausgleichen zu können bzw. Ersatz-Bits in den auszulesenden Datenstrom einzufügen. Diese ermöglichen es, zumindest bis zu einem gewissen Grad an Beschädigung, dass das Medium weiter abgespielt werden kann. Diese Ersatz-Bits entsprechen aber nicht mehr dem korrekten Wert der Originalinformation.
Damit werden audiovisuelle Dokumente charakterisiert, die bei ihrer Entstehung als Datei auf einem Datenträger abgespeichert werden. Z.B. als WAVE-, als TIFF- oder als MP4-Datei.
Häufig wird auch der Begriff «digital-born» gebraucht. Dieser ist aber missverständlich, da insbesondere im Audio- und Videobereich auch digitale Formate auf physischen Trägern (Bänder oder Platten) entwickelt worden sind, die zwar digitale Signale aber keine Dateien auf die Bänder oder die Discs geschrieben haben (z.B. CDs oder DigitalBetam-Videos).
Der einzige Codec, der offiziell mit verlustfreier Datenkompression arbeitet. Details siehe im Kapitel «Kurzsteckbriefe von Tonträgern und Fileformaten».
Darunter wird generell die technische Spezifikation eines Tonträgers verstanden. Beim Tonband ist dies z. B. die Anordnung von Spuren auf einem Magnetband inkl. Breite des Bandes, Abmessung von Spulen oder Kassetten und Abspielgeschwindigkeit. Zum Format gehören auch tontechnische Spezifikationen wie z. B. die Frequenzkurven-Entzerrung. Die Formate waren und sind von verschiedenen Organisationen normiert (z. B. NAB, CCIR, IEC, AES). Für die korrekte Wiedergabe des Tonsignals ist die Kenntnis des Formats von grosser Bedeutung.
Datenmodell für bibliographische Metadaten und theoretische Grundlage für die Erstellung von bibliographischen Regelwerken (z.B. RDA). Von IFLA (International Federation of Library Associations and Institutions) entwickelt. Besteht aus Entitäten, die miteinander in Beziehung stehen. Die Basis bilden die 4 Entitäten Werk (work), Expression (expression), Manifestation (manifestation) und Exemplar (item).
Bei der Frequenzmodulation (FM) wird eine hochfrequente Schwingung als Träger für das zu übertragende Signal benutzt. Auf diese Trägerschwingung kann ein niederfrequentes Signal (z. B. der Ton) aufmoduliert werden. Weitere Informationen: École Polytechnique de l’UNS – Polytech’Nice Sophia – Département d’Électronique.
Engl. Abk. High Definition Television. Fernsehnormen mit erhöhter Zeilenanzahl: 1080 oder 720 Zeilen mit Bildinhalt, bei einem Bildseitenverhältnis von 16:9. Siehe auch «Fernsehnorm».
Chemischer Prozess, bei dem chemische Verbindungen durch Reaktionen mit Wasser gespalten werden. Die Polyesterverbindungen in den aus Polymeren bestehenden Bindemitteln auf Magnetbändern sind für Hydrolyseprozesse anfällig und zerfallen dabei in Alkohole und saure Endgruppen. Hydrolyseprozesse können theoretisch rückgängig gemacht werden, indem die Alkohole und die sauren Endgruppen miteinander reagieren und dabei eine Polyesterverbindung mit Wasser als Nebenprodukt bilden. In der Praxis allerdings kann eine stark zerfallene Bindemittelschicht kaum in ihre ursprüngliche Form zurückgebracht werden, auch nicht, wenn das Magnetband unter extrem trockenen Bedingungen aufbewahrt wird.
Das Interchange File Format (IFF) ist ein von der Firma Electronic Arts 1985 entwickeltes Dateiformat für den Datenaustausch zwischen Computersystemen. Es wird unterschieden zwischen AIFF (Audio Interchange File Format), welches in der Macintosh-Umgebung verwendet wird, und RIFF (Ressource Interchange File Format), welches 1991 von Microsoft und IBM adaptiert wurde, um die Kompatibilität mit den Intel-Prozessoren sicherzustellen. Die IFF-Dateien haben in der Regel keine eigenen Erweiterungen, sind aber die Basis für Dateiformate wie AIFF, WAV und BWF (BWF). Die Spezifikation von AIFF wurde 1988 von Apple publiziert.
Abkürzung für International Standard Archival Description (General). Internationaler Anwendungsstandard zur Verzeichnung archivischer Unterlagen. Vom ICA (International Council on Archives) im Jahr 2000 verabschiedet. Folgt dem Prinzip der mehrstufigen, hierarchisch angeordneten Verzeichnung zur Beschreibung des Entstehungszusammenhangs und des Inhalts von Archivgut und der Umsetzung des Provenienzprinzips.
Der Verein Schweizerischer Archivar:innnen VSA hat eigene Richtlinien zum Einsatz von ISAD(G) erarbeitet, die auf die Gepflogenheiten in der Schweiz abgestimmt sind: https://vsa-aas.ch/ressourcen/isad-g-richtlinien/
Kaskadierung ist oft verantwortlich für die Verschlechterung eines Tonsignals auf dem Weg vom ursprünglichen Schallereignis bis zum Ohr. Dies kann durch mehrfaches, hintereinander erfolgendes Abspeichern von Ton durch verlustbehaftete (datenreduzierte) Verfahren geschehen. Auch Verbreitungsketten (z. B. Radiosendungen), in welchen ein Signalstream zwischen Produktion und Ausstrahlung immer wieder durch Codierverfahren umgearbeitet wird, verschlechtern die Tonqualität.
Zusammenziehen des Bandes bei sehr niedriger Temperatur.
Kann mit oder ohne Verlust gemacht werden. So ist die Konvertierung in ein verlustfreies Kompressionsformat ist eine verlustfreie Konvertierung. Auch das Umrechnen eines 48kHz in 96kHz-File oder eines 16-Bit in ein 24-Bit File ist eine verlustfreie Konvertierung. Allerdings brauchen diese Konvertierungen wesentlich mehr Speicherplatz ohne einen Qualitätszuwachs (100% für 96 anstatt 48kHz und 50% bei 24 anstatt 16 Bit).
Das lineare Audioformat, auch PCM (Pulse Code Modulation) genannt, ist ein digitales Audioformat, das ohne spezielle, meist datenreduzierte Codierverfahren auskommt. Die kontinuierliche Sinuskurve des analogen Tonsignals wird periodisch (z. B. 48 000 mal pro Sekunde = 48 kHz) abgetastet (Puls). Der Analog/Digital-Wandler (A/D-Wandler) ordnet dann jedem abgetasteten Amplitudenwert (Auslenkung der Sinuskurve) einen Zahlenwert (Code) zu, welcher in Bit (z. B. 24 Bits) angegeben wird und auch Wortlänge genannt wird. Das Verfahren wird PCM (Pulse-Code-Modulation) genannt. Es wurde 1948 von Claude Elwood Shannon theoretisch formuliert, aufbauend auf einer mathematischen Theorie von Harry Nyquist (1928). Es wird deshalb auch vom Nyquist-Shannon-Abtasttheorem gesprochen.
Im Internet frei verfügbare Daten, die über einen URI (Uniform Resource Identifier) definiert und direkt mit anderen Ressourcen verlinkt werden können. Im Unterschied zu Linked Date sind LoD frei verfügbar und können für jede Anwendung gebraucht werden. LoD eignet sich besonders für Anwendungen mit RDF (Ressource Description Framework) und SPARQL. Ein Beispiel für eine Sammlung von LoD ist Wikidata.
Auch Lossless data compression genannt, ist eine verlustfreie Datenkomprimierung deren Algorithmen es erlauben, das originale Signal integral wieder herzustellen. Die Reduktion der Datenmenge beruht primär auf der Verminderung redundanter Informationen.
Auch lossy compression oder verlustbehaftete Datenreduktion genannt. Hierbei werden Informationen auf der Bild- und/oder Ton-Ebene rausgerechnet, die für die Nutzenden weniger gut sicht- oder hörbar sind. Die Technik dient dazu, Speicherplatz zu sparen. Im Unterschied zum Lossless Coding sind die Informationen beim Lossy Coding für immer verloren. Zu den bekanntesten verlustbehafteten Formaten gehören JPEG (für digitale Bilder), MP3 (für Ton), MPEG 4 (für Video).
Die vom Bindemittel gehaltenen Partikel, aus denen die Magnet-beschichtung eines Magnetbandes besteht. Für handelsübliche Magnetbänder wurden beispielsweise Eisenoxyd, Chromdioxyd, Bariumferrit oder Reinmetallpartikel als Pigmente verwendet. Der Begriff «Pigment» wird hier analog zur Terminologie des Farben- und Lackbereichs gebraucht. Wie eine Farb- oder Lackschicht liegt die Magnetbeschichtung auf der Trägerfolie, wobei die Magnetpartikel den Farbpigmenten entsprechen.
MARC steht für Machine Readable Cataloging, 21 für die Version. MARC 21 ist ein von der Library of Congress entwickeltes System für die einheitliche Erfassung von bibliographischen Daten mit dem Ziel, sie zwischen Bibliotheken austauschen zu können. Die Schweizerische Nationalbibliothek (NB) hat Informationen (inkl. ein Handbuch) zu den in der NB benutzten Feldern publiziert: https://www.nb.admin.ch/snl/de/home/fachinformationen/erschliessen/formalerschliessung.html#-1537554521
Auch Masterband oder Edit-Master, engl. für Schnittband. Die erste endgültige Schnittfassung einer Aufzeichnung. Für Archivzwecke kann das Masterband dem Original entsprechen. Im Zusammenhang mit der Digitalisierung von analogem Altmaterial kann Master auch die erste, unbearbeitete digitale Kopie bedeuten
Containerformat das v.a. im Videobereich eine wichtige Rolle spielt. Der erste Teil von Matroska wurde im Oktober 2024 von IETF (Internet Engineering Task Force) als Standard RCF 9559 publiziert.
MD5 (Message-Digest algorithm 5) ist eine bekannte Kryptographie- Technik die mit 128-bit Prüfsummen arbeitet. MD5 ist weit verbreitet in Sicherheitsanwendungen und wird auch häufig gebraucht, um die Datenintegrität von Files zu überprüfen. Quelle: http://www.accuhash.com/what-is-md5.html
Bevor die digitalen Mehrspurformate entwickelt wurden gab es analoge Mehrspurformate. Die entsprechenden Magnetbänder waren ½ ̋ bis 2 ̋ breit. Sie konnten mit 4 bis zu 24 Spuren bespielt werden. Auf die Technologien wird hier nicht näher eingegangen. Was die Aufbewahrung der Bänder, die optimale Signalextraktion und die Wartung der Maschinen betrifft, gelten sinngemäss auf die Informationen zum ¼ ̋ Tonband bzw. die entsprechenden Kapitel.
Informationen, die zur Beschreibung, Identifizierung und Katalogisierung von Aufzeichnungen verwendet werden.
Die Abkürzung steht für MPEG-1 Audio Layer 2, ein Verfahren zur (verlustbehafteten) Datenreduktion. Es wurde im PC- und Internet- Bereich im Wesentlichen durch MP3 abgelöst, verbleibt aber als dominanter Standard für Produktion und Sendung im Radiobereich und als Teil der digitalen Rundfunk-Verbreitungs-Standards. Die Datenreduktion ist mit ca. 1:5 weniger stark als bei MP3. Im Rundfunk ist in den nächsten Jahren ein Umstieg auf lineare Formate wahrscheinlich. Teile der Vorproduktion (Hörspiel) geschehen bereits heute in hochauflösenden Audioformaten, während die Nachrichten-produktion noch weitgehend auf MP2 aufbaut. Das Format ist skalier bar, kann die Daten also je nach Gebrauch verschieden stark reduzieren (variable Bitrate). Siehe auch unter MPEG.
MPEG-1 Audio Layer 3 (MP3) ist ein Dateiformat zur Datenreduktion und im Internet weit verbreitet. Entwickelt wurde das Format MP3 ab 1982 von einer Gruppe um Karlheinz Brandenburg am Fraun-hofer-Institut für Integrierte Schaltungen (IIS) in Erlangen sowie an der Friedrich-Alexander-Universität Erlangen-Nürnberg in Zusammenarbeit mit AT&T Bell Labs und Thomson. 1992 wurde es als Teil des MPEG-1-Standards festgeschrieben. Es war lange Zeit wie viele andere Kodierverfahren (Codecs) durch Patente geschützt, die heute aber ausgelaufen sind. Auch MP3 hat eine variable Bitrate. Siehe auch unter MPEG.
Die Moving Picture Experts Group (MPEG) ist eine Gruppe von Experten, die sich mit der Standardisierung von datenreduziertem Video und den dazugehörenden Bereichen, wie Audiodaten-kompression oder Containerformaten, beschäftigt. Sie wurde 1988 im Zuge der Liberalisierung des Rundfunkwesens etabliert, als durch das aufkommende Satellitenfernsehen technische Lösungen zur Kostenreduktion gesucht wurden. Heute sind etwa 350 Experten aus 200 Firmen und Organisationen aus 20 verschiedenen Ländern vertreten. Die offizielle Bezeichnung für MPEG ist ISO/IEC JTC1/SC29/WG11.
Engl. Abk. für National Television Standards Committee. Farbcodierverfahren in USA und Japan. Siehe «Fernsehnorm».
Optische Medien, optische Datenträger oder optische Datenspeicher werden mit einem Laserstrahl gelesen. Einige der Medien können ebenfalls mit einem Laserstrahl geschrieben werden. Zu den frühen optischen Medien gehört die Laserdisc (LD), ein analoges Videosystem für den Heimgebrauch, aber auch für professionelle Anwendungen (1971 erfunden, 1978 eingeführt).
Auch CDs, DVDs und BluRays (BD) und ihre brennbaren Varianten (CD-R, CD-RW, DVD-R, DVD-RW, BD-R, BD-RE) sind optische Medien. Sie speichern digitale Töne (Audio-CDs) und Filme (Laserdisc, DVD Video) und können als Datenspeicher verwendet werden.
Im Archiv entweder der ursprünglich bei der Aufzeichnung verwendete Tonträger oder die älteste Generation der davon produzierten (bearbeiteten) Gebrauchsversion, wenn die Originalträger nicht mehr vorhanden sind. Siehe auch unter Master.
Engl. Abk. für Phase Alternating Line. Europäisches Farbcodierverfahren. Siehe «Fernsehnorm».
PBCore ist ein Metadatenstandard, der für die Nutzung im öffentlich-rechtlichen Radio und Fernsehen der USA kreiert wurde. Er basiert auf dem einfacheren Standard Dublin Core, enthält aber zusätzliche Felder für audiovisuelle Dokumente. Bei Abbildung der Felder in einem XML-Schema können die Daten einfach zwischen verschiedenen Archiven zirkulieren. Für mehr Informationen und die Liste aller Felder siehe Wikipedia (englisch) und die offizielle PBCore-Website.
Von Sony entwickelte und vertriebene kurzlebige Variante der Blu-ray Disc für Datenspeicherung in Unternehmen. Die 2004 auf den Markt gebrachte Technik nutzte Discs mit einem Speichervolumen von 23 GB, die von einem luftdichten Gehäuse umgeben sind. Die Entwicklung wurde bereits 2006 eingestellt, der Support für die Geräte 2014.
PCM auch lineares Audioformat genannt, ist ein digitales Audioformat, das ohne spezielle, meist datenreduzierte Codierverfahren auskommt. Die kontinuierliche Sinuskurve des analogen Tonsignals wird periodisch (z. B. 48 000 mal pro Sekunde = 48 kHz) abgetastet (Puls). Der Analog/Digital-Wandler (A/D-Wandler) ordnet dann jedem abgetasteten Amplitudenwert (Auslenkung der Sinuskurve) einen Zahlenwert (Code) zu, welcher in Bit (z. B. 24 Bits) angegeben wird und auch Wortlänge genannt wird. Das Verfahren wird PCM (Pulse-Code-Modulation) genannt. Es wurde 1948 von Claude Elwood Shannon theoretisch formuliert, aufbauend auf einer mathematischen Theorie von Harry Nyquist (1928). Es wird deshalb auch vom Nyquist-Shannon-Abtasttheorem gesprochen.
Die Auflösung wird entweder mit Pixel oder Punkten per inch angegeben. Die technisch korrekte Bezeichnung ist bei Eingabegeräten (Scanner, Kameras) pixel per inch (ppi) und bei Ausgabegeräten (Drucker) dots per inch (dpi).
Das Raumklima wird durch die Temperatur, die relative Luftfeuchtigkeit und die Luftqualität gebildet. Audiovisuelle Medien brauchen ein anderes Raumklima als Lagerräume mit Papierakten. Grundsätzlich gilt kühl bis kalt und relativ trocken. Die genauen Bedingungen unterscheiden sich je nach Material. Wichtig ist für alle Stabilität des Raumklimas, d.h. geringe Veränderungen der Temperatur und der Luftfeuchtigkeit über die Zeit. Die Räume sollten zudem über Luftfilter verfügen, die eine optimale Luftqualität garantieren.
RDA ist ein Standard und ein Regelwerk zur Katalogisierung. Ursprünglich für Bibliotheken entwickelt (erste Version 2010), wird RDA auch im Museen und Archiven eingesetzt. RDA eignet sich besonders für die Nutzung mit Linked-Open-Data. Für den deutschsprachigen Raum gibt es spezifische Regeln, die im RDA Standard DACH festgehalten sind. Die Schweizerischen Nationalbibliothek publiziert Zusatzregeln zum Schweizerischen Kontext: https://www.nb.admin.ch/snl/de/home/fachinformationen/erschliessen/formalerschliessung.html#269433168
Technische Spezifikation der Audio-CD, 1980 von den Firmen Philips und Sony definiert und von der IEC (International Electrotechnical Commission) 1983 als Standard 60908 aufgenommen. Er beschreibt u.a. das Kodierungsformat für Stereo-Audiodaten (16 Bit Auflösung, Abtastrate 44,1 kHz), die Verteilung der Information auf der CD und den Fehlerkorrekturmechanismus.
Masseinheit für das Verhältnis der absoluten Luftfeuchte zum maximal möglichen Wasserdampfgehalt der Luft, angegeben in Prozent. Siehe auch Kapitel «Materialien, Raumklima und Umgebungs-gestaltung», Seite 25 => ev. Seitenzahl anpassen, und unter Archiv
Siehe DAT.
Standard für die Verzeichnung von Archivalien. Weiterentwicklung von ISAD(G) und anderen Verzeichnisstandards mit dem Ziel, die strikte hierarchische Ordnung aufzuweichen, ohne das Provenienzprinzip zu gefährden. RiC ermöglicht auch parallele und plurale Beziehungen zwischen einzelnen Elementen. In einer RiC-Erschliessung kann Archivgut mithilfe von Linked Open Data von anderen Gedächtnisinstitutionen verlinkt werden. Mehr Informationen zu RiC im Wikipedia-Artikel und auf der Website des ICA (International Council on Archives): https://www.ica.org/ica-network/expert-groups/egad/records-in-contexts-ric/
Massnahmen zur Wiederherstellung des Zustands eines Dokuments bei seiner Entstehung. Bei audiovisuellen Dokumenten werden Restaurierungen sowohl am physischen Objekt als auch am Digitalisat vorgenommen. Bei Digitalisierungen zur Restaurierung wird das physische Objekt zuerst so behandelt, dass es möglichst fehlerfrei digitalisiert werden kann. In jedem Fall müssen die ethischen Normen der Fachverbände eingehalten werden (siehe dazu Unterkapitel Ethische Normen im Kapitel Reproduktion / Digitalisierung von audiovisuellen Dokumenten). Alle Eingriffe sind zu dokumentieren. Anpassungen an heutige Seh- oder Hörgewohnheiten (z.B. durch Eliminierung allen Rauschens oder durch Schärfen und Aufhellen von Farben) sind keine Restaurierungen, sondern sollten mit Begriffen wie Remastering, Rekreation o.ä. gekennzeichnet werden. Bei digitalen Restaurierungen sollten wenn immer möglich die Rohdaten behalten werden, um bei Verlust des originalen Objekts jederzeit auf den Zustand vor Restaurierung zugreifen zu können.
Ripping (oder rippen) bedeutet das Auslesen von Audiodaten aus CDs und DVDs und die Überführung in Audio-Dateien mithilfe von spezialisierter Software.
Siehe IFF.
Engl. Abk. für Standard Definition Television. Siehe «Fernsehnorm» und «HDTV».
Steht für: Séquentiel couleur à mémoire. Fernsehnorm für analoges Farbfernsehen, die In Frankreich, in der Sowjetunion und in Osteuropa und in Teilen Afrikas verbreitet war und sich von PAL und NTSC unterschied. SECAM-Anwendungen in Frankreich und Osteuropa inkl. UdSSR sind nicht vollständig kompatibel.
Der Kern, auf den das Magnetband oder der Film in einer Spule oder Kassette aufgewickelt wird.
Bezeichnet einen fotografischen Abzug, der zeitnah zur Aufnahme entstanden ist und entweder von der Fotografin / dem Fotografen selbst produziert wurde oder unter seiner / ihrer Aufsicht.
VOB (Video Object) ist ein Containerformat für DVD-Video-Medien. VOB kann digitales Video, digitales Audio, Untertitel, DVD-Menus und Verzeichnisse für die Navigation enthalten.
(Ogg) Siehe auch «Kurzsteckbriefe von Tonträgern und Fileformaten» (Verlustbehaftete und verlustfrei komprimierte Fileformate).
Dateiendung .wav. 1991 von IBM und Microsoft entwickeltes lineares Containerformat für Audiodaten. Setzt auf RIFF (Resource Interchange File Format). Meistens lineare PCM-Daten ohne Komprimierung. Empfohlen für den Gebrauch im Archiv. Kann auch mit verlustbehafteter Komprimierung (lossy coding) codiert werden.
Siehe Azetat