Glossar

Definitionen, Erläuterungen

Adaptives Bitrate-Streaming / adaptives Streaming

Diese Streaming-Technologie passt das Videoformat an das jeweilige Gerät und die verfügbare Bandbreite des Zuschauers an, um eine unterbrechungsfreie Wiedergabe trotz variabler Netzwerkbedingungen zu ermöglichen.

AdTags

VAST-oder VPAID-URLs von AdServern oder Google DFP (Google Ads).

(Video-) Auflösung

Die Videoauflösung bezieht sich auf die Anzahl der Pixel in den einzelnen Dimensionen eines Videos. Bezeichnungen wie 360p, 480p, 720p und 1080p beziehen sich auf die Anzahl der vertikalen Pixel zwischen der Unter- und Oberkante eines Videos. Höhere Auflösungen bedeuten größere Dateien und damit höheren Bandbreitenbedarf.

Bandbreite

Die Bandbreite entspricht der maximalen Datenmenge, die jederzeit über ein Netzwerk übertragen werden kann (siehe auch Einheiten für die Bitrate Kbps und Mbps).

Bitrate

Die Bitrate gibt die Geschwindigkeit an, mit der Daten im Internet übertragen werden, gemessen in Kilobits pro Sekunde (Kbps) oder Megabits pro Sekunde (Mbps).

Buffering / Pufferung

Das Buffern bewirkt, dass Videos möglichst ohne Unterbrechungen abgespielt werden. Der Player lädt dafür Datenpakte in seinen Pufferspeicher und gibt diese mit Verzögerung aus, damit der Inhalt weiterhin abgespielt werden kann, wenn z.B. nicht genug Datenpakete geladen werden können, da die Verbindung kurzzeitig unterbrochen wird. Bei sehr langsamen Internetverbindungen oder bei großer Latenz in einem Netzwerk kann die Pufferung allerdings lange dauern.

CDN

Ein Content Delivery Network (CDN) ist ein Dienst, der Webinhalte basierend auf dem Standort der Benutzer und der Herkunft der Website über ein Netzwerk von Servern in verschiedenen Rechenzentren weltweit verteilt.

Chunk

Ein Chunk ist ein Teilfragment von einem größeren Datensatz auf einem Übertragungsweg (z. B. Input und Output von einem Verarbeitungsprozess).

Codierung

Bei der Codierung werden Mediadateien oder Live-Signale komprimiert, damit sie effizient übertragen werden können, und in ein Format gewandelt, welches internetfähige Endgeräte wie Smartphones, Laptops, PCs usw. interpretieren können. Das Gerät, das die Mediadateien oder Signale als Stream empfängt, decodiert die codierten Daten. Für die Codierung gibt es Standards wie H.264, H.265, VP9 und AV1.

Dateien

Dateien sind hier Audio- oder Videodateien.

Datenrate / Datenübertragungsrate

Datenübertragungsrate (auch Datentransferrate, Data Transfer Rate) ist die Übertragungsgeschwindigkeit, mit der eine bestimmte Datenmenge innerhalb eines Zeitintervalls übertragen wird. siehe auch Latenz

eCDN

Im Gegensatz zu herkömmlichen CDNs, die Inhalte über das öffentliche Internet verteilen, dient ein Enterprise Content Delivery Network (eCDN) dazu, Inhalte innerhalb von Unternehmensnetzwerken bereitzustellen. eCDNs gewährleisten hochwertige Videoübertragung ohne übermäßige Bandbreitennutzung.

Embedded Code

Embedded Code ist ein Code-Snippet zur Einbettung des 3Q Players in HTML Code wie Webseiten oder Blogs. Das Snippet steht als JavaScript- und iFrame-Version zur Verfügung.

Encoder 

Encoder sind Soft- oder Hardware-Komponenten, welche Video und Audioinhalte in streamingfähige Formate wie z. B. MP3 oder MP4 komprimieren bzw. codieren.

Framerate 

Die Framerate gibt die Anzeigegeschwindigkeit in Frames pro Sekunde (FPS) bei Videoinhalten an. Eine hohe Framerate führt auch bei schnellen Bildwechseln zu einer flüssigeren Wiedergabe.

H.264

Codierungsstandard für Video

HTML5 Player

HTML5 ist der aktuelle Branchenstandard für Videostreaming: flexibel, reaktionsschnell und mit geringer Prozessorbelastung. Im Gegensatz zum Flash Player ist HTML5 mit verschiedenen Browsern und Plattformen kompatibel. Idealerweise verwendet man einen HTML5-Player mit kurzen Ladezeiten, hoher Auflösung und geringer CPU-Auslastung.

HLS (HTTP Live Streaming)

HLS ist ein Protokoll für das Video-Streaming. Es wird für OnDemand- und Live-Streaming eingesetzt. Bei HLS werden Videodateien in kleine, schnell herunterladbare HTTP-Dateien zerlegt und mithilfe des HTTP-Protokolls übertragen.

Ein Vorteil von HLS ist, dass alle internetfähigen Endgeräte HTTP unterstützen. Außerdem kann bei einem HLS-Stream die Videoqualität abhängig von den Netzwerkbedingungen erhöht oder verringert werden, ohne die Wiedergabe zu unterbrechen. Deshalb kann die Videoqualität mitten in einem Video besser oder schlechter werden, während man es sich ansieht. Dieses Feature nennt man „adaptives Streaming“.

HLS wurde ursprünglich für Apple-Produkte entwickelt. Es wird aktuell von den meisten Endgeräten unterstützt.

HTTP

HTTP ist ein Protokoll, mit dem Informationen zwischen Geräten in einem Netzwerk übertragen werden. Bei HTTP erfolgt die Datenübertragung normalerweise in Form von Anfragen und Antworten. Beim Streaming über HTTP bleibt die Verbindung zwischen Client und Server während des Streams offen, und der Server sendet permanent Videodaten an den Client, sodass der Client nicht jedes Videodatensegment einzeln anfordern muss.

Ingest Server

sind Server der Plattform, an welche Livesignale von Encodern gesendet werden können.

Internet-Protokolle

Im Netzwerk ist ein Protokoll ein Regelwerk für die Formatierung und Verarbeitung von Daten. Die folgenden Protokolle werden u. a. auch beim Streaming verwendet:

TCP (Transmission Control Protocol) - ist ein Transportschichtprotokoll, das eine zuverlässige Datenlieferung gewährleistet. TCP soll mit IP verwendet werden, und die beiden Protokolle werden oft zusammen als TCP/IP bezeichnet.

HTTP (Hypertxet Transfer Protocol) - wird zur Übertragung von Daten zwischen Geräten verwendet.

HTTPS (HTTP Secure) - verschlüsselt HTTP-Nachrichten.

TLS/SSL (Transport Layer Security) - ist das Protokoll, das HTTPS zur Verschlüsselung verwendet. TLS hieß früher Secure Sockets Layer (SSL).

iFrame 

Ein iFrame (inline Frame) ist ein HTML-Codesnippet, das in ein HTML-Dokument, z. B. den Quellcode einer Webseite, eingebettet werden kann. Der 3Q Player kann als iFrames in eine Webseite eingebettet werden.

KI-basierte Untertitelung

Künstliche Intelligenz ermöglicht die automatisierte Verschriftlichung von Audiospuren in Videos, was insbesondere Hörgeschädigten, Betrachtern ohne Ton und Menschen, die die Audiosprache nicht verstehen, zugutekommt. Mit einer KI-basierten Untertitelung wird die Audiospur des Livestreams bzw. die darin verwendete Sprache transkribiert und dem Video als Untertitel-Text hinzugefügt. Anschließend kann das Transkript wahlweise in weitere Sprachen übersetzt werden. Oft wird die KI-basierte Untertitelung von Videos auch Live-Transkription genannt, wenn der Transkriptions-Prozess fast in Echtzeit, also live, stattfindet.

Latenz

Beim Streaming ist die Latenz die Zeit, die ein Datenpaket braucht, um von einem Server (Sender) über verschiedene Netzwerke zu einem Player (Empfänger) übertragen zu werden.

Livestreaming

Livestreaming bedeutet, dass Medieninhalte zeitgleich aufgezeichnet und ausgestrahlt werden. Dabei können Nutzer nicht nur zuschauen, sondern auch mit den Sprechern interagieren.

Live-Transkription

Künstliche Intelligenz ermöglicht die automatisierte Verschriftlichung von Audiospuren in Videos, was insbesondere Hörgeschädigten, Betrachtern ohne Ton und Menschen, die die Audiosprache nicht verstehen, zugutekommt. Mit einer Live-Transkription  wird die Audiospur des Livestreams bzw. die darin verwendete Sprache quasi in Echtzeit transkribiert und dem Video als Untertitel-Text hinzugefügt. Anschließend kann das Transkript wahlweise in weitere Sprachen übersetzt werden. Oft wird die Live-Transkription auch KI-basierte Transkription genannt.

Low-Latency

Der Low-Latency-Modus verwendet modifizierte Transcoder-Puffereinstellungen und sendet kleinere Video-Segmente. Damit kann bei optimalen Einstellungen die Latenz auf 3-6 Sekunden reduziert werden. Verwenden Sie Low-Latency nur, wenn eine geringe Latenz zwingend notwendig ist. Der Livestream kann unter Umständen nicht ruckelfrei von allen Zuschauern empfangen werden.

Metadaten

Metadaten oder Metainformationen können von virtuellen oder physischen Datenobjekten wie Büchern, Videos, Bildern, Musik, Dateien und beliebigen andere Daten erstellt werden und sind vielseitig einsetzbar. Sie sind zur Indexierung von Datenbeständen, zum Durchsuchen von Daten nach bestimmten Informationen oder zur automatisierten, maschinellen Verarbeitung von Daten nutzbar. Gespeichert werden die Metainformationen entweder direkt im primären Datenobjekt oder in einer externen Datensammlung verknüpft mit den primären Daten. Für eine maschinelle, automatisierte Verarbeitung müssen die Metainformationen in einer bestimmten Formatierung oder einer vorgegebenen Struktur vorliegen. Typische Metainformationen von Videos sind Aufnahmeort und -datum, Audio- und Video-Codec, Abspieldauer, Datenrate und Sprache.

Multi-CDN

Multi-CDN kombiniert mehrere Content Delivery Networks (CDN) verschiedener Anbieter, um eine globale Reichweite zu gewährleisten.

Multi-Channel Livestreaming

Mit dieser Funktion können mehrere Livestreams in einem Player zusammengestellt werden. Der Zuschauer kann während der Übertragung im Player zwischen Inhalten bzw. Livestreams wechseln. Anwendungsbeispiele dafür sind u. a. das simultane Livestreaming in mehreren Sprachen, die Übertragungen von unterschiedlichen Kameraperspektiven oder die Übertragung von virtuellen Kongressen oder Messen mit parallelen Beiträgen bzw. Veranstaltungen.

MPEG-DASH

MPEG-DASH ist eine Streaming-Methode. DASH steht für „Dynamic Adaptive Streaming über HTTP“. MPEG-DASH ist ähnlich zu HLS, ein Streaming-Protokoll, dass Videos in kleinere Einheiten/ Chunks zerteilt und diese Einheiten auf verschiedenen Qualitätsstufen encodiert.

Pufferung

Siehe Buffering / Pufferung.

RTMP 

Das Real-Time Messaging Protocol (RTMP) ist ein leistungsstarkes Protokoll zur Übertragung von Audio-, Video- und anderen Datenformaten von einem Encoder an einen Server. Die meisten Streaming-Anbieter unterstützen heute RTMP als Eingangsformat. Wir empfehlen Geräte, die das SRT-Protokoll verwenden. Dieses verfügt über eine Fehlerkorrektur bei schwankender oder unterbrochener Internetverbindung.

Speech-to-Text

Mit einem Speech-to-Text-Tool wandeln Sie automatisiert Audiodateien in Textdateien bzw. schriftliche Transkripte um. Das ist z. B. die Grundvoraussetzung für die automatisierte Erstellung von Untertiteln in Videos. Siehe auch KI-basierte Untertitelung und Live-Transkription.

Streaming

Das Streaming ist ein Verfahren zur Datenübertragung. Es ermöglicht, im Gegensatz zum Download, bereits die Wiedergabe von Medieninhalten, während die restlichen Daten noch auf Ihr Gerät übertragen werden. Dafür werden die Dateien (On Demand Streaming) oder Signale (Livestreaming) zur Übertragung in kleinere Datenpaketen bzw. Chunks unterteilt. Diese Datenpakete werden in einem permanenten Strom an die Browser gesendet, wo sie vom Player als Audio- oder Videoinhalt erkannt werden. Sobald ein Browser über genügend Datenpakete verfügt, um die Wiedergabe zu starten, beginnt die Wiedergabe. Die 3Q Plattform verwendet standardisierte TCP-/IP-Layer (Transmission Control Protocol/Internet Protocol), um Inhalte von einem Server an ein Gerät zu übertragen.

Text-to-Speech

Mit einem Text-to-Speech-Tool wandeln Sie automatisiert Textdateien in Audiodateien um.

Transmission Control Protocol (TCP)

TCP ist eine Streaming-Methoden bzw. ein Transportprotokoll für die Übertragung von Datenpaketen über IP-Netzwerke. TCP öffnet eine dedizierte Verbindung, bevor es Daten überträgt, und stellt sicher, dass alle Datenpakete in der richtigen Reihenfolge ankommen. Es wird beim HTTP-Live-Streaming (HLS) verwendet.

Transcoding / Transkodierung

Transkodierung bezeichnet die Umwandlung von Daten in niedrigere Bitraten, während das ursprüngliche Videoformat erhalten bleibt. Transcoding ermöglicht die Anpassung von Videos an begrenzte Speicherressourcen und effizientere Bereitstellung. Das Transcoding ist Voraussetzung für das adaptive Streaming. Die Anlieferung des Livesignals erfolgt in der höchstmöglichen Auflösung (Eingangssignal). Mit Transcodern wird das Signal in weitere Auflösungen gewandelt. Beim Empfang des Streams ermittelt der Player die verfügbare Bandbreite und wählt dann die Signalversion mit der optimalen Auflösung/ Qualität.

TCP/IP

Bei TCP/IP handelt es sich um eine Gruppe von Protokollen, die die Grundlage für das Internet und andere Netzwerke bilden. Den Schichten im TCP/IP-Modell werden verschiedene Aufgaben und damit Protokolle zugesprochen.

  • Internetschicht: Auf dieser Schicht arbeitet das Internet Protocol und sorgt dafür, dass die transportierten Daten auch das richtige Ziel erreichen. Über die IP-Adresse werden die Datenpakete durch das Netzwerk geroutet.

  • Transportschicht: Für den Transport sorgt im Referenzmodell TCP. Das Protokoll ermöglicht die Ende-zu-Ende-Kommunikation, ist also verantwortlich für die Verbindung zwischen zwei Geräten. Neben TCP gehört auch UDP in diese Ebene.

Upload-/Download-Geschwindigkeit 

Die Upload-Geschwindigkeit bezeichnet die Geschwindigkeit, mit der Daten vom Benutzergerät ins Internet übertragen werden. Die Download-Geschwindigkeit gibt an, wie schnell Daten vom Internet auf Benutzergeräte übertragen werden. Bei Livestream-Veröffentlichungen ist vor allem die Upload-Geschwindigkeit wichtig, während die Download-Geschwindigkeit für Zuschauer relevant ist.

VOD

Video on Demand (VOD) ermöglicht Benutzern den Zugriff auf ausgewählte Videoinhalte nach Bedarf, unabhängig von festen Sendezeiten. Häufig werden Livestreams aufgezeichnet und dann auf einer Website bereitgestellt, um jederzeit abgerufen werden zu können.

Webcast 

Ein Webcast besteht aus Live oder On-demand-Video- und Audioinhalten, die zusammen mit interaktiven Komponenten wie Chat, Umfragen oder Folien über das Internet oder Intranet abgerufen werden. Typischerweise handelt es sich um eine "One-to-many"-Übertragung. Webcasts sind nicht mit Web- oder Videokonferenzen zu verwechseln.

Last updated