Qualitativer Unterschied zwischen Gopro Wiedergabe auf Fernseher & Computer - warum?

baka

Erfahrener Benutzer
#1
Qualitativer Unterschied zwischen Gopro Wiedergabe auf Fernseher & Computer - warum?

Guten Abend allerseits,
ich habe eine Frage, die mich schon etwas länger beschäftigt. Es dreht sich um die Wiedergabequalität von Flugaufnahmen, die ich mit meiner Gopro 2 gemacht habe und der Darstellung von Vibrationen.
Die Sache ist, dass wenn ich Filme an meinem Computer ansehe, dies komplett anders aussieht, als wenn ich die Filme an diversen Flachbildschirmen anschaue.
Auf meinem Computern sehe ich auch nur die kleinste Vibration oder Rolling Shutter. An Fernsehern ist davon nur etwas zu sehen, wenn es richtig heftig ist.
Dies habe ich an allen Geräten, die in meiner Reichweite sind und irgendwie geht das nicht in meinen Kopf rein bzw. ich verstehe zu wenig von Bildtechnik. Könnt Ihr mich aufklären, ob das an der Hertzzahl liegt, oder an was auch immer?
Vielen Dank schon mal!
baka
 

mact

Schnauze voll.
#2
Deine Beschreibung ist etwas zu allgemein gehalten, als dass man sie im Detail beantworten könnte. Zwar sind "Flachbildfernseher" und Computermonitore technisch vergleichbar, es gibt aber immer noch genügend Unterschiede in der Bildaufbereitung und -darstellung, dass schon allein diese Erklärungen für das beobachtete Phänomen liefern können.
Es fängt an bei: Mit welcher Framerate wurde aufgenommen und mit welcher wiedergegeben? (Die Bildprozessoren in manchen Fernsehern rechnen alles in eine Standardframerate um, dabei können natürlich gerade Rollingshutter-Effekte "übergebügelt" werden). Es geht, natürlich, mit der Auflösung weiter: Wenn die Skalierung der Originalauflösung gerade zufällig "schief" auf die Fernsehauflösung umgerechnet wird, fallen Details raus.

Als Beispiel: "Rolling Shutter" heißt ja (blöd formuliert) nur, dass nicht das ganze Bild eine Momentaufnahme ist, sondern eine Zeile des Bildes. Wenn Du also die "Momentaufnahmen" (hier: Zeilen) günstiger zusammenwürfelst als am Computer, fällt der Effekt weg.

Längerer Verklärungsersuch:
Es gibt bei den hier verwendeten Digitalkameras gar keinen "Shutter" im eigentlichen Sinn, also keinen Verschluss, dessen Öffnen das ganze Bild AUF EINMAL belichten würde, wie das bei einem analogen Film der Fall ist. Streng genommen ist das auch bei einer Digitalkamera mit mechanischem Verschluss nicht der Fall, dort ist aber die Auslesegeschwindigkeit des Bildsensors so hoch, dass (im Zusammenspiel mit dem mechanischen Verschluss) so etwas ähnliches wie eine "Ganzbildbelichtung" geschieht.
Die Qualität eines digitalen Bildsensors wird nicht nur durch seine Auflösung (sowohl in x- und y-Richtung als auch in Helligkeit und Farbe, also Luminanz und Chrominanz) bestimmt, sondern auch durch seine "Geschwindigkeit": Wie schnell kann die Bildverarbeitung die Punkte und Zeilen auslesen? Das Ergebnis ist einerseits die mögliche Framerate (je schneller der Chip auslesbar ist, desto höhere Frameraten sind möglich), zum anderen die mögliche Belichtung (je schneller, desto "kürzer belichtbar") und, hier komme ich zum Thema (Tusch!), die "Bildstabilität".
Ein langsamer Chip - in den meisten Consumer- und Prosumer-Videokameras sind relativ langsame Chips verbaut - lässt das Auslesen gerade so schnell zu, dass die angebliche maximale Framerate gerade so machbar ist (natürlich hat das auch praktische Gründe: Je schneller der Chip arbeitet, desto heißer wird er, und Kühlung ist in Billigkameras immer ein echtes Problem - wer Astrophotographie betreibt, weiß, wovon ich rede). Das Auslesen geschieht aus Kostengründen zeilenweise (scherzhaft: der Chip bräuchte ja EXTREM VIELE Anschlüsse, wenn alle Bildpunkte gleichzeitig abgefragt werden könnten). Natürlich hat der Chip einen Puffer, sodass nicht für jede Zeile ein Anschluss nötig ist (Menno ...), aber auch da lässt sich Geld sparen, wenn man nur Puffer für eine ZEILE statt für das ganze Bild einbaut.
Die Aufnahme (Belichtung) läuft aber nunmal weiter, während eine Zeile ausgelesen wird (die Welt hält ja nicht solange den Atem an, bis Großmeister Chip sich bequemt hat, eine Momentaufnahme auszuspucken). Wenn in der Zeit zwischen dem Auslesen einer Zeile und der nächsten in der (sogenannten, hier einfach mal postulierten) Realität "viel" passiert ist (der Copter schmiert z.B. gerade mit 9m/s² ab), können die Bildinhalte zweier aufeinander folgender "Bilder" (hier also der ZEILEN EINES EINZIGEN BILDES) sich stark unterscheiden. Passiert das über ein Bild hinweg mehrfach (er schmiert immer noch ab), ist das ganze Bild eigentlich "Müll". Zwei Bilder hintereinander mit "Müll" ergibt "Wobbel" - eben den sogenannten "Rolling Shutter" Begriff.
Man kann sich das so vorstellen, als würde man die Welt nur durch einen schmalen Schlitz beobachten, der ständig von oben nach unten (oder von links nach rechts) über das Gesichtsfeld gezogen wird. Bewegt man sich schnell oder ändert sich draußen viel, entsteht kein ruhiges, stabiles Bild, sondern der Inhalt ist absurd verzerrt - zwei aufeinander folgende Bilder zeigen in den jeweils gleichen Zeilen völlig unzusammenhängende Momentaufnahmen.

Warum sieht das am Computer wie schon mal gegessen aus, am Fernseher aber nicht?

Natürlich deshalb, weil Fernseher an sowas wie RTL gewöhnt sind und einfach jeden Sch... ansehnlich wiedergeben. Nein, Quatsch. Die Wiedergabesoftware am Computer stellt eben jede tatsächlich im Material vorhandene Zeile dar und versucht im Idealfall auch noch, die tatsächliche Framerate abzubilden. Das heißt, dass man im Idealfall die "schlechteste" (gefühlt) Wiedergabe hat, eben, weil DAS wiedergegeben wird, was wirklich da ist. Realität ist nunmal Mist.
Der Fernseher ist aber darauf ausgelegt, aus jedem noch so miesen Input etwas Anschaubares zu machen (haste dat nich ebendt als Quatsch bezeichnet, Mr Schlau?). Gibt der Fernseher z.B. standardmäßig 25 Bilder pro Sekunde wieder und ist das Eingangmaterial 30 Bilder pro Sekunde (oder gar NTSC mit 29.xxx), dann überblenden viele Bildprozessoren die notwendigen Zwischenbilder (die sonst einfach wegfallen würden). Das Überblenden führt dazu, dass die Sprünge im Bild (die wir als "Wobbeln" warnehmen, weil unsere Augen eben doch viel, viel schneller sind als 25fps), verschmieren und bis zur Unkenntlichkeit in "einheitliche Bewegungen" übergehen. Kommt noch ein Skalieren dazu, wird oft eine künstliche Unschärfe dazugerechnet, um Klötzchenbildung zu vermeiden: Auch das reduziert Sprünge.
Auch die Wiedergabe von interlaced Material (siehe mein anderes Besserwisserdossier) in progressive Darstellung kann Vibrationen und Rolling Shutter "verringern" (andersrum ja sowieso).

Es gibt Videofilter, die diese Effekte mit genau den "Tricks" reduzieren, die ein Fernseher auf das Bildmaterial anwendet. Man erkauft sich das "Entwobbeln" natürlich mit reduzierter Schärfe (sowohl in x-/y-Richtung als auch auf der Zeitachse).

Und bevor ich jetzt hier rausfliege, mache ich Schluss, in der Hoffnung, den Fragesteller vollends verwirrt zu haben :)
 
Erhaltene "Gefällt mir": flatpro
#3
SU-PER ANT-WORT!!! Das gehört ja sofort ins Wiki übernommen :D

Wirklich gute Antwort, wenn man wissen will warum und wieso kommt man nicht drum herum ein paar Minuten zu lesen. Gefällt mir!

Grüße,
Philip
 
FPV1

Banggood

Oben Unten