Farbe unschärfer als Schwarz-Weiss?

rc-jochen

Erfahrener Benutzer
#1
Vor etwa drei Jahren hatte ich mal ein tolles Erlebnis. Beim Nuri-Flug eines Flugkameraden klinkte ich mich mit meiner Zeiss Oled in die Übertragung mit ein. Er flog, nun ja, sagen wir mal, ganz ungewollt, (durch) / in eine Wolke. In der Wolke war nicht nur das Bild weg, (Wolke eben), es war auch kein Videosignal da (keine OSD-Anzeige). Als er nun wieder nach unten aus der Wolke rausschoss, war das Bild erst mal schwarz-weiss, nach gefühlten 2 Sekunden wieder in Farbe.
DOOOOCH---> das SW Bild sah gestochen scharf aus wie ein Foto, das normale Farb-Bild dagegen, naja, eben "normal", gegenüber dem SW aber richtig schei.....
Ich habe schon einige befragt, eine überzeugende Antwort aber noch nicht erhalten.

Variante 1
---> beim SW Bild stehen für die Bildauflösung bei Pal mehr Pixel , drei mal so viele als eben R G und B Pixel beim Farb-Bild zur verfügung.
Ja aber wie geht denn das??? Bullshit(?)!!, wir haben doch sowohl in der Cam als auch im Monitor nur RGB-Pixel, und nicht das einzelne SW-Pixelchen!!! Es werden alle drei Pixel für Schwarz oder Weiss benötigt. Also gibt es doch (eigentlich) dadurch nicht mehr Detaildarstellungsmöglichkeit!!!

Variante 2
---> In unserem Auge haben wir die Fähigkeit der Stäbchen / unseres Gehirnskastens, ein SW-Bild scheinbar besser (schärfer???) zu erkennen. (als mit den Zapfen?, die erst eine "Bildverarbeitung" benötigen?)

Ich zitiere mal aus dem Netz, Planet-wissen.de:
Stäbchen: Sie reagieren auf alle Farben etwa gleich und erfassen so unfarbige Helligkeitseindrücke. Würden wir nur mit ihnen sehen, erschiene uns die Welt schwarzweiß. Die andere Rezeptorenart ist für unser Farbsehen zuständig. Sie nennt man Zapfen. Von diesen gibt es drei verschiedene Arten, die für unterschiedliche Farbbereiche empfindlich sind, für Rot, Blau und Grün. Im Gehirn werden dann die drei Farbbereiche sowie die entsprechenden Helligkeitseindrücke zusammengeführt - wir sehen bunt. Solange es heller Tag ist, arbeiten Zapfen und Stäbchen zusammen. Mit abnehmenden Licht und Beginn der Dämmerung, übernehmen immer mehr die Stäbchen das Sehen. Im Dunkel der Nacht sind dann allein die Stäbchen aktiv.

Farbe ist nicht einfach da. Sie entsteht nur in dem Moment des Sehens. Unsere Wahrnehmung der Farbe besteht aus der Zusammenarbeit zwischen Augen und Gehirn. Unser Gehirn empfängt und verarbeitet die Licht- und Helligkeitsimpulse nach einem hochkomplizierten Ordnungssystem, besser als jeder Computer der Welt. Jeder Moment unseres Sehens wird ununterbrochen neu verarbeitet und interpretiert. So können wir Farbe wahrnehmen. Das System der Wahrnehmung ist so kompliziert, dass es bis heute niemand genau erklären kann.

Nuuun???? warum ist das SW-Bild bei einer Sony besser????
mehr Pixel?, Mehr SW-Stäbchen im Auge? Oder alles nur Einbildung?? Weil eben das Gehirn keine Farbe verarbeiten muss??
 

schnellmaleben

Erfahrener Benutzer
#3
Variante 1 ist näher dran, Variante 2 aber sicher auch nicht falsch...

Aber vorher, ganz wichtig, analoge Bildübertragung hat keine Pixel! Weder SW noch in Farbe... sondern nur analog übertragene Zeilen (nur beim Abtasten und Zusammensetzen gibt es Pixel). Klingt in der heutigen digitalen Welt schon fast unvorstellbar, aber unsere analogen Cams halten sich noch an Standards, die bald 50 Jahre alt werden:

Aus Gründen der Abwärtskompatiblität (Einführung des Farbfernsehens: 25.August 1967!) ist die Farbinformation auf das SW-Bild aufmoduliert, es steht für Farbe weniger Bandbreite zu Verfügung (Faktor 3 ca.) => Daher der Unterschied.

Details nachzulesen unter https://de.wikipedia.org/wiki/Farbdifferenz-Konzept
 

rc-jochen

Erfahrener Benutzer
#4
Ist tatsächlich etwas ältere Kost, müsste dafür aber eigentlich einfach zu verstehen sein. Mal schauen!
Also die Cam hat heute (digitale) Pixel, wird aber Zeile für zeile "abgetastet" oder analog abgefahren, und genau so Zeile für Zeile analog übertragen und Zeile für Zeile auf die Pixel des Monitors / der Brille/ "analog" übertragen, bezw. die RGB-Pixel (werden wieder digital) angesteuert?
Und es sind bedeutend mehr RGB-Pixel (in Cam und Monitor) vorhanden als tatsächlich analog übertragen, angesteuert und "digital" dargestellt werden?
Dazu kommt ---> das eben die alte Zeilen-Abtastung nur Helligkeit, also Y bezw. Schwarz-Weiss, als Hauptinfo hat, und diese "doppelt" belegt wird /wurde, mit einer Farb, sprich Rot Grün oder Blau Info?? (R-Y, G-Y, B-Y)
Dadurch ist bei SW Darstellung dann wieder mehr Bildinfo möglich?
Ist das der Grund weswegen die alten Farbfernseher früher immer ein tendenziell schlechteres Farbbild als ein SW Bild hatten?
noch heute sind Farbvideo /TV Aufnahmen von damals die heute wiedergegeben werden grottenschlecht!!! (auf einer Glotze von heute, 40Zoll)????
 
Zuletzt bearbeitet:

flyt

Benutzer
#5
Zuletzt bearbeitet:

Rangarid

Erfahrener Benutzer
#6
Ich denke was er meint ist, dass der CCD Sensor in der Kamera nicht analog sondern digital ist, d.h. dort wird eigentlich irgendwas in Pixeln aufgenommen und dann in ein analoges Signal umgewandelt und ausgegeben.
 

rc-jochen

Erfahrener Benutzer
#7
Geeenau! Denn Pal hat ja keine 700 "Zeilen" bezw TV-linien.
 
FPV1

Banggood

Oben Unten