FPV Wifi Broadcasting HD Video - Thread zum Raspberry HD Videolink von Befi

Deepflights

Erfahrener Benutzer
Ich behaupte mal nein. Einfach so sowieso nicht, wenn dann musst Du das Image selber anpassen können. Und die Latenz ist bestimmt nicht so gut.
Ich habe die V2 heute ausprobieren können, habe zwar keinen Vergleich zur der älteren, aber die Bildqualität hat mich ziemlich enttäuscht.
Extreme CAs, von einem Fokus kann man nicht reden und ziemlich weit entfernt von einer HD Qualität.

Ich werd mir das Image abändern, ich hab einen Hexa zum fotografieren, da ist mir die Latenz egal, die Bildqualität muss stimmen.
 
Zuletzt bearbeitet:

digaus

Erfahrener Benutzer
Ich weiß nicht ob das hier unbedingt rein passt, aber fpv.blue (vor kurzem noch fpv.red) hat eine sehr interessante und meiner Meinung nach wirklich korrekte Methode zur Messung der glass to glass Latenz vorgestellt.
Mit ihrem System wird eine mittlere Latenz von 49ms erreicht (min 34, max 67). Und das ist die Latenz vom Lichteinfall in die Kamera bis zum Lichtaustritt am Bildschirm.
Hier der blog post dazu: https://fpv.blue/blog/
 

Rangarid

Erfahrener Benutzer
Sieht so aus als kommt ein bisschen Bewegung die uns zugute kommt in die Raspi Entwicklung. ArduCAM hat ein Board entwickelt, was den selben Chip wie der Raspberry hat, aber viel viel kleiner ist:

Um das Modul für unsere Zwecke nutzen zu können braucht man noch eine Adapterplatine:

Mit der Adapterplatine kommt man auf eine Größe von 36x36mm. Man könnte auch eine eigene Adapterplatine designen, die für unsere Zwecke noch besser geeignet ist. Denke aber diese Platine ist für den Anfang auch nicht schlecht.

Leider gibt es noch keine weiteren Infos zu Preis und Verfügbarkeit. Mehr Infos gibt es hier:
http://www.arducam.com/24-24mm-coin-size-raspberry-pi-compatible-board/
 
Zuletzt bearbeitet:

Constantin

Erfahrener Benutzer
Ich weiß nicht ob das hier unbedingt rein passt, aber fpv.blue (vor kurzem noch fpv.red) hat eine sehr interessante und meiner Meinung nach wirklich korrekte Methode zur Messung der glass to glass Latenz vorgestellt.
Mit ihrem System wird eine mittlere Latenz von 49ms erreicht (min 34, max 67). Und das ist die Latenz vom Lichteinfall in die Kamera bis zum Lichtaustritt am Bildschirm.
Hier der blog post dazu: https://fpv.blue/blog/
Der Artikel ist gut geschrieben, und was die Art der Latenzmessung betrifft stimme ich ihnen vollkommen zu.
Bloss kann ich den Test-Werten keinen Glauben schenken, da sie zumindest geschönt sein müssen. 34ms bspw. sind unmöglich - auch mit slice-basierter Übertragung.
 

digaus

Erfahrener Benutzer
Der Artikel ist gut geschrieben, und was die Art der Latenzmessung betrifft stimme ich ihnen vollkommen zu.
Bloss kann ich den Test-Werten keinen Glauben schenken, da sie zumindest geschönt sein müssen. 34ms bspw. sind unmöglich - auch mit slice-basierter Übertragung.
Ok dazu kann ich nichts sagen, 34ms ist ja nur die reine Latenz der Übertragung.
Wie das ganze gemacht wird und ob das mit den mitteln möglich ist, weiß ich nicht aber das connex prosight wirbt ja auch mit einer Latenz von 29ms.
 

rodizio

Erfahrener Benutzer
Connex ist unkomprimiert soweit ich weiss.

Aber warum unmöglich?

Hier streamt jemand mit ähnlicher Latenz seinen Windows Desktop auf den Pi:
https://gridforums.nvidia.com/defau...k-to-photon-with-raspberry-pi/post/2891/#2891

BTW, ein Raspi Entwickler meint hier: https://www.raspberrypi.org/forums/viewtopic.php?f=70&t=148390

Man könne die durch das warten auf den Vsync erzeugte Latenz noch verringern indem man das Display-Timing praktisch on-the-fly schnell etwas anpasst, damit man nicht warten muss. Ginge das vielleicht auch unter Android?
 

Constantin

Erfahrener Benutzer
Ok dazu kann ich nichts sagen, 34ms ist ja nur die reine Latenz der Übertragung.
Wie das ganze gemacht wird und ob das mit den mitteln möglich ist, weiß ich nicht aber das connex prosight wirbt ja auch mit einer Latenz von 29ms.
Ich will damit bloss sagen, dass solchen "test-werten" noch weniger Glauben geschenkt werden darf als den Treibstoffverbrauch-Werten von Autos. Das hier vorgestellte Projekt ist vermutlich jedem dieser "closed-source" Projekten überlegen, kann sich aber keine Werbung leisten.
 

Constantin

Erfahrener Benutzer
Connex ist unkomprimiert soweit ich weiss.

Aber warum unmöglich?

Hier streamt jemand mit ähnlicher Latenz seinen Windows Desktop auf den Pi:
https://gridforums.nvidia.com/defau...k-to-photon-with-raspberry-pi/post/2891/#2891

BTW, ein Raspi Entwickler meint hier: https://www.raspberrypi.org/forums/viewtopic.php?f=70&t=148390

Man könne die durch das warten auf den Vsync erzeugte Latenz noch verringern indem man das Display-Timing praktisch on-the-fly schnell etwas anpasst, damit man nicht warten muss. Ginge das vielleicht auch unter Android?
Was du meinst ist komerziell schon unter dem Namen G-sync bzw. Free-sync verfügbar. Man braucht dafür jedoch teure hw.

Das integrierte - und leider nicht abschaltbare - tripple-buffering in Android ist tatsächlich der höchste Latenz-Bringer.
Ich arbeite gerade an einer Portierung auf Intel-Prozessoren. Das Decodieren läuft auf meiner Hardware inzwischen im nanosecond-Bereich. Die Decode-zu-Photon Latenz ist aber trotzdem sogar mit vsync disabled noch ~40ms, da ein 60fps Monitor in etwa so viel Latenz mit sich bringt.
 
Zuletzt bearbeitet:

nique

Legal-LongRanger
Sieht so aus als kommt ein bisschen Bewegung die uns zugute kommt in die Raspi Entwicklung. ArduCAM hat ein Board entwickelt, was den selben Chip wie der Raspberry hat, aber viel viel kleiner ist:

Um das Modul für unsere Zwecke nutzen zu können braucht man noch eine Adapterplatine:

Mit der Adapterplatine kommt man auf eine Größe von 36x36mm. Man könnte auch eine eigene Adapterplatine designen, die für unsere Zwecke noch besser geeignet ist. Denke aber diese Platine ist für den Anfang auch nicht schlecht.

Leider gibt es noch keine weiteren Infos zu Preis und Verfügbarkeit. Mehr Infos gibt es hier:
http://www.arducam.com/24-24mm-coin-size-raspberry-pi-compatible-board/
Wäre es allenfalls an der Zeit, einen eigenen Print zu erstellen? Insbesondere mit einem kleineren Cam-Modul, oder wo der Sensor zumindest schön am Rand ist und bei einem Flieger nicht so im Wind steht?



Ich finde zum Cam-Modul leider kein Schema, aber immerhin schon mal das:
http://www.electroschematics.com/11140/arduino-raspberry-pi-camera-interface/ (und das macht Mut auf mehr)


Vielleicht würde wir ja sowas hinbekommen wie damals mit dem Diversity von jriese...


Also eine eigene Adapterplatine, die gleich die Cam mit drauf hat.
 

rodizio

Erfahrener Benutzer
Hast Du einen Link dazu Rangarid?

Auf der Arducam seite steht: "[...] This post made Raspberry Pi engineer and forum moderator very upset and they said that it will would breach the bootloader license [...]"

Stand das da vor ein paar Tagen auch schon? Glaube nicht, oder ich hab's übersehen.

Würde mich ja echt mal interessieren was der Raspi Engineer dazu geschrieben hat ...
 

Rangarid

Erfahrener Benutzer
Ne Stand vorher nicht da, ist neu. Naja ist ja nichts Neues, dass Broadcom die Raspi CPUs nicht rausgibt und das obwohl der feine Raspi ja fast komplett Open Source ist und so...
 

Schalonsus

Erfahrener Benutzer
Hat eigentlich jemand mal ein OSD für Linux Laptop programmiert?
Das von meister (MultiGCS) läuft bei mir nicht, scheint irgend ein Problem mit meiner Grafikkarte zu haben.
Und die fürn Raspi laufen aufm Laptop ja nicht.
 

skydrone

Erfahrener Benutzer
Wie habt ihr für den Flug eine Verbindung von der GoPro zum HDMI-Input des Raspis gemacht?

Ich habe leider nur so ein klobiges langes Kabel für die GoPro, welches Im Gimbal nur Stören würde.

Gibt es da etwas in der Art wie das Verbindungskabel der Lightbridge, nur mit einem großen Hdmi am anderen Ende?
 
RCLogger

FPV1

Banggood

Banggood

Oben