Digitale Videoübertragung in FullHD 1080i & 1080p

Status
Nicht offen für weitere Antworten.

Butcher

Bill the Butcher
#41
das hab ich mir eben auf dem stillen örtchen auch überlegt, allerdings ging das eher in die richtung:

Meinetwegen 25Fps, wenn du dann sagen wir immer 1 bild pro kanal sendest, bei 5 kanälen, landest du also bei 5 bildern, und wenn eines mal ausfällt, ist das auch nicht sooo tragisch, wenn ein einzelnes frame fehlt ist das dem auge im normalfall egal, ich denke damit könnte man leben, bei uns an der uni arbeiten sie auch an nem system für HD video über funk übertragen :)
 

mact

Schnauze voll.
#42
Die Überlegung kommt mir seltsam vor: Wenn Du - ich albere mal herum - fünfmal in der Sekunde den Kanal wechselst, um fünf Bilder pro Kanal zu übertragen, können die anderen vier Kanäle zwar bequem abkühlen und sich die Landschaft begucken, Du gewinnst aber nicht viel.
Wenn Du pro Bild den Kanal wechselst, hast Du weder in Sachen Latenz noch in Sachen Auflösung etwas gewonnen, denn jeder Kanal wartet sich die nicht vorhandenen Beine in den nicht vorhandenen Bauch, während er darauf harrt (nicht "haart", denn Haare hat er ja auch nicht), endlich dranzukommen.
Möglicherweise hast Du aber eine Kamera in petto, die zum Zeitpunkt x die nächsten(!) 24 Bilder schon verfügbar hat, sodass man auf 5 Kanäle jeweils 5 Bilder aufteilen könnte ...

Denn "im Nachhinein" (also nach einer Sekunde) die gepufferten Bilder aufzuteilen bringt's in Sachen Latenz nicht auf bessere Werte als die oben behaupteten 100ms. Man liegt da mehr oder weniger bei 1000ms ... (was so eine Sekunde eben mit sich bringt).

Aber vielleicht habe ich Dich auch völlig mistverstanden? :)
 

Butcher

Bill the Butcher
#43
okey, sone kamera währe cool, das sie warten ist richtig, aber ich bezog mich dabei auf die tatsache das die Übertragungsgeschwindigkeit theoretisch langsamer währe als die aufgenommenen einzelnen frames groß sind, so könnte dann ... vergiss es, doooofe idee, ich muss duschen, da falln mir immer gute sachen ein^^

ein einzelnes bild zu splitten müsstest du aber dan so hinbekommen das auch beim ausfall wie bei dir oben beschribeen immernoch eine halbwegs akzepotable rest-datenmenge da ist, also theporetisch möglichst auf viele kanäle aufteilen, und dann evtl eine gewisse redundanz einbauen, ohne jedoch wiederrum mehr daten zu produzieren, als dir die aufteilung an bandbreite bringt,....wobei natürlich bei wlanchips im miniformat auch eventuell die idee währe direkt auf mehrere chips zu splitten, da die ja eh nichts wiegen, und auch nix mehr kosten,....
 

FerdinandK

Erfahrener Benutzer
#45
Bitte entschuldigt meine naive Herangehensweise, aber die transiente (in der Zeit) Komprimierung basiert darauf nur das "Inkrement" zu senden, also ausgehend vom aktuellen Bild, das update zum neuen Bild, wenn man mpeg nicht verwenden kann, dann einfach als erste Lösung: Update =(Bild neu-Bild alt) verschicken und auf der Empfangsseite: Bild neu = Bild alt + update. Das update kann in erster Näherung einfach das Jpeg des Update (lässt sich sehr gut komprimieren) sein hier wird sich aber sicher auch noch was intelligenteres finden.

mpeg ist verfügbar, aber nicht das einzige was es gibt.

lg Ferdl
 

Butcher

Bill the Butcher
#46
Duschen gehen ich momentan nicht kann, da außer haus ich bin, Alkohol die kreativität anregen muss, werde mal bissel was versuchen, hab hier noch ein paar xbees von der uni rumliegen, hab da was im kopf rumfliegen^^ um das du mich besser verstehst; mehrere billige sender= billig und theoretisch mehr bandbreite,... Das is die grundidee^^ die andre erklären ich versuche nochmal nach weiterem cola-osborne ;)
 

FPVer

Erfahrener Benutzer
#47
Hallo,
ich bin begeistert das, dieses Thema noch einige interessiert !

Ich benötige so ein System für eine Live Übertragung, da ein Kunde dieses Live Bild vom Copter in Zukunft gerne verwenden möchte, da ihm im analog Bild aber zu viele Störungen sind, muss was digitales her.
Ich bin deswegen schon mal mit der Firma VTQ in Kontakt getreten diese bieten solche Digital Sender und RXé an, dazu kommen noch zwei weitere positive Gründe, leicht (100g) und eine Latenz von nur 8-10ms.
Wobei mir die Verzögerung recht egal ist, da ich ja weiterhin mein analog Bild vom Copter habe.
Dazu kommt noch das diese Firma aus Querfurt kommt und dies gleich um die Ecke ist.

Sollte aber jemand von euch auch bald eine Lösung haben, wäre ich natürlich auch daran interessiert.
 
Zuletzt bearbeitet:
B

Benutzer1106

Gast
#48
Zuletzt bearbeitet:

mact

Schnauze voll.
#49
Wie gesagt: Latenzen von unter 40ms bedeuten, dass das AKTIVE Bild LIVE übertragen wird. Keine Stream-Kompression. Und damit Bandbreitenprobleme ODER Reichweitenprobleme ODER Synchronisationsprobleme ODER alles zusammen.
Latenzen von maximal 80ms bedeuten (von 25fps ausgehend), dass die Differenzen von einem Bild zum nächsten übertragen werden. Das ist leider die Realität, die man erstmal nicht ausblenden kann. Eine Streamkompression KANN nicht schneller als im Abstand von zwei Frames arbeiten, denn sonst müsste sie "prefetchen", also unserer eigenen Zeitlinie vorausgreifen. Das Thema hatte ich schon angeschnitten.

Hier greife ich dann FerdinanKs Einwurf auf: Richtig - die Überlegung, nur Differenzen zu übertragen, ist der Weg, die Latenz zu minimieren. Es bleibt dann die minimale Latenz von 40ms (siehe oben) für zwei Frames bei 25fps. Und mein Einwand der i-Frames ist weiter gültig: Ist ein Differenz-Frame ungültig, bricht der gesamte Strom zusammen, bis das nächste i-Frame gesendet wird.
Deshalb ja der Ansatz MJPEG (eben NICHT MPEG), weil dort Vollbilder übertragen werden oder abwechselnd i- und p-Frames.

Hat man Bandbreite zur Verfügung, also z.B. mehrere Kanäle parallel mit einer ausreichend guten Fehlertoleranz und Synchronisation, kann man z.B. die Framerate hochsetzen, um die Latenz mit einem Stream zu reduzieren. Das heißt dann aber auch "Rechenzeit". FPU-Power (oder CPU- oder DSP-Power) kommt immer mit Kosten, unter Umständen in Form von Wärme oder Gewicht oder Wärme und Gewicht.
Mein Traum ist eine Inputrate von 60fps mit D2 Auflösung und einer i-/p-Kompression. Das wäre ideal. Aber von dieser Lösung bin ich noch sehr weit weg.

Marc
 

Butcher

Bill the Butcher
#50
Genau das meinte ich^^ auch wenn ichs nicht ausdruecken konnt, ich werf jetz mal den begriff FPGA in den raum, da haben wir schon experimentiert was videoverarbeitung angeht, vorleile: billig und extrem leistungsstark ;)
 

73bm73

Erfahrener Benutzer
#53
Die Funktechnik ist ja nicht gerade mein Spezialgebiet, aber was ist die Latenzzeit bei einer analogen Übertragung?
Nur damit wir Jungs von den billigeren Plätzen einen Vergleich zu den 100, 80, 40ms haben und uns ein Bild davon machen können (möglichst latenzfrei natürlich).

Und weil immer schon davon gesprochen wurde, dass die analoge Vodeoübertragung die Frequenzen so zumüllt, bin ich eigentlich davon ausgegangen, dass die digitale Übertragung weit weniger Bandbreite benötigt. Ist das falsch?
Und wenn es doch richtig ist, kann man dann diesen "übrig gebliebenen Rest von der Bandbreite" nicht dazu nützen um, so wie weiter oben schon angeschnitten, mehrere Daten parallel zu Übertragen?
 

mact

Schnauze voll.
#54
Ich habe gerade eine Antwort geschrieben und abgeschickt, sie wurde auch angezeigt. Jetzt ist sie verschwunden. Ich vermute, dass da zeitgleich jemand an der Thread-Verlinkung rumgefummelt und aus zwei Threads einen gemacht hat.

Naja. Dann ist meine Antwort eben weg - sorry an 73bm73 und Schmiernippel, deren Beiträge ich kommentiert hatte :)
 

mact

Schnauze voll.
#57
Kennt sich jemand von euch (wirklich) mit den aktuellen XBee-Modulen aus (802.11)? Ich erhalte leider trotz mehrfachen Nachfragens von digi.com keine Antwort auf meine Fragen (es scheint manchmal einfacher zu sein, mit Chinesen zu kommunizieren als mit Amerikanern).

Mein (theoretisches) Modell steht soweit, ich würde die nächsten Wochen gerne zum Bau eines Proof of concept Systems verwenden. Im Augenblick hapert es einzig an der schlechten Kommunikation mit den möglichen Bauteillieferanten (völlig unabhängig von "New Year", einige Anfragen habe ich schon Anfang Dezember letzten Jahres abgeschickt - darunter an Sony, die leider als Lieferant ausscheiden, weil selbst der "professionelle Entwicklersupport" keinerlei Interesse daran hat, einfache Fragen zu beantworten).
 

mazeh22

Neuer Benutzer
#58
Ich bin mal gespant wie dein Konzept aussehen wird. Bei meinen Versuchen letztes Jahr hatte ich immer Latenz oder Reichweitenprobleme. Ich hatte die Logitech C920 Webcam mit H.264 Encoder dafür genutzt und die Frames mittels Wlan Hardware über ein modifiziertes Protokoll übertragen. Bei H.264 Codierung war die Latenz immer zu hoch zum fliegen und bei MJPEG war die benötigte Bandbreite sehr hoch, was dann nur kurze Reichweiten zuließ.
 

mact

Schnauze voll.
#59
@mazeh22: Lies mal die Diskussion hier - die von Dir beschriebenen Probleme habe ich bereits im Detail erörtert :)
(Allerdings, das gebe ich zu, auch in dem Beitrag, den die Forenleitung entfernt hat).
 

mazeh22

Neuer Benutzer
#60
Der gelöschte Beitrag würde mich schon interessieren. Welche Hardware, Kamera, Übertragungstechnik. Wie willst du die Frames auf mehrere Kanäle splitten? Welche Frequenzen (2,4Ghz oder 5,2 Ghz). Bei 5 Ghz hat man einen größeren Frequenzbereich zur Verfügung. Modulationsart (FH, DSSS, OFDM)?

Wenn das schon erörtert wurde habe ich es wohl übersehen. Jedenfalls finde ich es sehr interessant wenn hier im Forum an einer Lösung zur digitalen Übertragung gearbeitet wird.
 
Status
Nicht offen für weitere Antworten.
FPV1

Banggood

Oben Unten