***MOD: Post in dieses Thema verlagert ***
Besteht außer bei mir noch Interesse, an dem Lepton-Thema, das du eröffnet hast, weiterzustricken? Mir kamen da ein paar nützliche Ideen bei der Verheiratung der Bilder zu einem sinnvollen Komposit-Bild aus den beiden Aufnahmemedien, so à la diejenigen Pixel im Owl-Bild, die von den FIR-Kams abgedeckt werden, durch ebenjene zu ersetzen.
Als alter Analogvideosack
dachte ich gleich an "Genlock-en", sofern es mir gelänge, die Leptönner fremd zu synchronisieren, etwa nach der "Pfeife" des Owl-Taktes tanzen zu lassen, vllt nen kleinen ArduIrgendwas dazu, der die Synchronisiererei übernimmt, das bekäme ich evtl hin. Die ext.Syncerei ist der Knackpunkt.
Alternativ: die Frames der FIR-Kams per A/D-C zu digitalisieren, eine Handvoll Frames zwischenspeichern etwa à la FIFO und das jeweils möglichst junge Frame synchron zum Owl-Takt per Mischer ausgeben. Falls das noch im Aufbau ist, wird das 2t-jüngste Frame ausgegeben und korrekt ins Owl-Frame eingefügt. Alles im Prinzip nur ne Timing-Frage.
Zoomen: wird das FIR-Frame schnell ausgelesen, ergibt sich beim ausgeben ein kurzes Stück Zeile, das an korrekter Position im Owl-Frame eingefügt wird. Langsames Auslesen verlängert den einzufügenden Zeilenabschnitt. Das kann man dann per beliebig feiner Abstufung skalieren.
Dazu bräucht ma jetzt jemand, der das A/D- und anschließende D/A-Wandeln und die zugehörige Speicherverwaltung zB auf nem ArduXYZ mal eben so ausm Ärmel programmieren kann (und will)
Evtl isses dann sogar geschickter, das digitale Signal des Eval-Boardes (nicht das Flytron!) direkt zu verwenden. Es sind ja nur 4800 Pixel mal 14 Bit = 8400 kB je Frame... da kann man ja noch ein hübsches Colourmapping dazubauen...
falls sich da einer einklinken will, wäre schon cool
Das Wissen zum Timing und "warum ist ein Videosignal?" wäre vorhanden, aber ich bin kein Coder...
Aber das paßt dann vllt nicht mehr zu diesem Fred, sondern wäre ggfs im anderen besser aufgehoben...
o.d.