Oculus Rift Infosammlung

LSG

Erfahrener Benutzer
#61
@ Sunshadow8
Es gibt auch einen Button namens "Bearbeiten", damit das Thema nicht unnötig viele Beiträge bekommt. (Auch wenn ich mit diesem Beitrag auch einen unnötigen mache)...
 

Jonek

Erfahrener Benutzer
#63
sunshadow8, ich habe eine Oculus Rift hier. Meld dich mal, falls du dich wegen irgendwelcher Tests mal treffen willst. Kann auch gerne Dinge für dich ausprobieren. Wegen Stromversorgung: Die Brille hat einen Controllerkasten, der per Wandwarze mit Strom versorgt wird. Es gibt aber glaube ich schon Mods, um die Stromversorgung über USB zu machen.
 
#64
Das ist nett, danke Jobek. Allerings sind wir nicht gerade Nachbarn. Was ist eine Wandwarze?
 

kritzelkratzel

Erfahrener Benutzer
#66
Ähm, ich habe da mal was vorbereitet:

http://www.youtube.com/watch?v=ZBm3-hoLDJk

Damit könnte die 3D-Kamera von mir bereit für die Rift sein. Was ihr im Video seht, ist nur ein Demo für die Fähigkeit der Kamera, die Videohälften in geeigneter Weise horizontal zu verschieben, um den Erfordernissen der Rift-Brille (Position der beiden Bildzentren auf dem gesamten Videobild) gerecht zu werden. Weil der immer noch notwendige Konverter FBAS-nach-HDMI nicht vorhersehbar ist in dem Sinne, wie er das 4:3 Bild der Kamera auf den 16:10 Monitor der Brille umgesetzt, ist so seine Einstellmöglichkeit sicher nicht das Schlechteste.

Man muss natürlich die Linsen der Kamera wechseln, und Linsen mit deutlich kleinerer Brennweite reinbauen. Der kommende Durchlauf der Kamera wird dann ein kleines Potentiometer und einen kleinen ADC enthalten, damit jeder mit der eigenen Einstellung glücklich werden kann.
 
#67
@kritzelkratzel

Wenn ich dich richtig verstanden habe, müsste eine Cam mit 16:9 oder 16:10 eigentlich das Optimale sein nicht wahr? Und Linsen für die Dioptrie sollten beiliegen wenn ich mich recht entsinne. Wie sieht es aus mit den Einstellmöglichkeiten bzgl. Augenabstand?
 

kritzelkratzel

Erfahrener Benutzer
#68
Keine Ahnung, ich habe keine Rift Brille hier bei mir. Der Monitor im DevKit hat 16:10, stellt aber das Bild für die beiden Seiten gleichzeitig dar. Damit bleibt für eine Hälfte also etwas wie 8:10 übrig. Daher kann eine 16:9 Kamera für jeden einzelnen Kanal wohl keinen Vorteil bringen, denke ich.
 
#69
Öhm, ich steh wohl gerade etwas auf dem Schlauch.....
Also man muss ja zwangsläufig zwei Mal dasselbe Bild sehen, aber wie hatman dann eine 140° Sicht bei einem Format von theoretischen 8:10? Hab ich da was falsch verstanden?

Hm Jonek müsste die Sachen wissen....Jonek?
 

kritzelkratzel

Erfahrener Benutzer
#70
Das macht die Optik. Das Rohmaterial für die Darstellung in der Brille kommt verzerrt rein und passt dann jeweils auf die beiden Hälften des Monitors, so wie Spacefish es hier in diesem Thread gezeigt hat.

Die Linsen in der Brille entzerren dann das Bild und vermitteln dir dann das große Gesichtsfeld. Das war's dann auch schon.
 
#71
Okay, danke für die Erklärung. Muss mir das nochmal gründlich ansehen.....
 

Jonek

Erfahrener Benutzer
#72
Kritzelkratzel: die Verzerrung und die Positionierung der beiden Bildhälften wird bei der Rift normalerweise auf einem Rechner berechnet. Man nimmt eine 3D Szene, die aus zwei leicht unterschiedlichen Blickwinkeln gerendert wird. Bevor die Szene aus dem jeweiligen Blickwinkel (fuer das jeweilige Auge) dargestellt wird, wird das Bild gewoelbt (barrel projection). Die Woelbung entspricht genau der umgekehrter Verzerrung der Linsen in der Rift. Betrachtet man das gewoelbte Bild durch die Linsen sieht es wieder normal aus. Auf halbwegs aktueller Hardware geschieht das rendern einer Szene hardwarebeschleunigt durch eine GPU. So eine GPU gibt es sowohl auf dem Raspberry Pi als auch in den meisten Smartphones.

Es ist wichtig zu verstehen, dass man durch die Optik der Rift von der jeweiligen Bildhaelft nur einen Teil/Ausschnitt sieht. Dieser Teil ist oval (nicht kreisrund) und befindet sich NICHT in der jeweiligen Mitte einer Bildhaelfte, sondern ist leicht nach innen versetzt. Alle Pixel ausserhalb des ovalen Bereichs sieht man in der Rift nicht. Sie liegen ausserhalb des peripheren Sichtfeldes. Vom Eindruck her macht das aber gar nichts.

Fuer FPV bieten sich mit der Rift mehrere Moeglichkeiten. Ein (live) Videobild muss nicht dreidimensional sein, um mit der Rift dargestellt zu werden. Es wuerde reichen, ein normales Videobild (2D) als Textur auf einer rechteckigen Flaeche im Raum darzustellen. Die Flaeche entspraeche einer virtuellen Leinwand / einem virtuellen Monitor. Diese koennte man im Raum von sich wegscheiben oder naeher heranholen. Dieses Video-auf-Textur-Rendern ist in OpenGL relativ einfach moeglich. Allerdings erfordert das natürlich einen Rechner, der das Videosignal als Eingabe bekommt (Low latency frame grabber! Wer baut einen!?) und es dann in der OpenGL-Szene als Textur benutzen kann. Neben der virtuellen Leinwand koennte man dann (raemlich davor, darueber oder darunter) noch HUD-Elemente darstellen, die Telemetrie oder eine Karte anzeigen. Die Kopfbewegungen oder das Head-Tracking koennten dann der Orientierung / dem Umschauen im virtuellen Cockpit dienen. Einige Weltraumspiele mit Rift-Support machen das genauso. Sowas sieht schon mal ziemlich geil aus!

Das Video von deiner 3D-FPV-Cam waere dann noch der naechste Schritt. Die beiden Halbbilder muessten auf jeweils einer Textur in der linken und rechten Bildhaelfte landen. Damit wuerde dann auch das Bild auf der virtuellen Leinwand raeumlich erscheinen, aehnlich einem 3D-Film im Kino.

Hier einige FPV-Videos die fuer die Rift nachbearbeitet wurden: http://www.youtube.com/user/PC3DM/videos
Hier ein Artikel, der die Verzerrung fuer die Rift erklaert: http://rifty-business.blogspot.de/2013/08/understanding-oculus-rift-distortion.html
Hier eine Shader-Implementierung der Verzerrung: https://github.com/dghost/glslRiftDistort
Oculus Rift Power Mod: http://www.roadtovr.com/oculus-rift-usb-power-hack-eliminates-need-for-a-wall-adapter/
Beispielimplementierung von Video-to-Rift: https://www.spacefish.biz/blog/2013/08/oculus-rift-fpv-v2-remote-eyes/
 
Zuletzt bearbeitet:

kritzelkratzel

Erfahrener Benutzer
#73
@Jonek: danke für die umfangreichen Hinweise. Dazu ein paar Kommentare von mir.

Ich stehe schon mit PC3DM aka Captain3D aka Phil in direktem Kontakt. Er hat mir den Tipp gegeben, dass Fisheye-Linsen die Barrel-Distortion von Haus aus machen, und recht hat er: http://en.wikipedia.org/wiki/Fisheye_lens#Fisheye_lens

Also muss ich nur durch ausprobieren verschiedener Linsen herausfinden, welche Brennweite am besten zur Rift passt. Den horizontalen Versatz von optischer Achse der Linsen zur Bildmitte auf den beiden Hälften des Rift-Bildschirms bekomme ich jetzt auch mit der neuen Firmware in den Griff, so wie es auf dem kleinen Demovideo zu sehen war.

Weil jeder FBAS zu HDMI Konverter einen Einfluss auf den Versatz haben wird, sollte dieser über einen gewissen Bereich kontinuierlich abstimmbar sein. Daher das Poti auf der kommenden Version der Kamera.
 

kritzelkratzel

Erfahrener Benutzer
#74
Jungs und Mädels, vergesst diese billigen Video Scaler aus der Bucht oder von Amazon, welche wir brauchen werden, um analoges Video nach HDMI zu skalieren. Ich habe jetzt das ultimative Gerät gefunden, welches eigentlich alles drauf hat, was man braucht (geringe Latenz, Qualität, Letterbox, Pillarbox, etc). Das Ding heißt Grefen GTV-COMPSVID-2-HDMIS und kostet leider auch etwas mehr.

Alles weitere (bin leider zu faul alles nochmal abzutippen) im Paralleluniversum:

http://www.rcgroups.com/forums/showthread.php?t=1802511&page=12#post26342999
 
Zuletzt bearbeitet:

HongKong-Pfui

Antivibration-Master
#80
FPV1

Banggood

Oben Unten