Kritzelkratzel: die Verzerrung und die Positionierung der beiden Bildhälften wird bei der Rift normalerweise auf einem Rechner berechnet. Man nimmt eine 3D Szene, die aus zwei leicht unterschiedlichen Blickwinkeln gerendert wird. Bevor die Szene aus dem jeweiligen Blickwinkel (fuer das jeweilige Auge) dargestellt wird, wird das Bild gewoelbt (barrel projection). Die Woelbung entspricht genau der umgekehrter Verzerrung der Linsen in der Rift. Betrachtet man das gewoelbte Bild durch die Linsen sieht es wieder normal aus. Auf halbwegs aktueller Hardware geschieht das rendern einer Szene hardwarebeschleunigt durch eine GPU. So eine GPU gibt es sowohl auf dem Raspberry Pi als auch in den meisten Smartphones.
Es ist wichtig zu verstehen, dass man durch die Optik der Rift von der jeweiligen Bildhaelft nur einen Teil/Ausschnitt sieht. Dieser Teil ist oval (nicht kreisrund) und befindet sich NICHT in der jeweiligen Mitte einer Bildhaelfte, sondern ist leicht nach innen versetzt. Alle Pixel ausserhalb des ovalen Bereichs sieht man in der Rift nicht. Sie liegen ausserhalb des peripheren Sichtfeldes. Vom Eindruck her macht das aber gar nichts.
Fuer FPV bieten sich mit der Rift mehrere Moeglichkeiten. Ein (live) Videobild muss nicht dreidimensional sein, um mit der Rift dargestellt zu werden. Es wuerde reichen, ein normales Videobild (2D) als Textur auf einer rechteckigen Flaeche im Raum darzustellen. Die Flaeche entspraeche einer virtuellen Leinwand / einem virtuellen Monitor. Diese koennte man im Raum von sich wegscheiben oder naeher heranholen. Dieses Video-auf-Textur-Rendern ist in OpenGL relativ einfach moeglich. Allerdings erfordert das natürlich einen Rechner, der das Videosignal als Eingabe bekommt (Low latency frame grabber! Wer baut einen!?) und es dann in der OpenGL-Szene als Textur benutzen kann. Neben der virtuellen Leinwand koennte man dann (raemlich davor, darueber oder darunter) noch HUD-Elemente darstellen, die Telemetrie oder eine Karte anzeigen. Die Kopfbewegungen oder das Head-Tracking koennten dann der Orientierung / dem Umschauen im virtuellen Cockpit dienen. Einige Weltraumspiele mit Rift-Support machen das genauso. Sowas sieht schon mal ziemlich geil aus!
Das Video von deiner 3D-FPV-Cam waere dann noch der naechste Schritt. Die beiden Halbbilder muessten auf jeweils einer Textur in der linken und rechten Bildhaelfte landen. Damit wuerde dann auch das Bild auf der virtuellen Leinwand raeumlich erscheinen, aehnlich einem 3D-Film im Kino.
Hier einige FPV-Videos die fuer die Rift nachbearbeitet wurden:
http://www.youtube.com/user/PC3DM/videos
Hier ein Artikel, der die Verzerrung fuer die Rift erklaert:
http://rifty-business.blogspot.de/2013/08/understanding-oculus-rift-distortion.html
Hier eine Shader-Implementierung der Verzerrung:
https://github.com/dghost/glslRiftDistort
Oculus Rift Power Mod:
http://www.roadtovr.com/oculus-rift-usb-power-hack-eliminates-need-for-a-wall-adapter/
Beispielimplementierung von Video-to-Rift:
https://www.spacefish.biz/blog/2013/08/oculus-rift-fpv-v2-remote-eyes/