Virtuelle Produktion im Robidia-Studio — Slider + Unreal Engine für die Bundesregierung
Im robidia-eigenen Green-Screen-Studio läuft eine Produktion für ein Bundesministerium. Ein selbst entwickelter Slider mit PTZ-Kamera ist live mit Unreal Engine verbunden — der Hintergrund wird in Echtzeit erzeugt, ohne spürbare Latenz.
Slider + PTZ + Unreal Engine in Echtzeit, ohne spürbare Latenz
Projekt-Details
- Branche
- Virtual Production / Green Screen
- Standort
- Robidia-eigenes Studio
- Auftraggeber
- Projekt eines Bundesministeriums (genaues Ressort folgt nach Freigabe)
- Setup
- Green-Screen-Studio · selbst entwickelter Slider mit PTZ-Kamera · Unreal Engine
- Eingesetzte Module
- Autonome Kamerasteuerung · Virtuelle Produktion
- Kerneigenschaft
- Slider-Tracking + PTZ-Steuerung in Echtzeit an Unreal Engine, keine spürbare Latenz
Die Ausgangslage
Virtual Production mit Green Screen oder LED-Wall lebt davon, dass Kamerabewegung und virtueller Hintergrund perspektivisch zusammenpassen — Frame für Frame. Im klassischen Green-Screen-Setup bedeutet das: Die Bewegung der physischen Kamera muss in Echtzeit an die Render-Engine übergeben werden, der Hintergrund wird parallel berechnet, alles muss bei Live-Aufnahmen ohne sichtbare Latenz zusammenkommen. Ist die Latenz spürbar oder die Tracking-Daten unscharf, entsteht ein optischer „Drift” zwischen Vordergrund und Hintergrund — und Post-Production muss kompositieren, was eigentlich In-Camera funktionieren sollte.
Für ein Projekt eines Bundesministeriums war genau dieses Setup zu liefern: ein Moderator vor Green Screen, der live in eine virtuelle Umgebung eingebettet wird, mit einer Kamera, die nicht statisch steht, sondern auf einem Slider mit zusätzlicher PTZ-Funktion fährt.
Die Anforderung
- Echtzeit-Integration zwischen physischer Kamerabewegung (Slider + PTZ) und der Unreal-Engine-Render-Pipeline für den virtuellen Hintergrund.
- Keine spürbare Latenz — die Aufnahmen laufen live, der Hintergrund wird parallel zur Aufnahme erzeugt.
- Hochwertige Bildsprache: Slider-Fahrten und PTZ-Schwenks sollen Produktionswert geben — nicht statisch wirken.
- Robustheit: Das Setup muss über mehrere Drehtage zuverlässig laufen.
Die Lösung
Gedreht wird im robidia-eigenen Green-Screen-Studio. Die Produktion verbindet vier Komponenten zu einer geschlossenen Pipeline:
- Selbst entwickelter Slider mit PTZ-Kamera-Aufsatz — die mechanische Bewegung der Kamera ist sensorisch instrumentiert.
- APOS als zentrale Steuer- und Daten-Schicht — übernimmt die Steuerung der PTZ-Kamera (Schwenks, Neigung, Zoom) und liest gleichzeitig die Slider-Position kontinuierlich aus.
- Unreal Engine als Render-Pipeline für den virtuellen Hintergrund — empfängt die kombinierten Tracking-Daten (Slider + PTZ) in Echtzeit und passt die Perspektive des Hintergrunds Frame-genau an.
- Greenscreen-Compositing in Echtzeit — der Moderator wird live in die Unreal-Szene eingesetzt.
Die Autonome Kamerasteuerung führt dabei die PTZ-Kamera weiter — Speaker-Tracking, Bildausschnitt-Logik und manuelle Override-Eingriffe laufen parallel zur Hintergrund-Synchronisation. APOS bedient also gleichzeitig zwei Layer: die klassische Kamera-Bildsteuerung und die Tracking-Datenübergabe an Unreal.
Latenz: Im Regelbetrieb ist die Latenz zwischen physischer Slider-/PTZ-Bewegung und dem in der Unreal-Szene gerenderten Hintergrund nicht spürbar. Slider-Fahrten und Kameraschwenks ergeben mit dem virtuellen Hintergrund ein konsistentes Gesamtbild, ohne dass Post-Production nachträglich kompositieren müsste.
Die Ergebnisse
- Live-Greenscreen-Produktion im robidia-eigenen Studio — Moderator vor Green Screen, virtueller Hintergrund live in Unreal Engine generiert.
- Slider + PTZ als kombinierte Tracking-Quelle — beide Bewegungs-Achsen werden parallel an Unreal übergeben, ohne dass externe Tracking-Hardware ergänzt werden muss.
- APOS in Doppelrolle: PTZ-Steuerung und Tracking-Datenübergabe laufen in einem System.
- Keine spürbare Latenz im Regelbetrieb — Live-Aufnahmen sind direkt verwertbar, keine Post-Production-Korrekturen am Hintergrund-Drift nötig.
Was Sie daraus mitnehmen können
Wenn Sie Virtual Production mit Green Screen oder LED-Wall planen — und nicht den vollen LED-Wall-Stack mit externem Tracking-System aufbauen wollen, sondern eine schlanke, integrierte Pipeline brauchen — ist genau dieses Setup ein Anker. Slider, PTZ und Render-Engine sind keine getrennten Welten, sondern lassen sich über APOS zu einer Datenquelle zusammenführen.
Mehr zur VP-Lösung oder Demo im robidia-eigenen Studio anfragen.