Manchmal sind Nutzer enttäuscht, wenn sie einen 4K-Film mit einer VR-Brille ansehen. Die Auflösung erscheint zu niedrig. Was den meisten nicht klar ist: Selbst wenn wir perfekt auflösende VR-Brillen hätten, dann wäre unser Problem noch lange nicht gelöst. Wir haben heute weder die Kameras um höher auflösende Filme zu produzieren, noch die Computer um solche Filme abzuspielen.
VR-Brillen bieten bereits 6K+ je Auge
Wenn wir einen 4K Film betrachten, dann strecken sich die 4.000 Pixel horizontal über die ganzen 360 Grad des Videos. PSVR, Vive und Oculus haben alle drei etwas weniger als 90 Grad Field of View. Dies ist weniger als die Herstellerseiten sagen. Es lässt sich aber leicht testen. Man öffnet ein 360 Grad Foto und sucht sich einen Marker ganz am linken Rand des Sichtfelds. Im Anschluss dreht man sich nach links bis der Marker rechts gerade so vom Bildschirm verschwindet. Man braucht im Regelfall mindestens 4 Drehungen um den ganzen 360 Grad Bereich abzudecken. Somit haben wir ein Field of View von etwas weniger als 90 Grad.
Daraus ergibt sich bei einer horizontalen Auflösung von 1200 Pixel je Auge bereits 4 x 1200 = 4800 Pixel. Nun sollte jedoch noch beachtet werden, dass wir Aufgrund der Linsenkrümmung eine Verzerrung haben mit einem Faktor von ca. 1.4. Es werden nicht alle Pixel des Films gleichmässig über den Bildschirm verteilt. Zudem profitieren die Brillen von Downsampling. Daraus ergibt sich eine Auflösung von mindestens 6K, welche die Brillen darstellen können. Auch dies lässt sich leicht testen indem man ein hochwertiges 12K großes 360-Grad-Foto auf 8K, 6K und 4K verkleinert. Betrachtet man dieses Photo nun mit seiner VR-Brille, so wird man keine Unterschiede in der Auflösung zwischen 12K, 8K und 6K feststellen. Einen deutlichen Qualitätssprung gibt es aber zwischen 4K und 6K.
Aktuelle Kameras ermöglichen (nur) 8K
Alle gängigen Kameras verwenden Weitwinkelobjektive. Alle auf GoPros basierenden Kamera-Rigs erreichen maximal ca. 8K Auflösung. Bei einem Rig mit 6 Kameras ergibt sich beispielsweise folgende Rechnung:
(360 Grad / 94,4 V.FOV * 2028px) + (360 Grad / 122.6 H.FOV * 2704px) / 2 = (7734px + 7940px) / 2 = 7837px
Letztlich macht es aber kaum einen Unterschied, wie viele GoPro-Kameras im Rig zum Einsatz kommen. Das “Problem” ist die Weitwinkellinse, welche fest verbaut ist. Ein Rig mit 16 GoPro Kameras für 20.000 Euro kann auch kaum eine höhere Auflösung erzeugen. Es gibt dann mehr Schnittmenge zwischen den einzelnen Videos, somit gegebenenfalls weniger Verzerrung und auch das automatische Stichting wird leichter. Aber die Auflösung wird auch bei sehr vielen Kameras nicht höher.
Auch bei wirklich teuren Kameras wie der Nokia Ozo (ca. 45.000 EUR) oder der Facebook 360 Kamera (ca. 30.000 Euro) bleiben wir was die Auflösung anbelangt in der gleichen Region. Alle heute gängigen Kameras verwenden Weitwinkellinsen welche somit auch bei 4K je Kamera sehr wenig Pixel je Grad aufzeichnen. Die Pixeldichte wäre hier das entscheidende Kriterium, nach welchem man die nächste Generation an Kameras messen sollte. Denn was man wirklich bräuchte, wären Kameras mit mehr mehr Pixeln auf den zur Verfügung stehenden 360 Grad.
Heutige PCs mit 8K ebenfalls am Limit
Aber selbst wenn wir Kameras hätten, welche 16K Filme produzieren. Wie spielen wir diese ab. Codecs, CPUs, GPUs und selbst die HDMI Schnittstelle erreichen hier heute das Limit. Der H.264 Codec unterstützt offiziell maximal bis zu 4K. Mit H.265 kann man größere Auflösungen komprimieren. Dieser Codec ist momentan mit den neuesten Generation an Prozessoren und Grafikkarten endlich Hardwareseitig decodierbar. Trotzdem kommen auch die aktuellen CPUs und GPUs schnell an Ihre Grenzen. 8K-Dateien sind 4 mal so groß, wie 4K-Dateien. 16K-Filme wären in der Dateigröße 16 mal so groß wie aktuelle 4K-Filme. Wir bewegen uns hier in Regionen, wo selbst die aktuell verwendeten Schnittstellen wie HDMI an Ihre Grenzen stoßen.