Vision Pro Teardown – das Geheimnis der künstlichen Augen
Tech-News

Vision Pro Teardown – das Geheimnis der künstlichen Augen

Ziemlich strange und gleichzeitig typisch Apple: Die Vision Pro hat eine riesige, glänzende Glasfront, die aus den aluminium- und kunststoffverhüllten Pendants der Konkurrenz selbst dann hervorsticht, wenn das Gerät aus ist. Und wenn man sie einschaltet, sieht’s noch krasser aus: Anstatt einfach nur durchsichtig zu sein, lässt das Glas den Blick frei auf ein Rasterlinsen-Display, das versucht, ein 3D-Bild der Augen zu zeigen, die sich dahinter verbergen. Apple nennt es EyeSight-Display; wenn die Trägerin oder der Träger dich durch das Gerät anschaut, scheint es fast so, als würdest du sie oder ihn durch ein dunkles Glas sehen können. Fast.

Tech-Journalisten haben das EyeSight schon als „bizarr“, „unheimlich“ und „eingeschränkt sinnvoll“ betitelt. Aus Reparatur-Perspektive jedenfalls denkt man gleich an eine Achillesferse des Headsets. Warum sollte man noch ein Display verbauen, noch mehr Anschlüsse und generell noch mehr Dinge, die kaputtgehen können – nur, um diese leicht gruseligen Augen zeigen zu können? Es versteht sich von selbst, dass wir es aufmachen mussten, um herauszufinden, wie es funktioniert.

Wir haben eine Menge zu berichten, viel zu erzählen und ein paar Vermutungen darüber anzustellen, warum uns die Vision Pro in ihrer jetzigen Form vorliegt. In diesem Gerät steckt so viel, dass wir unsere Untersuchung in zwei Teile aufteilen – die Details zum Linsen-System und Silikon folgen später.

Also, tauchen wir ab in die gläserne Welt der Vision Pro!

Die Glasfront ist natürlich festgeklebt, und wir mussten eine Menge Wärme und Geduld aufbringen, aber wir haben es geschafft, ohne dass etwas Nennenswertes kaputt ging. Nur die Schutzfolie hat sich stellenweise etwas abgelöst und war vielleicht etwas geschmolzen. Apples authorisierte Techniker:innen sind möglicherweise etwas schneller als wir, dafür verlangen sie aber auch 799 $ für den Austausch des Frontglases.

Heavy Metal

Mit 34 Gramm ist das Glas an sich nicht schwer, aber mit dem Akku wiegt die Vision Pro über ein Kilo.

Hier hat Apple ein klein bisschen geschummelt: In den meisten Werbebildern für die Vision Pro sieht man ihn nicht, den Akku, den du in deiner Tasche herumträgst statt auf dem Kopf. Wie in den Anfangszeiten von Virtual Reality würde das Headset sehr schwer wiegen, wenn der Akku darin integriert wäre. Und natürlich sind wir große Fans modularer Akkus, denn wenn der Akku in absehbarer Zeit seinen Geist aufgibt, kannst du ihn leicht austauschen. Apples Entwicklungsteam nimmt damit vielleicht auch schon Rücksicht auf die EU-Regelungen zu wiederaufladbaren Batterien, die bald in Kraft treten und vorschreiben, dass alle elektronischen Geräte bis 2027 austauschbare Akkus enthalten müssen.

Das Akku-Pack selbst wiegt 353 Gramm und besteht aus drei Akkus, etwa in der Größe von iPhone-Akkus, die zusammen 35,9 Wh liefern, mehr als doppelt so viel wie die 17,3 Wh des iPhone 15 Pro. Erstaunlicherweise ist nur etwa die Hälfte des Gewichts, genauer gesagt 184 Gramm, auf die Akkuzellen zurückzuführen. Um in das Akku-Pack reinzukommen, mussten wir etwas Klebstoff aufweichen, ein paar Einweg-Clips lösen und jede Menge Torx-Schrauben aufdrehen.

Drei Akkus im Aluminium-Gehäuse, die bei etwa 3,8 V in Serie und jeweils 3166 mAh insgesamt 11,34 Volt liefern.

Akku-Pack und Headset bringen zusammen, wie gesagt, über ein Kilo auf die Waage – eine ganz schön schwere Brille also. Zum Vergleich: Das Meta Quest Pro wiegt 722 g, das Quest 3 nur 515 g.

Wenn wir nur das Gewicht berücksichtigen, das auf dem Gesicht liegt – das Display-Modul, ohne Akku – wiegt das Meta Quest Pro 522 g. Die gleiche Baugruppe in der Vision Pro wiegt mit 532 g nur unwesentlich mehr. Der größte Unterschied zwischen den beiden Modellen ist die Gewichtsverteilung – und der deutlich schwerere Taschen-Akku des Vision Pro.

Trotzdem ist der erste Eindruck ziemlich gut. „Das Gewicht macht mir weniger aus als erwartet, auch wenn es hauptsächlich auf meiner Stirn und meinen Wangen liegt und nicht auf dem Kopf. Das fühlt sich merkwürdig an, als würde jemand meinen Kopf nach unten drücken“, sagt Sam Goldheart, erfahrene Teardown-Expertin bei iFixit.

Die Kopfbänder

Die Vision Pro wird mit einem 3D-gestrickten „Solo Knit Band“ und einem „Dual Loop Band“ geliefert. Diese werden am Ende der Bügel angebracht, direkt hinter den Lautsprechern. Das Solo Knit Band kennt man aus den Werbe-Fotos für das Headset und hat es schon zu einiger Berühmtheit gebracht. Zugegeben, es sieht ziemlich cool aus. Das Band führt um den Hinterkopf herum, und man kann es an einem Rad an der Kopfseite einstellen, ähnlich wie einen Fahrradhelm.

Und wie fühlt es sich an? „Der Stoff ist richtig angenehm“, sagt Sam. Das Band ist ganz fein gewebt, was es sehr komfortabel macht, und es ist dehnbar genug, um nicht zu drücken und das Vorderteil trotzdem an Ort und Stelle zu halten.

Die Lautsprecher sind an zwei starren Bändern befestigt, die mit dem Headset verbunden sind. Um sie zu lösen, brauchst du nur ein SIM-Auswurfwerkzeug. Die Löcher sind auf der Innenseite des Headsets, dort, wo es an den Schläfen aufliegt. Die Bänder für die Lautsprecher sind über Lightning-ähnliche Anschlüsse verbunden. Bauteile, die sich leicht ausbauen lassen und noch dazu mit Werkzeugen, die du höchstwahrscheinlich schon hast – toll, so was sehen wir gern! Das lässt uns hoffen, dass das Headset nicht ganz so schwierig auseinanderzunehmen ist wie befürchtet.

Dieses modulare Design erinnert an die AirPods Max, die wir ziemlich gut fanden. Wearables gehen so schnell kaputt, dass leicht austauschbare Lautsprecher-Module absolut sinnvoll sind. Wir haben dann noch versucht, einen Schritt weiter zu gehen und den Lautsprecher aus seinem Silikonrahmen zu hebeln – und haben dabei prompt die Kabel darin zerstört. Macht nichts, denn wenn du mal deine Lautsprecher austauschen musst, brauchst du sie dazu nicht öffnen.


Die Lautsprecher – nicht ganz so unzugänglich wie die AirPods Pro, aber fast.

Die Lautsprecher selbst sind nach hinten gerichtet, zu den Ohren. Damit ist klar, dass sie nicht für eine laute Umgebung geeignet sind. Man kann stattdessen auch AirPods Pro verwenden, aber wenn du Lossless Audio ohne Latenz willst, brauchst du die neueste USB-C-Version.

Auf der linken Seite ist der proprietäre Akkuanschluss, der mit einem Magneten einrastet und dann durch Drehen verriegelt wird. Wir können verstehen, warum Apple hier keinen standardmäßigen Anschluss gewählt hat, auch wenn wir nicht wahnsinnig begeistert sind – wenigstens kann der Anschluss nicht versehentlich abgerissen werden. Aber der Stecker am anderen Ende ist eine Zumutung: Statt mit USB-C wird das Kabel über eine Art überdimensionalen Lightning-Anschluss mit dem Akku-Pack verbunden, den man mit einem SIM-Auswurfwerkzeug oder einer Büroklammer lösen kann.


Oh Apple, hättet ihr nicht einfach einen USB-C-Anschluss nehmen können??

Dieser Anschluss bedeutet, dass man nicht einfach ein Akku-Pack mit USB-C-Anschluss verwenden kann, das man schon hat. Richtig ärgerlich.

Jedes Gesicht ist anders und Apple bietet sage und schreibe 28 verschiedene Lichtdichtungs-Teile an, um so viele Gesichtsformen und -größen wie möglich, nun ja, abzudecken. Die Größe der benötigten Gesichtspolster variiert dann noch abhängig davon, ob du Zeiss Linseneinsätze brauchst. Denn die Dichtungen und Polster sorgen auch dafür, dass die Stereo-Displays und Augen-Sensoren richtig positioniert sind. Deshalb wird jede Vision Pro-Bestellung von Apple von Hand verpackt – es gibt schlicht keine Standardversion.

Rate mal, wer Make-up trug?

Wie immer bei Apple sind die Sachen entweder total fest verklebt oder super einfach auszutauschen. Die Gesichtspolster sind wieder mit Magneten am Headset befestigt. Diese Modularität soll sicherstellen, dass du das Headset perfekt an deine Gesichtsform anpassen kannst. Bleibt abzuwarten, ob das bei den nächsten Modellen auch gemacht wird oder ob es dafür nicht auch eine einfachere Möglichkeit gibt. Magnete sind jedenfalls besser als Klettverschlüsse, weil die Dichtungen damit immer genau an der richtigen Stelle sitzen. So ähnlich, wie der MagSafe-Ladeanschluss sich dank des Magnets perfekt an der induktiven Ladespule des iPhones ausrichtet.

Was die Reinigung der Gesichtspolster angeht, empfiehlt Apple Wasser und parfümfreies Spülmittel – Schweiß ist die eine Sache, Make-up die andere. In ihrem Video für das Wall Street Journal, für das Joanna Stern das Headset mit bewundernswertem Durchhaltevermögen ganze 24 Stunden lang trug, berichtet sie, ihr Make-up habe die Gesichtspolster regelrecht verstopft – und Sam Goldheart aus dem iFixit Teardown-Team hatte genau das gleiche Problem.

Unter den magnetischen Polstern befindet sich noch eine fest eingebaute Dichtung, ebenfalls von feingestricktem Stoff bedeckt, aber weniger fleckenanfällig. Hier muss man auch durch, wenn man ins Innere des Headsets vordringen will. Darunter verbirgt sich eine weitere Überraschung: Eine dünne, dehnbare Plastikfolie. Ob sie nun winzige Lücken im Stoff ausgleichen oder die Technologie im Inneren schützen soll – wer weiß. Aber diese Folie sieht sehr nach Superhelden-Maske aus.

Das EyeSight Display

Das glänzende Stück Glas an der Vorderseite ist definitiv das Alleinstellungsmerkmal dieses Headsets und wird in den Tech Reviews heiß diskutiert.

Das Patent für das EyeSight-Display beschreibt drei Display-Modi: „internal focus“ (Innerer Fokus), „external engagement“ (Interaktion mit der Außenwelt) und „do not disturb“ (Bitte nicht stören). Das Patent enthält seitenweise Bilder, die auf dem Display erscheinen könnten – alle möglichen Augen von Cartoon-Figuren, biometrische Analysedaten anderer Sensoren oder Herzchen, wenn man mit Familie oder Freunden spricht. Die innere Kamera soll Gefühle erfassen und entsprechende Bilder auf dem Display anzeigen können.

Coole Idee. In der Realität ist das EyeSight-Display allerdings so dunkel und die Auflösung ist so niedrig, dass es vielen Rezensionen zufolge schwierig ist, überhaupt etwas darauf zu sehen. Joanna Stern vom Wall Street Journal sagte, es sei schwer zu erkennen, und Marques Brownlee (auch bekannt als MKBHD) meinte, man könne seine Augen kaum sehen, wenn er das Headset aufhabe.

Wie sich herausstellt, zeigt das EyeSight-Display nicht nur ein Video deiner Augen, sondern es zeigt gleich mehrere Videos auf einmal. Im Inneren der gläsernen Hülle fanden wir drei Schichten für das nach außen zeigende Display: Eine Weitwinkel-Schicht, eine Rasterlinsen-Schicht und das OLED-Display selbst.

Warum ist das EyeSight-Bild so verschwommen?

Apple wollte etwas ganz Bestimmtes: Ein bewegtes, räumlich wirkendes Gesicht mit Augen. Dafür mussten bestimmte Entscheidungen und Kompromisse getroffen werden, was das Design angeht.

Das menschliche Gehirn ist sehr sensibel in der Wahrnehmung von Gesichtern und Gesichtsausdrücken. Künstliche Gesichter wirken unheimlich, wenn sie zu echt aussehen, und das hängt zum Teil mit der Räumlichkeit zusammen. Apple wollte einen glaubhaften 3D-Eindruck kreieren. Ein Grund dafür, dass 3D-Bilder nicht wirklich 3D aussehen, ist der fehlende stereoskopische Effekt. Damit etwas wirklich dreidimensional aussieht, muss es von unseren Augen jeweils leicht unterschiedlich wahrgenommen werden. Die Vision Pro geht dieses Problem mithilfe von Rasterlinsen an.

Eine Rasterlinse zeigt unterschiedliche Bilder, je nachdem, aus welchem Winkel man schaut. Dieser Effekt kann genutzt werden, um anhand von zwei leicht unterschiedlichen Bildern eine Bewegung zu simulieren. Oder man kann zwei Bilder desselben Gegenstands, die aus verschiedenen Winkeln aufgenommen wurden, verwenden, um einen stereoskopischen 3D-Effekt zu erzielen.

Über dem äußeren OLED-Panel des Vision Pro liegt eine Rasterlinsen-Schicht. VisionOS rendert mehrere Bilder des Gesichts – nennen wir sie A und B – und spaltet sie auf. A wird dann aus dem passenden Winkel für dein linkes Auge gezeigt, B aus dem passenden Winkel für dein rechtes Auge. Dadurch entsteht ein stereoskopischer Effekt und ein dreidimensionaler Seheindruck. Diese Winkel sind minimal, und um sie sehen zu können, braucht man ein Mikroskop wie das Evident Scientific.

Die gekrümmten Rippen in der Rasterlinsen-Schicht
Pixel brechen und schimmern durch die Schicht hindurch

Für diesen Ansatz mussten Kompromisse gemacht werden. Die horizontale Auflösung ist sehr niedrig, weil sie durch die Anzahl der gleichzeitig gezeigten Bilder geteilt wird. Wenn zum Beispiel zwei Bilder auf einem 2000 Pixel breiten Display gezeigt werden, stehen für jedes Bild nur 1000 Pixel zur Verfügung. Auch wenn wir nicht wissen, was die Auflösung des Displays ist und auch nicht sagen können, wie viele Bilder da gleichzeitig gezeigt werden – die Auflösung ist auf jeden Fall reduziert. Und das ist der Hauptgrund dafür, dass die EyeSight-Augen so unscharf wirken.

Vor der Rasterlinsen-Schicht ist eine weitere Kunststofflinsen-Schicht, die ähnliche Rippen aufweist. Diese Schicht scheint dafür da zu sein, das projizierte Gesicht so weit zu vergrößern, dass es die ganze Breite der Vision Pro einnehmen kann. Wenn man diese Schicht entfernt und dann die Vision Pro anschaltet, sieht man ein Paar merkwürdig winzige Augen.

Außerdem begrenzt die Linse wahrscheinlich den Blickwinkel. Dadurch, dass der Effekt auf den Bereich direkt vor der Vision Pro begrenzt ist, wird verhindert, dass man Störbilder sieht, wenn man aus extremen Winkeln auf das Headset schaut. Der Nachteil ist, dass dadurch ein bereits komplexes, unscharfes Bild durch eine weitere Linsenschicht gesendet wird – und somit noch unschärfer und dunkler wird.

Linseneinsätze und Stereo-Displays

In dieser Röntgenaufnahme kannst du den Umriss des eiförmigen Linseneinsatzes sehen. Unsere Freunde bei Creative Electron haben 3500 $ ausgegeben, um dir dieses Bild zeigen zu können.

In Apple Stores gibt es Maschinen, mit denen die Werte von Brillengläsern annähernd bestimmt werden können, wenn man das Headset mal ausprobieren möchte. Für Leute mit Sehstörungen (z. B. Schielen), bei denen es zu Problemen mit dem Eyetracking des Geräts kommen kann, bietet die Vision Pro alternative Steuerungsmethoden an. Wer allerdings eine Hornhautverkrümmung hat (wie etwa ein Drittel aller Menschen in Deutschland), könnte ein Problem haben: Die Linsen, die dafür nötig wären, soll es für die Vision Pro nicht geben, haben wir gehört. Wenn du Näheres weißt, lass uns einen Kommentar da.

Die Linseneinsätze selbst müssen mit dem Headset gekoppelt werden. Diese Entscheidung hat bereits zu schlechten Nutzungserfahrungen geführt; Tech-Blogger John Gruber erhielt einen fehlerhaften Kalibrierungs-Code mit seinem Review-Exemplar, bei dem das Eye-Tracking dann nicht korrekt funktionierte. Wir sind aus Prinzip gegen Teilekopplung und wir finden, dass es eine andere Möglichkeit zur Kalibrierung geben muss, die auch die Verwendung von Linsenseinsätzen anderer Hersteller ermöglicht.

Nur ein Foto? Das war Creative Electron zu langweilig – also haben sie uns ein 360°-Bild geliefert. Tolle Sache.

Das Headset wird mit einem M2 Mac Prozessor betrieben, zusammen mit dem neuen R1-Chip, der besonders für die Verarbeitung des Inputs der 12 Kameras, des LiDAR-Sensors und der TrueDepth-Kamera zuständig ist, mit so wenig Latenz wie möglich, versteht sich. Bei Augmented Reality muss die Kameraaufnahme der echten Welt so schnell wie möglich in deine Augen kommen, denn sonst passen deren Bewegungen nicht zu dem, was du siehst – und alle, die leicht reisekrank werden, wissen, was dann passiert.

Damit alles schnell über die Bühne geht, verwendet der R1 ein Echtzeitbetriebssystem. Das bedeutet, dass Prozesse immer in einer vorgeschriebenen Zeitspanne ausgeführt werden. Die meisten Computer funktionieren mit einem Timesharing-Betriebssystem, das Prozesse spontan zuweist, was auch dazu führen kann, dass sich alles plötzlich verlangsamt. Und das geht einfach nicht, wenn es um so wichtige Dinge wie Video Pass Through und Objekt-Rendering geht. Jeder Fehler würde einen im besten Fall zusammenzucken lassen – und im schlimmsten Fall scheußliche Übelkeit hervorrufen oder sogar dazu führen, dass man stolpert und hinfällt.

Eine erstaunliche Leistung – und eine zweifelhafte Entscheidung

Beim originalen iPhone passierte etwas ganz Ähnliches. Wenn seine Prozessoren mit dem Rendern nicht mehr hinterherkamen, weil man etwa zu schnell eine Seite hinunterscrollte, wurde das Bild plötzlich grau-weiß-kariert, damit dein Wischen und Tippen überhaupt erkannt wurde. Apple legte mehr Wert auf schnelle Reaktionen als auf perfekte Grafik. Dieses Mal wollte Apple nicht auf die Grafik verzichten – und ging deshalb Kompromisse bei der Akkulaufzeit, dem Gewicht und der Wärmebildung ein. Was bei einem AR-Gerät wahrscheinlich die richtige Entscheidung ist.

Die Vision Pro ist ein unfassbar ehrgeiziges Projekt. Ja, sie ist schwer und ja, das Glas ist zerbrechlich, und klar, dieser Taschen-Akku könnte irgendwann nerven. Aber Apple hat es geschafft, die Power eines Mac und die Leistung eines neuen, dedizierten AR-Prozessors in einen Computer zu packen, den man auf dem Gesicht tragen kann.

Insgesamt sieht es mit der Reparierbarkeit bisher nicht gut aus, aber immerhin sind ein paar der Anschlüsse echt nett. Unser Team hat sich voll gefreut, dass man die seitlichen Arme mit dem SIM-Auswurfwerkzeug lösen kann, und die magnetischen Polster sind sogar noch nutzerfreundlicher.

Es hat eindeutig Jahre gebraucht, um dieses Gerät zu entwickeln, und es ist Apples neueste Errungenschaft in Hinblick auf die Technologie der Zukunft. Warum also ist Apple mit dem EyeSight-Display hinter seinen eigenen Standards zurückgeblieben?

Es ist trüb und unscharf und macht gleichzeitig gerade den Teil des Geräts, der auf dem Gesicht liegt, klobiger, schwerer und komplexer. Von den Kosten ganz zu schweigen. Haben die Entwickler es einfach nicht rechtzeitig geschafft? Oder gab es einen Herstellungsfehler, als es schon zu spät war, um ihn noch zu revidieren? Egal, was dahintersteckt – es war sicherlich eine schwierige Entscheidung, es auf den Markt zu bringen.

Seit dem originalen Oculus nehmen wir schon VR-Headsets auseinander und es gibt immer etwas zu entdecken und zu staunen. So viele faszinierende mechanische und optische Feinheiten im Design! Apples nahtlose Integration von Sensoren für ein perfektes Location-Tracking ist einfach phänomenal, und wir brennen darauf, herauszufinden, wie sie das geschafft haben.

Wir sind mit unserer Analyse noch nicht fertig – noch gibt es eine Menge unerforschtes Terrain in diesem Gerät. Nächstes Mal nehmen wir uns die internen Displays und Sensor-Baugruppen vor und vergeben dann die finale Bewertung zur Reparierbarkeit.

Was willst du noch sehen? IPD Kalibrierungs-Motoren, die Kühlung, bestimmte Chips oder die Schaltpläne? Folge uns auf Social Media oder schau in nächster Zeit wieder hier vorbei – die Geschichte geht weiter.

Dieser Artikel wurde übersetzt von Maria Parker.