Apple Reality

Ist Tim Cook schneller als Mark Zuckerberg?

23.02.2022
Von 
Mike Elgan schreibt als Kolumnist für unsere US-Schwesterpublikation Computerworld und weitere Tech-Portale.
Meta ist das erste Unternehmen, das virtuelle Geschäftsbesprechungen unter Avataren ermöglichen wird – so haben viele gewettet. Doch nun deutet einiges darauf hin, dass Apple Reality die Nase vorn haben könnte.
In Apple Reality könnten die Memojis sehr lebendig werden.
In Apple Reality könnten die Memojis sehr lebendig werden.
Foto: sdx15 - shutterstock.com

Es war Meta-CEO Mark Zuckerberg, der im großen Stil die Vision eines Metaverse entwarf und dabei den Traum von Geschäftsmeetings in virtuellen Räumen lebendig werden ließ. Inzwischen sieht es aber so aus, als wenn nicht Meta, sondern Apple die überzeugendere Vision für kommunizierende Avatare liefern kann. Neu aufgetauchte Details über Apples Augmented-Reality-(AR-)Bemühungen zeigen, dass der Konzern hier offenbar große Fortschritte erzielt hat.

Noch gibt es allerdings nicht einmal eine Betaphase - ein seriöser Vergleich ist also kaum möglich. Alles, worauf sich die vielen Beobachter im Markt stützen, sind Aussagen beteiligter Unternehmen, undichte Stellen bei Apple, indiskrete Nachforschungen und Spekulationen. Hinzu kommt die individuelle Kombinationsgabe des Betrachters, der sich aus all dem ein Bild machen will.

Ein OS für Apple Reality scheint beschlossene Sache

Was also ist der Stand der Dinge? Apple arbeitet offenbar an einem Betriebssystem namens "realityOS", das auch als "rOS" abgekürzt wird. Das erscheint sicher, da Verweise auf das System in Vor-Releases von iOS-13-Builds, in einem GitHub-Repository und auch in AppStore-Upload-Protokollen entdeckt wurden. Das GitHub-Repository verweist auch auf einen realityOS-Simulator - vermutlich für Entwickler.

Apple verwendet zudem die Bezeichnung "Reality" als Marke für zwei AR-Entwickler-Tools namens RealityKit und Reality Composer. Da der Konzern seine Betriebssysteme in aller Regel nach den zugehörigen Hardware-Plattformen benennt (iPhoneOS = iOS, watchOS, iPadOS, macOS und tvOS), deutet alles darauf hin, dass die künftige Mixed-Reality-Plattform Apple Reality heißen wird.

Das wäre auch eine Anspielung auf das berühmte Reality Distortion Field, mit dem Anfang der 80er Jahre - in Anlehnung an Star Trek - die magische Wirkung und Ausstrahlung von Steve Jobs beschrieben wurde: Der Apple-Mitgründer pfeife auf die Realität und lasse seine eigene Wirklichkeit entstehen, in der es keine Grenzen gäbe und das Unmögliche möglich werde, hieß es damals.

VR Headset spätestens 2024

Zusammengefasst sagen die Spekulationen im Markt, dass Apple 2024, vielleicht auch schon etwas früher, ein Headset auf den Markt bringen wird, das sowohl für AR als auch für Virtual Reality (VR) geeignet ist. Während die Hardware VR unterstützen wird, dürfte Apple seinen Schwerpunkt auf AR-Anwendungen legen. Aussagen des Unternehmens, Produkteinführungen, Patente und Übernahmen deuten darauf hin, dass Apple die größten Chancen in der Verschmelzung von realer und virtueller Welt sieht und dem Thema VR nicht so viel abgewinnen kann.

So wie heute ein iPhone AR nutzt, dürfte auch das kommende Headset funktionieren, allerdings mithilfe einer stereoskopischen Brille für räumliches Sehen. Das iPhone nimmt Echtzeit-Videos mit der Kamera auf und blendet dann virtuelle Objekte in das Video ein. Mit der Reality-Brille werden Nutzer die Umwelt nur noch als Videoaufnahme sehen, wobei Apple auch - ähnlich wie Google - an einer klassischen Brille arbeiten soll, die virtuelle AR-Objekte in das natürliche Sichtfeld einblendet.

Apple Reality macht Memojis zu Avataren

Verschiedene Quellen vermuten, dass Apples Memojis - die karikaturhaften Darstellungen von Nutzern, derzeit für iMessage und andere Plattformen verfügbar - als Avatare für virtuelle Meetings eingesetzt werden dürften. Die Avatare geben die Gesichtsausdrücke, Kopfneigungen und Gesten des Benutzers in Echtzeit wieder und sprechen auch mit seiner Stimme.

Die Zukunft wird zeigen, ob es für Nutzerinnen und Nutzer wirklich attraktiver ist, über einen Avatar zu kommunizieren als sich selbst in einen Videoanruf zu begeben. Da während der Pandemie aber immer häufiger Anzeichen von Erschöpfung bei Videokonferenz-Teilnehmern beobachtet wurden, könnte ein neuer Ansatz das Problem der Müdigkeit (Stichwort: Zoom-Fatigue) adressieren.

Apples Technologie für virtuelle Meetings geht auf die Übernahme des Startups Spaces (DreamWorks Animation) im August 2020 zurück. Das junge Unternehmen wollte ursprünglich eine Consumer-Experience-Technologie für die Gestaltung von Themenparks entwickeln, konzentrierte sich dann aber ganz auf VR-Konferenztechnologie.

Smalltalk - von Hologramm zu Hologramm

Die Technologien des Zukaufs, die in eine - wie auch immer geartete - "FaceTime-over-Reality-Brille" integriert werden könnten, werden Nutzern ermöglichen, die subjektive Perspektive eines Meeting-Teilnehmers in einem Kreis von Beteiligten einzunehmen. Alle werden auf gemeinsame virtuelle Ressourcen wie Whiteboards, 3D-Modelle, Floating Charts oder andere virtuelle Objekte zugreifen können.

Entscheidend für die besondere User Experience wäre, dass jeder Teilnehmer die anderen als Hologramme in ihrer eigenen physischen Umgebung sieht, also nicht in einem gemeinsamen virtuellen Meeting-Raum. Menschen agieren demnach in ihrer natürlichen Umgebung, was die Teilnahme an digitalen Konferenzen für Beteiligte spannender machen dürfte.

Will ein Teilnehmer die Person zu seiner Rechten ansprechen, dreht er physisch den Kopf nach rechts und nimmt Augenkontakt mit dem Memoji dieser Person auf. Auch die Stimme wird von rechts wahrgenommen. Während Person A und Person B Blickkontakt herstellen, beobachtet Person C, wie die beiden Memojis in Kontakt treten.

Während die heutigen Memojis nonverbale Hinweise über die Kamera erfassen, könnte das Reality-Headset neben der Kamera auch andere Sensoren verwenden, so dass solche Hinweise noch viel detaillierter und feiner aufgenommen werden könnten. Auf all diese Details lassen die verschiedenen Apple-Patente schließen.

Reale und virtuelle Personen in Apple Reality

Die Nutzung von FaceTime für virtuelle Besprechungen würde bedeuten, das langjährige Nutzer als 3D-Memojis von sich selbst in einem Call erscheinen, während Neulinge als reale Personen auftreten. An geschäftlichen Besprechungen könnten also iPhones-User teilnehmen, die FaceTime wie bei Zoom oder MS-Teams als Videokonferenz-Lösung verwenden, und solche, die Apple Reality nutzen, um Besprechungen vollständig im virtuellen Raum abzuhalten. Nutzer von Apple Reality sähen dann andere Reality-User als 3D-Avatare und FaceTime-Benutzer der alten Schule - in einem "schwebenden Rechteck" - als Video des jeweiligen Teilnehmers.

Bloomberg-Reporter Mark Gurman, ein echter Apple-Insider, schreibt, dass auch SharePlay eine zentrale Rolle spielen wird, damit Geschäftsanwender Präsentationen und Dokumente während virtueller Meetings zeigen und teilen können. Demnach könnte Apple Reality dank 3D AR und SharePlay zu einem interessanten Collaboration-Tool werden.

Externe Kameras am Reality-Headset könnten laut Gurman Handbewegungen aufzeichnen. Das würde es den Memojis ermöglichen, Handgesten in Echtzeit anzuzeigen. Außerdem könnten Benutzer auf virtuellen Tastaturen tippen und auf gemeinsam genutzten virtuellen Whiteboards schreiben.

Es ist auch nicht auszuschließen, dass einige von Apples jüngeren Ergänzungen zu iOS dazu dienten, Entwickler und Nutzer schon Mal auf realityOS und die Reality-Plattform vorzubereiten. Das betrifft den U1-Chip, ARKit, Spatial Audio mit dynamischem Head-Tracking und andere Funktionen.

Während man bei Meta davon ausgeht, dass sich die Nutzer voll auf Virtual Reality einlassen und die Technik auch für geschäftliche Besprechungen nutzen werden, ist Apple skeptischer und verfolgt einen anderen Ansatz. Demnach werden die User zwischen beiden Welten pendeln, also kurzzeitig in AR-Besprechungen eintauchen, um dann schnell wieder in die Realität zurückzukehren. (hv)

Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Computerworld.com.