Équipé d’une puce inédite, le casque dernier cri d’Apple casse les codes. Baptisé Vision Pro, ce premier ordinateur spatial signé Apple repose sur une innovation de taille, la puce R1. Cette dernière est spécialement conçue pour un traitement en temps réel des données transmises par les nombreux capteurs embarqués.

Focus sur le fonctionnement de cette puce R1 révolutionnaire et comparaison avec la puce M2 qui équipe les derniers MacBook

La puce Apple R1 (et non la puce principale M2), traite un flux continu de données en temps réel envoyées à Vision Pro par ses douze caméras, cinq capteurs et six microphones. Deux caméras externes principales enregistrent votre environnement, envoyant plus d’un milliard de pixels par seconde aux écrans 4K du casque. À cela s’ajoutent une paire de caméras latérales, ainsi que deux caméras et deux illuminateurs infrarouges montés en dessous, qui suivent les mouvements des mains dans un large éventail de positions ; même dans des conditions de faible luminosité.

Les capteurs orientés vers l’extérieur comprennent également le scanner LiDAR et la caméra TrueDepth d’Apple, qui capturent une carte de profondeur de votre environnement, permettant à Vision Pro de positionner avec précision des objets numériques dans votre espace. À l’intérieur, un anneau de LED autour de chaque écran et deux caméras infrarouges suivent les mouvements de vos yeux, ce qui constitue la base de la navigation dans visionOS. La puce R1 est chargée de traiter les données provenant de tous ces capteurs, y compris les unités de mesure inertielle, avec un délai imperceptible. Cela revêt une importance primordiale pour garantir une expérience spatiale fluide et crédible.

En quoi la puce R1 d’Apple se distingue-t-elle des puces M1 et M2 ?

Les puces M1 et M2 sont des processeurs généralistes optimisés pour les ordinateurs Mac. La puce R1 est un coprocesseur spécialisé conçu pour supporter une expérience de réalité augmentée fluide. Elle remplit ses fonctions plus rapidement que les puces M1 ou M2, autorisant des avantages comme une expérience sans décalage.

À noter : Apple n’a pas précisé le nombre de cœurs CPU et GPU de la puce R1, ni détaillé la fréquence du CPU et la mémoire RAM, ce qui rend une comparaison directe entre la R1, la M1 et la M2 difficile.

Le R1 est avant tout dédié au suivi des yeux et de la tête, aux gestes des mains et à la cartographie 3D en temps réel grâce au capteur LiDAR. En réalisant ces opérations de calcul intensif à sa place, la puce M2 peut faire fonctionner efficacement les divers sous-systèmes, algorithmes et applications de visionOS.

Les atouts clés de la puce R1 du Vision Pro

  • Traitement rapide : les algorithmes et le traitement du signal d’image spécialisés de la puce R1 sont optimisés pour comprendre les entrées des capteurs, caméras et microphones.
  • Faible latence : l’architecture matérielle optimisée se traduit par une très faible latence.
  • Efficacité énergétique : la puce R1 traite un ensemble de tâches spécifiques tout en minimisant la consommation d’énergie, grâce à une architecture de mémoire efficace et au procédé de fabrication en 5 nm de TSMC.

L’inconvénient de cette conception à deux puces et de la sophistication de la puce R1 est qu’elle contribue au prix élevé du casque et à son autonomie limitée à deux heures.

Quels avantages la puce R1 apporte-t-elle au Vision Pro ?

Grâce à cette puce, le suivi des yeux et des mains atteint une précision inégalée sur le Vision Pro. Fini les manettes, la navigation dans visionOS se fait par de simples gestes et regards. La faible latence autorise même la saisie en l’air sur un clavier virtuel. Autre prouesse rendue possible par la puce de Réalité Artificielle R1 : un suivi ultra-précis des mouvements de tête. Combinée aux données de profondeur des capteurs, cette fonctionnalité permet un placement très réaliste des objets virtuels qui restent fixes dans l’espace, même lorsque vous tournez la tête. La cartographie 3D temps réel aide également le Vision Pro à détecter les obstacles physiques. L’immersion dans les applications de réalité augmentée n’a jamais été aussi crédible et sécurisée.

Comment la puce R1 atténue les nausées liées aux mouvements en réalité augmentée ?

La conception à deux puces du Vision Pro décharge le processeur principal M2 du traitement des données des capteurs. Selon le communiqué de presse, la puce R1 transmet les images des caméras externes vers les écrans internes en seulement 12 millisecondes, soit 8 fois plus vite qu’un battement de cils. Ce délai ultra-court entre ce que voient les caméras et l’affichage aux écrans minimise les décalages, sources de nausées. Les conflits sensoriels entre la vision et le sens de l’équilibre peuvent en effet provoquer maux de tête, vertiges, voire vomissements. La règle est d’afficher au moins 90 images par seconde avec un délai inférieur à 20 millisecondes. Avec ses 12 ms, la puce R1 réduit ce décalage à un niveau imperceptible.

Des coprocesseurs Apple Silicon spécialisés qui présentent des avantages certains

Apple n’en est pas à son coup d’essai en matière de processeurs dédiés. Depuis des années, ses équipes conçoivent des puces mobiles et de bureau qui font l’admiration du secteur. Les puces Apple Silicon s’appuient grandement sur des coprocesseurs spécialisés pour gérer des fonctionnalités spécifiques. L’Enclave sécurisée gère ainsi de façon chiffrée les données biométriques et de paiement, tandis que le Neural Engine accélère les tâches d’intelligence artificielle sans épuiser la batterie.

ordinateur spatial

© Apple

Autant d’exemples illustrant les bénéfices à confier un ensemble de tâches à un coprocesseur hautement focalisé, plutôt que de mobiliser le processeur principal. La puce R1 repousse les limites de l’innovation. Quels usages révolutionnaires imagineriez-vous pour les prochaines puces Apple ?

Photo de couverture : © Apple