Lidar sur l’iPhone 12 Pro: ce qu’il peut faire maintenant et pourquoi c’est important pour l’avenir


01-iphone-12-pro-2020

Le capteur lidar de l’iPhone 12 Pro – le cercle noir en bas à droite de la caméra – ouvre des possibilités de RA et bien plus encore.

Patrick Holland / CNET

Apple est optimiste sur le lidar, une technologie toute nouvelle iPhone 12 famille, spécifiquement à l’iPhone 12 Pro et iPhone 12 Pro Max. (Les quatre variantes de l’iPhone 12, y compris le iPhone 12 Mini, sont en vente maintenant.) Regardez attentivement l’un des nouveaux modèles d’iPhone 12 Pro, ou le iPad Pro le plus récent, et vous verrez un petit point noir près des objectifs de l’appareil photo, à peu près de la même taille que le flash. C’est le capteur lidar, et c’est un nouveau type de détection de profondeur qui pourrait faire la différence de plusieurs manières intéressantes.

Lire la suite: La technologie lidar de l’iPhone 12 fait plus qu’améliorer les photos. Découvrez cette super astuce de fête

Si Apple réussit, le lidar est un terme que vous commencerez beaucoup à entendre maintenant, alors décomposons ce que nous savons, à quoi Apple va l’utiliser et où la technologie pourrait aller ensuite. Et si vous êtes curieux de savoir ce qu’il fait en ce moment, j’ai également passé du temps pratique avec la technologie.

Que signifie lidar?

Lidar est synonyme de détection de lumière et de télémétrie, et existe depuis un certain temps. Il utilise des lasers pour déclencher des objets et revenir à la source du laser, mesurant la distance en chronométrant le voyage, ou le vol, de l’impulsion lumineuse.

Comment le lidar agit-il pour détecter la profondeur?

Lidar est un type de caméra à temps de vol. Certains autres smartphones mesurent la profondeur avec une seule impulsion lumineuse, alors qu’un smartphone doté de ce type de technologie lidar envoie des ondes lumineuses dans un jet de points infrarouges et peut mesurer chacun avec son capteur, créant un champ de points qui cartographient les distances. et peut « mailler » les dimensions d’un espace et les objets qu’il contient. Les impulsions lumineuses sont invisibles à l’œil humain, mais vous pouvez les voir avec une caméra de vision nocturne.

N’est-ce pas comme Face ID sur l’iPhone?

C’est vrai, mais avec une plus longue portée. L’idée est la même: celle d’Apple Caméra TrueDepth compatible avec Face ID lance également une série de lasers infrarouges, mais ne peut fonctionner que jusqu’à quelques mètres de distance. Les capteurs lidar arrière de l’iPad Pro et de l’iPhone 12 Pro fonctionnent à une portée allant jusqu’à 5 mètres.

Lidar est déjà dans beaucoup d’autres technologies

Lidar est une technologie qui pousse partout. Il est utilisé pour voitures autonomes, ou conduite assistée. Il est utilisé pour robotique et drones. Casques de réalité augmentée comme le HoloLens 2 ont une technologie similaire, cartographiant les espaces de la pièce avant d’y superposer des objets virtuels 3D. Mais il a aussi une assez longue histoire.

Ancien accessoire Xbox à détection de profondeur de Microsoft, le Kinect, était également une caméra à balayage infrarouge. En fait, PrimeSense, la société qui a contribué à la création de la technologie Kinect, a été racheté par Apple en 2013. Maintenant, nous avons les capteurs de caméra TrueDepth à balayage du visage d’Apple et de lidar arrière.

La caméra iPhone 12 Pro fonctionne mieux avec lidar

Les caméras à temps de vol sur les smartphones ont tendance à être utilisées pour améliorer la précision et la vitesse de mise au point, et l’iPhone 12 Pro fait de même. Apple promet une meilleure mise au point en basse lumière, jusqu’à six fois plus rapide dans des conditions de faible luminosité. La détection de profondeur lidar est également utilisée pour améliorer les effets du mode portrait nocturne. Jusqu’à présent, cela a un impact: lisez notre examen de l’iPhone 12 Pro pour en savoir plus.

Une meilleure mise au point est un plus, et il est également possible que l’iPhone 12 Pro ajoute davantage de données photo 3D aux images. Bien que cet élément n’ait pas encore été présenté, la caméra TrueDepth frontale à détection de profondeur d’Apple a été utilisée de la même manière avec des applications, et les développeurs tiers pourraient plonger et développer des idées folles. Ça se passe déjà.

Il améliore également considérablement la réalité augmentée

Lidar permet à l’iPhone 12 Pro de démarrer des applications AR beaucoup plus rapidement et de créer une carte rapide d’une pièce pour ajouter plus de détails. Beaucoup de Mises à jour AR d’Apple dans iOS 14 profitent du lidar pour cacher des objets virtuels derrière des objets réels (appelés occlusion) et placer des objets virtuels dans des mappages de pièces plus complexes, comme sur une table ou une chaise.

Je l’ai testé sur un jeu Apple Arcade, Hot Lava, qui utilise déjà le lidar pour scanner une pièce et tous ses obstacles. J’ai pu placer des objets virtuels dans les escaliers et faire cacher des objets derrière des objets réels dans la pièce. Attendez-vous à beaucoup plus d’applications AR qui commenceront à ajouter un support lidar comme celui-ci pour des expériences plus riches.

lentille-snapchat-alimentée par lidar.png

La prochaine vague d’objectifs de Snapchat commencera à adopter la détection de profondeur à l’aide du lidar de l’iPhone 12 Pro.

Snapchat

Mais il y a un potentiel supplémentaire au-delà de cela, avec une queue plus longue. De nombreuses entreprises rêvent de casques qui mêleront objets virtuels et réels: lunettes AR, en cours de travail sur Facebook, Qualcomm, Snapchat, Microsoft, Saut magique et très probablement Apple et d’autres, s’appuieront sur des cartes 3D avancées du monde pour superposer des objets virtuels.

Ces cartes 3D sont maintenant construites avec des scanners et des équipements spéciaux, presque comme la version à balayage du monde de ces voitures Google Maps. Mais il est possible que les propres appareils des gens puissent éventuellement aider à collecter ces informations ou ajouter des données supplémentaires à la volée. Encore une fois, les casques AR tels que Magic Leap et HoloLens pré-analysent déjà votre environnement avant d’y superposer des éléments, et la technologie AR équipée du lidar d’Apple fonctionne de la même manière. En ce sens, l’iPhone 12 Pro et l’iPad Pro sont comme des casques AR sans la partie casque … et pourraient ouvrir la voie à Apple pour éventuellement fabriquer ses propres lunettes.

toile-occipitale-ipad-pro-lidar.png

Un scan de pièce 3D depuis l’application Canvas d’Occipital, activé par le lidar à détection de profondeur sur l’iPad Pro. Attendez-vous à la même chose pour l’iPhone 12 Pro, et peut-être plus.

Occipital

La numérisation 3D pourrait être l’application qui tue

Le lidar peut être utilisé pour mailler des objets et des pièces 3D et superposer des images photo, une technique appelée photogrammétrie. Cela pourrait être la prochaine vague de technologie de capture pour des utilisations pratiques comme amélioration de l’habitat, ou même les médias sociaux et le journalisme. La possibilité de capturer des données 3D et de partager ces informations avec d’autres pourrait faire de ces téléphones et tablettes équipés de lidar des outils de capture de contenu 3D. Lidar pourrait également être utilisé sans l’élément de caméra pour acquérir des mesures d’objets et d’espaces.

J’ai déjà essayé quelques premières applications de numérisation 3D compatibles lidar sur l’iPhone 12 Pro avec un succès mitigé (application 3D Scanner, Lidar Scanner et Record3D), mais elles peuvent être utilisées pour numériser des objets ou cartographier des pièces à une vitesse surprenante. La portée effective de 16 pieds de balayage du lidar est suffisante pour atteindre la plupart des pièces de ma maison, mais dans les grands espaces extérieurs, il faut plus de déplacements. Encore une fois, la caméra TrueDepth frontale d’Apple fait déjà des choses similaires à une distance plus proche.


Lecture en cours:
Regarde ça:

Notre examen approfondi de l’iPhone 12 et 12 Pro


13:48

Apple n’est pas le premier à explorer une technologie comme celle-ci sur un téléphone

Google avait cette même idée en tête lorsque Projet Tango – une des premières plates-formes de RA qui était seulement sur deux téléphones — a été créé. Le réseau de caméras avancé était également doté de capteurs infrarouges et pouvait cartographier les pièces, créer des scans 3D et des cartes de profondeur pour la RA et pour mesurer les espaces intérieurs. Les téléphones équipés de Tango de Google ont été de courte durée, remplacés par des algorithmes de vision par ordinateur qui ont fait une détection de profondeur estimée sur des caméras sans avoir besoin du même matériel. Mais l’iPhone 12 Pro d’Apple ressemble à un successeur beaucoup plus avancé, avec des possibilités pour ce lidar qui s’étendent aux voitures, aux casques AR et bien plus encore.





Source link

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *