Lidar sur l’iPhone 12 Pro: c’est cool maintenant, mais ça va être tellement plus cool
[ad_1]
Apple est optimiste sur le lidar, une technologie toute nouvelle iPhone 12 famille, spécifiquement à l’iPhone 12 Pro et iPhone 12 Pro Max. Regardez de près l’un des nouveaux modèles d’iPhone 12 Pro, ou le iPad Pro le plus récent, et vous verrez un petit point noir près des objectifs de l’appareil photo, à peu près de la même taille que le flash. C’est le capteur lidar, et c’est un nouveau type de détection de profondeur qui pourrait faire une différence de plusieurs manières intéressantes.
Lire la suite: La technologie lidar de l’iPhone 12 fait plus qu’améliorer les photos. Découvrez cette super astuce de fête
Si Apple réussit, le lidar est un terme que vous commencerez beaucoup à entendre maintenant, alors décomposons ce que nous savons, à quoi Apple va l’utiliser et où la technologie pourrait aller ensuite. Et si vous êtes curieux de savoir ce qu’il fait en ce moment, j’ai également passé du temps pratique avec la technologie.
Que signifie lidar?
Lidar est synonyme de détection de lumière et de télémétrie, et existe depuis un certain temps. Il utilise des lasers pour déclencher des objets et revenir à la source du laser, mesurant la distance en chronométrant le voyage ou le vol de l’impulsion lumineuse.
Comment le lidar agit-il pour détecter la profondeur?
Lidar est un type de caméra à temps de vol. Certains autres smartphones mesurent la profondeur avec une seule impulsion lumineuse, tandis qu’un smartphone doté de ce type de technologie lidar envoie des ondes lumineuses dans un jet de points infrarouges et peut mesurer chacun avec son capteur, créant un champ de points qui cartographient les distances. et peut « mailler » les dimensions d’un espace et les objets qu’il contient. Les impulsions lumineuses sont invisibles à l’œil humain, mais vous pouvez les voir avec une caméra de vision nocturne.
N’est-ce pas comme Face ID sur l’iPhone?
C’est vrai, mais avec une plus longue portée. L’idée est la même: celle d’Apple Caméra TrueDepth compatible avec Face ID lance également une série de lasers infrarouges, mais ne peut fonctionner que jusqu’à quelques mètres de distance. Les capteurs lidar arrière de l’iPad Pro et de l’iPhone 12 Pro fonctionnent à une portée allant jusqu’à 5 mètres.
Lidar est déjà dans beaucoup d’autres technologies
Lidar est une technologie qui pousse partout. Il est utilisé pour voitures autonomes, ou conduite assistée. Il est utilisé pour robotique et drones. Casques de réalité augmentée comme le HoloLens 2 ont une technologie similaire, cartographiant les espaces de la pièce avant d’y superposer des objets virtuels 3D. Mais il a aussi une assez longue histoire.
Ancien accessoire Xbox à détection de profondeur de Microsoft, le Kinect, était également une caméra à balayage infrarouge. En fait, PrimeSense, la société qui a contribué à la création de la technologie Kinect, a été racheté par Apple en 2013. Maintenant, nous avons les capteurs de caméra TrueDepth à balayage du visage d’Apple et de lidar arrière.
La caméra iPhone 12 Pro fonctionne mieux avec lidar
Les caméras à temps de vol sur les smartphones ont tendance à être utilisées pour améliorer la précision et la vitesse de mise au point, et l’iPhone 12 Pro fait de même. Apple promet une meilleure mise au point en basse lumière, jusqu’à six fois plus rapide dans des conditions de faible luminosité. La détection de profondeur lidar est également utilisée pour améliorer les effets du mode portrait nocturne. Jusqu’à présent, cela a un impact: lire notre examen de l’iPhone 12 Pro Max pour plus.
Une meilleure mise au point est un plus, et il est également possible que l’iPhone 12 Pro ajoute davantage de données photo 3D aux images. Bien que cet élément n’ait pas encore été présenté, la caméra TrueDepth frontale à détection de profondeur d’Apple a été utilisée de la même manière avec des applications, et les développeurs tiers pourraient plonger et développer des idées folles. Ça se passe déjà.
Il améliore également considérablement la réalité augmentée
Lidar permet à l’iPhone 12 Pro de démarrer des applications AR beaucoup plus rapidement et de créer une carte rapide d’une pièce pour ajouter plus de détails. Beaucoup de Mises à jour AR d’Apple dans iOS 14 profitent du lidar pour cacher des objets virtuels derrière des objets réels (appelés occlusion) et placer des objets virtuels dans des mappages de pièces plus complexes, comme sur une table ou une chaise.
Je l’ai testé sur un Jeu d’arcade Apple, Hot Lava, qui utilise déjà le lidar pour scanner une pièce et tous ses obstacles. J’ai pu placer des objets virtuels dans les escaliers et faire cacher des objets derrière des objets réels dans la pièce. Attendez-vous à beaucoup plus d’applications AR qui commenceront à ajouter un support lidar comme celui-ci pour des expériences plus riches.
Mais il y a un potentiel supplémentaire au-delà de cela, avec une queue plus longue. De nombreuses entreprises rêvent de casques qui mêleront objets virtuels et réels: lunettes AR, en cours de travail sur Facebook, Qualcomm, Snapchat, Microsoft, Saut magique et très probablement Apple et d’autres, s’appuieront sur des cartes 3D avancées du monde pour superposer des objets virtuels.
Ces cartes 3D sont maintenant construites avec des scanners et des équipements spéciaux, presque comme la version de numérisation du monde de ces voitures Google Maps. Mais il est possible que les propres appareils des gens puissent éventuellement aider à collecter ces informations ou ajouter des données supplémentaires à la volée. Encore une fois, les casques AR tels que Magic Leap et HoloLens pré-analysent déjà votre environnement avant d’y superposer des éléments, et la technologie AR équipée du lidar d’Apple fonctionne de la même manière. En ce sens, l’iPhone 12 Pro et l’iPad Pro sont comme des casques AR sans la partie casque … et pourrait ouvrir la voie à Apple pour éventuellement fabriquer ses propres lunettes.
La numérisation 3D pourrait être l’application qui tue
Le lidar peut être utilisé pour mailler des objets et des pièces 3D et superposer des images photo, une technique appelée photogrammétrie. Cela pourrait être la prochaine vague de technologie de capture pour des utilisations pratiques comme amélioration de l’habitat, ou même les médias sociaux et le journalisme. La possibilité de capturer des données 3D et de partager ces informations avec d’autres pourrait faire de ces téléphones et tablettes équipés de lidar des outils de capture de contenu 3D. Lidar pourrait également être utilisé sans l’élément de caméra pour acquérir des mesures d’objets et d’espaces.
J’en ai déjà essayé quelques-uns au début applications de numérisation 3D compatibles lidar sur l’iPhone 12 Pro avec un succès mitigé (3D Scanner App, Lidar Scanner et Record3D), mais ils peuvent être utilisés pour scanner des objets ou cartographier des pièces à une vitesse surprenante. La portée effective de 16 pieds de balayage du lidar est suffisante pour atteindre la plupart des pièces de ma maison, mais dans les grands espaces extérieurs, il faut plus de déplacements. Encore une fois, la caméra TrueDepth frontale d’Apple fait déjà des choses similaires à une distance plus proche.
Apple n’est pas le premier à explorer une technologie comme celle-ci sur un téléphone
Google avait cette même idée en tête lorsque Projet Tango – une plate-forme RA précoce qui était seulement sur deux téléphones — a été créé. Le réseau de caméras avancé était également doté de capteurs infrarouges et pouvait cartographier les pièces, créer des scans 3D et des cartes de profondeur pour la RA et pour mesurer les espaces intérieurs. Les téléphones équipés de Tango de Google ont été de courte durée, remplacés par des algorithmes de vision par ordinateur qui ont fait une détection de profondeur estimée sur des caméras sans avoir besoin du même matériel. Mais l’iPhone 12 Pro d’Apple ressemble à un successeur beaucoup plus avancé, avec des possibilités pour ce lidar qui s’étendent aux voitures, aux casques AR et bien plus encore.
[ad_2]
Source link