How to use iOS device camera and motion features to produce augmented reality experience! In this talk we do an overview on this new Apple framework and make some demos to show how developers implements cool features in our apps.
10. Tracking
• Tracciamento in real time della posizione del dispositivo nel
mondo reale!
• Visual-inertial odometry (VIO)
• Nessun setup “esterno” (no marker)
14. ARSession
Framework basato su sessione, che gira a 60 frames al secondo!
La sessione può essere lanciata, messa in pausa, reimpostata:
• ARSessionObserver per gestire i cambi di stato della sessione
• ARSessionDelegate per ricevere i frames catturati e
aggiornamenti sugli anchor
16. ARFrame
La sessione cattura dei frame che contengono
• l’immagine catturata
• informazioni sul tracking
• informazioni sulla scena: tracking points e
condizioni di luce
17. ARAnchor
Un anchor è punto posizionato ed orientato nel mondo reale.
ARKit si occupa di mantenere fissa la posizione e l’orientamento
di un anchor se l’utente muove la camera.
E’ necessario aggiungere gli anchor nella ARSession.
18.
19. Feature Points
Punti estratti dall’analisi dei frames!
Possibili problematiche
nell’estrazione:
• Poca luce
• Poche “texture”
• Movimenti veloci
20. Plane detection
Da un insieme di feature points è possibile ricostruire un piano.
Per ora solo orizzontale :(
Se è abilitato il planeDetection in automatico vengono aggiunti
degli ARPlaneAnchor!
E’ possibile fare plane merging!
21. Hit Testing
Intercetta un punto nella scena reale
Utilizza le informazioni della scena
I risultati sono ordinati per distanza
(dal più “vicino” al più “lontano”)
Ci sono diversi tipi di Hit-test
22. Light estimation
Si attiva dalla configurazione (lightEstimationEnabled)
E’ possibile riconoscere:
• ambientIntensity (1000 neutrale)
• ambientColorTemperature (6500 luce “bianca”)