Den tredje utvecklarbetaversionen av systemet iOS 13 döljer många nya prylar. En av dem är automatisk ögonkontaktskorrigering. Motparten får då intrycket att du tittar direkt in i deras ögon.
Nu, när du är på ett FaceTime-samtal med någon, kan mycket ofta den andra parten se att dina ögon är nere. Detta beror på att kamerorna inte är direkt i displayen, utan i överkanten ovanför den. Men i iOS 13 kommer Apple med en okonventionell lösning, där nya ARKit 3 spelar en ledande roll.
Systemet justerar nu bilddata i realtid. Så även om dina ögon är nere visar iOS 13 dig som om du tittade direkt in i den andra personens ögon. Flera utvecklare som har testat den nya funktionen har redan dykt upp på sociala nätverk.
En av dem var till exempel Will Sigmon som stod för tydliga bilder. Det vänstra fotot visar standardsituationen under FaceTime på iOS 12, det högra fotot visar automatisk korrigering genom ARKit i iOS 13.
Funktionen använder ARKit 3, den kommer inte att vara tillgänglig för iPhone X
Mike Rundle, som hade jour, är nöjd med resultatet. Dessutom är det en av funktionerna han förutspådde redan 2017. Förresten, hela hans lista med förutsägelser är intressant:
- iPhone kommer att kunna upptäcka 3D-objekt i sin omgivning med hjälp av kontinuerlig rymdskanning
- Eye movement tracking, som gör att programvara kan förutsäga rörelser och som gör det möjligt att styra systemets användargränssnitt med ögonrörelse (Apple köpte SensoMotoric Instruments 2017, som anses vara ledande inom detta område)
- Biometriska och hälsodata erhållna genom att skanna ansiktet (vilken är personens puls, etc.)
- Avancerad bildredigering för att säkerställa direkt ögonkontakt under till exempel FaceTime (vilket nu har hänt)
- Maskininlärning kommer gradvis att tillåta iPhone att räkna föremål (antal personer i rummet, antalet pennor på bordet, hur många T-shirts jag har i min garderob...)
- Omedelbar mätning av objekt, utan att behöva använda en AR-linjal (hur hög är väggen, ...)
Samtidigt bekräftade Dave Schukin att iOS 13 använder ARKit för att korrigera ögonkontakt. Under långsammare uppspelning kan du fånga hur glasögonen plötsligt förvrids innan de sätts på ögonen.
Hur iOS 13 FaceTime Attention Correction fungerar: den använder helt enkelt ARKit för att ta en djupkarta/position av ditt ansikte och justerar ögonen därefter.
Lägg märke till linjens skevhet över både ögon och näsa. pic.twitter.com/U7PMa4oNGN
— Dave Schukin? (@schukin) Juli 3, 2019
Utvecklaren Aaron Brager tillägger sedan att systemet använder ett speciellt API som endast är tillgängligt i ARKit 3 och är begränsat till de senaste iPhone XS / XS Max och iPhone XR-modellerna. Den äldre iPhone X stöder inte dessa gränssnitt och funktionen kommer inte att vara tillgänglig på den.
källa: 9to5Mac
Kan du inte lägga in någon annan rss-feeduppdatering så att killen inte stirrar på mig för femtonde dagen? …