Stäng annons

Den tredje utvecklarbetaversionen av systemet iOS 13 döljer många nya prylar. En av dem är automatisk ögonkontaktskorrigering. Motparten får då intrycket att du tittar direkt in i deras ögon.

Nu, när du är på ett FaceTime-samtal med någon, kan mycket ofta den andra parten se att dina ögon är nere. Detta beror på att kamerorna inte är direkt i displayen, utan i överkanten ovanför den. Men i iOS 13 kommer Apple med en okonventionell lösning, där nya ARKit 3 spelar en ledande roll.

Systemet justerar nu bilddata i realtid. Så även om dina ögon är nere visar iOS 13 dig som om du tittade direkt in i den andra personens ögon. Flera utvecklare som har testat den nya funktionen har redan dykt upp på sociala nätverk.

En av dem var till exempel Will Sigmon som stod för tydliga bilder. Det vänstra fotot visar standardsituationen under FaceTime på iOS 12, det högra fotot visar automatisk korrigering genom ARKit i iOS 13.

iOS 13 kan fixa ögonkontakt under FaceTime

Funktionen använder ARKit 3, den kommer inte att vara tillgänglig för iPhone X

Mike Rundle, som hade jour, är nöjd med resultatet. Dessutom är det en av funktionerna han förutspådde redan 2017. Förresten, hela hans lista med förutsägelser är intressant:

  • iPhone kommer att kunna upptäcka 3D-objekt i sin omgivning med hjälp av kontinuerlig rymdskanning
  • Eye movement tracking, som gör att programvara kan förutsäga rörelser och som gör det möjligt att styra systemets användargränssnitt med ögonrörelse (Apple köpte SensoMotoric Instruments 2017, som anses vara ledande inom detta område)
  • Biometriska och hälsodata erhållna genom att skanna ansiktet (vilken är personens puls, etc.)
  • Avancerad bildredigering för att säkerställa direkt ögonkontakt under till exempel FaceTime (vilket nu har hänt)
  • Maskininlärning kommer gradvis att tillåta iPhone att räkna föremål (antal personer i rummet, antalet pennor på bordet, hur många T-shirts jag har i min garderob...)
  • Omedelbar mätning av objekt, utan att behöva använda en AR-linjal (hur hög är väggen, ...)

Samtidigt bekräftade Dave Schukin att iOS 13 använder ARKit för att korrigera ögonkontakt. Under långsammare uppspelning kan du fånga hur glasögonen plötsligt förvrids innan de sätts på ögonen.

Utvecklaren Aaron Brager tillägger sedan att systemet använder ett speciellt API som endast är tillgängligt i ARKit 3 och är begränsat till de senaste iPhone XS / XS Max och iPhone XR-modellerna. Den äldre iPhone X stöder inte dessa gränssnitt och funktionen kommer inte att vara tillgänglig på den.

källa: 9to5Mac

.