Stäng annons

iPhone 11 och iPhone 11 Pro (Max) har varit till försäljning för andra veckan, men de saknar fortfarande en av de mest intressanta funktionerna - Deep Fusion. Enligt de senaste rapporterna har Apple dock funktionen klar och kommer snart att erbjuda den i den kommande betaversionen av iOS 13, troligen i iOS 13.2.

Deep Fusion är namnet på det nya bildbehandlingssystemet för iPhone 11 (Pro)-fotografering, som fullt ut utnyttjar funktionerna hos A13 Bionic-processorn, närmare bestämt Neural Engine. Med hjälp av maskininlärning bearbetas det tagna fotot pixel för pixel, varigenom texturer, detaljer och eventuellt brus i varje del av bilden optimeras. Funktionen kommer alltså att komma väl till pass speciellt när man tar bilder inne i byggnader eller i medium belysning. Den aktiveras helt automatiskt och användaren kommer inte att kunna avaktivera den – praktiskt taget vet han inte ens att Deep Fusion är aktiv i den givna situationen.

Processen att ta ett foto kommer inte att vara annorlunda med Deep Fusion. Användaren trycker bara på avtryckaren och väntar en kort stund på att bilden ska skapas (liknar Smart HDR). Även om hela processen bara tar ungefär en sekund, klarar telefonen, eller snarare processorn, att utföra ett antal komplexa operationer.

Hela processen är som följer:

  1. Innan du ens trycker på kamerans slutarknapp tas tre bilder i bakgrunden med kort exponeringstid.
  2. Därefter, när avtryckaren trycks ned, tas ytterligare tre klassiska bilder i bakgrunden.
  3. Direkt efter tar telefonen ytterligare ett foto med lång exponering för att fånga alla detaljer.
  4. En trio av klassiska foton och ett långexponeringsfoto kombineras till en bild, som Apple refererar till som en "syntetisk lång".
  5. Deep Fusion väljer den enstaka bilden med kort exponering av bästa kvalitet (välj bland de tre som togs innan avtryckaren trycktes ned).
  6. Därefter kombineras den valda ramen med den skapade "syntetiska långa" (två ramar slås alltså samman).
  7. Sammanslagningen av de två bilderna sker i en process i fyra steg. Bilden skapas pixel för pixel, detaljer framhävs och A13-chippet får instruktioner om hur exakt de två bilderna ska kombineras.

Även om processen är ganska komplex och kan verka tidskrävande, tar det totalt sett bara lite längre tid än att ta en bild med Smart HDR. Som ett resultat, direkt efter att ha tryckt på avtryckaren, visas först ett klassiskt foto för användaren, men det ersätts kort därefter av en detaljerad Deep Fusion-bild.

Exempel på Apples Deep Fusion (och Smart HDR) foton:

Det bör noteras att fördelarna med Deep Fusion främst kommer att användas av teleobjektivet, men även vid fotografering med en klassisk vidvinkellins kommer nyheten väl till pass. Däremot kommer det nya ultravida objektivet inte att stödja Deep Fusion alls (samt inte stöd för nattfotografering) och kommer att använda Smart HDR istället.

Den nya iPhone 11 kommer alltså att erbjuda tre olika lägen som aktiveras under olika förhållanden. Om scenen är för ljus kommer telefonen att använda Smart HDR. Deep Fusion aktiveras vid fotografering inomhus och i måttligt svaga ljusförhållanden. Så fort du tar bilder på kvällen eller på natten i svagt ljus aktiveras nattläget.

iPhone 11 Pro bakre kamera FB

Zdroj: Gränsen

.