Con il lancio dell’iPhone 12 Pro Max, Apple ha introdotto il più grande sensore per fotocamera mai installato su un iPhone. Tuttavia, piuttosto che vantarsene, la società afferma che fa parte di una filosofia che vede i progettisti di fotocamere lavorare su ogni possibile aspetto, dall’hardware al software.
Parlando con il sito di fotografia PetaPixel, Francesca Sweet, product line manager per iPhone, e Jon McCormack, vice presidente dell’ingegneria del software della fotocamera, hanno sottolineato che lavorano su tutto il design per semplificare lo scatto di foto.
“Come fotografi, tendiamo a pensare molto a cose come ISO, movimento del soggetto, eccetera”, ha detto Job McCormack. “E Apple vuole consentire alle persone di rimanere nel momento, scattare una bella foto e tornare a quello che stanno facendo”.
“Non è più così significativo per noi parlare di una particolare velocità e feed di un’immagine o di un sistema di telecamere”, ha continuato. “Pensiamo a quale sia l’obiettivo, e l’obiettivo non è quello di avere un sensore più grande di cui possiamo vantarci”.
“L’obiettivo è chiedere come possiamo scattare foto più belle in più condizioni in cui si trovano le persone”, ha detto. “È stato questo pensiero che ha portato alla Deep Fusion, alla modalità notturna e altro”.
L’obiettivo generale di Apple, dicono sia McCormack che Sweet, è quello di “replicare automaticamente il più possibile ciò che il fotografo farà in post produzione”. Quindi, con il Machine Learning, il sistema di telecamere di Apple scompone un’immagine in elementi che può quindi elaborare.
“Lo sfondo, primo piano, occhi, labbra, capelli, pelle, vestiti, cieli”, elenca McCormack. “Elaboriamo tutti questi elementi in modo indipendente come faresti in Adobe Lightroom con una serie di regolazioni locali. Regoliamo tutto, da esposizione, contrasto e saturazione, e li combiniamo tutti insieme”.
Tuttavia, sia Sweet che McCormack ritengono che sia fondamentale il modo in cui Apple progetta e controlla ogni elemento, dall’obiettivo al software.
“Non tendiamo a pensare a un singolo asse”, ha detto McCormack. “Dal momento che progettiamo tutto, dall’obiettivo alla GPU e alla CPU, in realtà abbiamo molti più ambiti in cui possiamo innovare”.
Leggi o Aggiungi Commenti