Con l’arrivo di Sora 2, la generazione video tramite intelligenza artificiale entra in una nuova era.
I video prodotti non sembrano più “generati”: iniziano davvero a confondersi con la realtà.
Ma il motivo non è soltanto più potenza di calcolo o modelli più grandi, è qualcosa di molto più profondo.
Nei primi modelli, la sfida era capire come generare un’immagine coerente, come aggregare correttamente i dati visivi per ottenere qualcosa che avesse senso.
Poi, le AI hanno imparato la fisica del mondo: come gli oggetti si muovono, come la luce interagisce con le superfici, come i corpi si muovono in modo naturale.
In seguito è arrivata la coerenza temporale, la capacità di mantenere una continuità credibile tra un frame e l’altro.
E ora, con Sora 2, il focus si è spostato su un livello ancora più sottile: la percezione umana della realtà.
Il modello ha imparato che la realtà non è mai perfetta — e che proprio lì, in quelle micro-imperfezioni, nasce la credibilità.
Chi lavora nel compositing lo sa bene: il nostro lavoro non è creare immagini perfette, ma restituire la realtà.
Noi “rompiamo” la perfezione del mondo digitale, prendiamo l’output immacolato dei rendering 3D e lo facciamo passare attraverso il filtro del mondo reale:
le lenti, i sensori, la grana, le aberrazioni ottiche, la luce che non è mai neutra.
È esattamente ciò che Sora 2 sta facendo oggi.
Ha imparato che un video realistico non è quello con il contrasto perfetto, i colori saturi e il motion impeccabile, ma quello in cui la fisica del mondo — e persino la mano del cameraman — diventano parte integrante del racconto.
In un certo senso, Sora 2 ha imparato a fare compositing.
E questo, per chi come noi vive da anni tra i pixel e la realtà, è forse il passo più affascina
nte di tutti.
Con l’arrivo di Sora 2, la generazione video tramite intelligenza artificiale entra in una nuova era.
I video prodotti non sembrano più “generati”: iniziano davvero a confondersi con la realtà.
Ma il motivo non è soltanto più potenza di calcolo o modelli più grandi, è qualcosa di molto più profondo.
Nei primi modelli, la sfida era capire come generare un’immagine coerente, come aggregare correttamente i dati visivi per ottenere qualcosa che avesse senso.
Poi, le AI hanno imparato la fisica del mondo: come gli oggetti si muovono, come la luce interagisce con le superfici, come i corpi si muovono in modo naturale.
In seguito è arrivata la coerenza temporale, la capacità di mantenere una continuità credibile tra un frame e l’altro.
E ora, con Sora 2, il focus si è spostato su un livello ancora più sottile: la percezione umana della realtà.
Il modello ha imparato che la realtà non è mai perfetta — e che proprio lì, in quelle micro-imperfezioni, nasce la credibilità.
Chi lavora nel compositing lo sa bene: il nostro lavoro non è creare immagini perfette, ma restituire la realtà.
Noi “rompiamo” la perfezione del mondo digitale, prendiamo l’output immacolato dei rendering 3D e lo facciamo passare attraverso il filtro del mondo reale:
le lenti, i sensori, la grana, le aberrazioni ottiche, la luce che non è mai neutra.
È esattamente ciò che Sora 2 sta facendo oggi.
Ha imparato che un video realistico non è quello con il contrasto perfetto, i colori saturi e il motion impeccabile, ma quello in cui la fisica del mondo — e persino la mano del cameraman — diventano parte integrante del racconto.
In un certo senso, Sora 2 ha imparato a fare compositing.
E questo, per chi come noi vive da anni tra i pixel e la realtà, è forse il passo più affascinante di tutti.
Aggiungi commento
Commenti