Sora 2

Pubblicato il 11 ottobre 2025 alle ore 13:56

Con l’arrivo di Sora 2, la generazione video tramite intelligenza artificiale entra in una nuova era.

I video prodotti non sembrano più “generati”: iniziano davvero a confondersi con la realtà.

Ma il motivo non è soltanto più potenza di calcolo o modelli più grandi, è qualcosa di molto più profondo.

Nei primi modelli, la sfida era capire come generare un’immagine coerente, come aggregare correttamente i dati visivi per ottenere qualcosa che avesse senso.

Poi, le AI hanno imparato la fisica del mondo: come gli oggetti si muovono, come la luce interagisce con le superfici, come i corpi si muovono in modo naturale.

In seguito è arrivata la coerenza temporale, la capacità di mantenere una continuità credibile tra un frame e l’altro.

E ora, con Sora 2, il focus si è spostato su un livello ancora più sottile: la percezione umana della realtà.

Il modello ha imparato che la realtà non è mai perfetta — e che proprio lì, in quelle micro-imperfezioni, nasce la credibilità.

Chi lavora nel compositing lo sa bene: il nostro lavoro non è creare immagini perfette, ma restituire la realtà.

Noi “rompiamo” la perfezione del mondo digitale, prendiamo l’output immacolato dei rendering 3D e lo facciamo passare attraverso il filtro del mondo reale:

le lenti, i sensori, la grana, le aberrazioni ottiche, la luce che non è mai neutra.

È esattamente ciò che Sora 2 sta facendo oggi.

Ha imparato che un video realistico non è quello con il contrasto perfetto, i colori saturi e il motion impeccabile, ma quello in cui la fisica del mondo — e persino la mano del cameraman — diventano parte integrante del racconto.

In un certo senso, Sora 2 ha imparato a fare compositing.

E questo, per chi come noi vive da anni tra i pixel e la realtà, è forse il passo più affascina

nte di tutti.

Con l’arrivo di Sora 2, la generazione video tramite intelligenza artificiale entra in una nuova era.
I video prodotti non sembrano più “generati”: iniziano davvero a confondersi con la realtà.
Ma il motivo non è soltanto più potenza di calcolo o modelli più grandi, è qualcosa di molto più profondo.
Nei primi modelli, la sfida era capire come generare un’immagine coerente, come aggregare correttamente i dati visivi per ottenere qualcosa che avesse senso.
Poi, le AI hanno imparato la fisica del mondo: come gli oggetti si muovono, come la luce interagisce con le superfici, come i corpi si muovono in modo naturale.
In seguito è arrivata la coerenza temporale, la capacità di mantenere una continuità credibile tra un frame e l’altro.
E ora, con Sora 2, il focus si è spostato su un livello ancora più sottile: la percezione umana della realtà.
Il modello ha imparato che la realtà non è mai perfetta — e che proprio lì, in quelle micro-imperfezioni, nasce la credibilità.
Chi lavora nel compositing lo sa bene: il nostro lavoro non è creare immagini perfette, ma restituire la realtà.
Noi “rompiamo” la perfezione del mondo digitale, prendiamo l’output immacolato dei rendering 3D e lo facciamo passare attraverso il filtro del mondo reale:
le lenti, i sensori, la grana, le aberrazioni ottiche, la luce che non è mai neutra.
È esattamente ciò che Sora 2 sta facendo oggi.
Ha imparato che un video realistico non è quello con il contrasto perfetto, i colori saturi e il motion impeccabile, ma quello in cui la fisica del mondo — e persino la mano del cameraman — diventano parte integrante del racconto.
In un certo senso, Sora 2 ha imparato a fare compositing.
E questo, per chi come noi vive da anni tra i pixel e la realtà, è forse il passo più affascinante di tutti.

Aggiungi commento

Commenti

Non ci sono ancora commenti.