Con un ritardo di quasi otto mesi da Sora di OpenAI, nella giornata di oggi Meta ha presentato il suo strumento per creare video a partire dai testi. Lo ha chiamato Movie Gen ed è un modello text-to-video, in gergo, cioè uno strumento di intelligenza artificiale generativa che, dato un testo, genera un video. Come Sora, non è al momento accessibile, ma l’azienda di Mark Zuckerberg ne ha condiviso vari dettagli ed esempi di ciò che può, anzi potrà fare.

Offerta

Xiaomi Smart Band 10

39.09€ invece di 49.99€
-22%

Come funziona Meta Movie Gen, l’IA per generare video (e non solo)

Bastano poche parole a Movie Gen per creare dei video, per modificarne di già esistenti e per generare delle tracce audio da abbinare a filmati generati e non. Ma iniziamo dalla prima e più interessante abilità di questo nuovo strumento di Meta, che funziona sostanzialmente come le altre intelligenze artificiali generative che creano testi e immagini: l’utente digita un breve testo e ottiene un filmato, più o meno coerente con quanto immaginava in base al prompt fornito.

Ecco un esempio di un video realistico generato con Meta Movie Gen e basato sulla seguente descrizione: “Una bambina corre su una spiaggia tenendo in mano un aquilone. Indossa dei pantaloncini di jeans e una maglietta gialla. Il sole splende”.

 

Oltre ai testi, Meta Movie Gen può anche usare come sorgente, come fonte da cui partire, dei video o delle immagini statiche già esistenti, che poi modifica in base agli input testuali indicatigli dall’utente.

Oltre ai video, che è possibile creare in diversi fattori di forma (aspect ratio), Meta Movie Gen può generare anche dell’audio da abbinare ai filmati generati, suoni che siano coerenti con le immagini e quindi adatti al video generato. Lo strumento permette inoltre di creare clip audio per video reali, o comunque non generati da Movie Gen, fornendo, anche in questo caso, delle brevi descrizioni di ciò che si intende ottenere.

Sulla pagina web dedicata a Movie Gen, ci sono anche altri esempi di quello che sa fare questo nuovo strumento di Meta, che non è tuttavia accessibile al momento, né si sa quando (e se) si potrà usare. Il chief product officer di Meta Chris Cox ha scritto su Threads che la società non è ancora pronta per rilasciarlo pubblicamente in tempi brevi perché è troppo costoso e perché è ancora lento il processo di generazione.

“Mentre continuiamo a migliorare i nostri modelli e ci muoviamo verso un potenziale rilascio futuro, lavoreremo a stretto contatto con registi e creatori di contenuti per integrare il loro feedback. Adottando un approccio collaborativo vogliamo assicurarci di creare strumenti che aiutino le persone a migliorare la loro creatività intrinseca in modi che non avrebbero mai immaginato possibili” ha scritto Meta. Per maggiori dettagli, intanto, è possibile dare un’occhiata al relativo documento di ricerca (da ben 92 pagine).