Kao odgovor na OpenAI model Sora za generisanje video sadržaja, Google Veo stiže na tržište sa mogućnošću da koristi tekst, slike ili video kao uputstvo.
Novi AI generator video sadržaja na tržištu je Google Veo i može da koristi tekstualne, slikovne ili video podsticaje kako bi napravio video u trajanju dužem od 60 sekundi. Ovaj alat biće dostupan odabranim kreatorima sadržaja kasnije ove godine, a prijava za listu čekanja već sada je otvorena u određenim regionima.
AI alat koji inače predstavlja konkurenciju AI alatu Sora kompanije OpenAI, dolazi zajedno sa novinama koje je gigant predstavio na svojoj Google I/O konferenciji koja je počela sinoć. Google Veo može da kreira visokokvalitetne 1.080p klipove koji traju duže od 60 sekundi, a takođe može da se bavi i raznim filmskim stilovima. Među njih spadaju fotorealizam, nadrealizam i animacija.
Introducing Veo: our most capable generative video model. It can create high-quality, 1080p clips that can go beyond 60 seconds. From photorealism to surrealism and animation, it can tackle a range of cinematic styles. #GoogleIO pic.twitter.com/6zEuYRAHpH
— Google DeepMind (@GoogleDeepMind) May 14, 2024
Uz to, ovaj alat može da razumije prirodni jezik, što modelu omogućava da razumije filmske termine poput "timelapse" i "aerial shots of a landscape".
Video zapisi generisani putem Google Veo alata takođe se navodno odlikuju većom doslijednošću i koherentnošću, prikazujući realističnije pokrete i kontinuitet tokom snimaka. Još jedna njegova značajna sposobnost je da vam omogućava lako proširivanje generisanog videa jednim klikom, ističe Google.
Dalje, rezultate generisanih videa korisnici mogu da usavršavaju dodatnim uputstvima vještačkoj inteligenciji. Google takođe istražuje dodatne funkcije koje omogućavaju Veo alatu da proizvodi duže scene.
Kompanija još planira da doda neke od sposobnosti Veo alata na YouTube Shorts u budućnosti, iako je još uvijek teško predvidjeti kako će to izgledati, prenosi "BenchMark".
Pratite nas na našoj Facebook i Instagram stranici, kao i na X nalogu.