Budapest
2024 november 19., kedd
image

Elég beírni szövegesen, hogy mi legyen a videón, és már kész is a klip

Az elmúlt időszakban többször is hallhattunk már az OpenAI fejlesztéséről, a DALL-E-ről, ami egy megadott szöveg alapján generál képet. Léteznek azonban már olyan, szintén a mesterséges intelligenciára épülő megoldások, amelyek nem statikus, hanem mozgóképet állítanak elő – szintén egy bevitt szöveg alapján.

A Runway nevű startup Gen-2 nevű videomodellje ilyen. Míg az első változat egy meglévő videót változtatott meg vagy egészített ki, az új modell lehetővé teszi, hogy egy fényképet, vagy akár csak egy egyszerű szöveget adjanak meg a felhasználók a rendszernek, ami abból legenerálja a videót.

A Facebook anyacége, a Meta egyébként még 2022-ben mutatta meg, mire képes az ugyanígy működő saját megoldása.

A Runway szerint a második generációs modell gyorsabb és hatékonyabb, mint a korábbi verzió. Emellett a felhasználók számára lehetővé teszi, hogy finomhangolják „a kimeneti jellemzőket néhány referenciakép alapján.” A végeredmény ilyesmi lesz.

A videók nem élethűek, de valószínűleg csak idő, nem is túl hosszú idő kérdése, hogy azok legyenek. A rendszert bárki kipróbálhatja, csak regisztrálnia kell ezen az oldalon.