Először válik elérhetővé egy szövegből videót generáló MI
A Runway tavaly szeptember óta dolgozik nemrég bemutatott modelljén, ami egyben az első olyan szöveg alapján videót készítő eszköz, amely nagyközönség számára is hozzáférhetővé válik.
A szöveges promptok alapján képeket előállító generatív mesterséges intelligencia utáni lépcsőfok a videós tartalmak készítése, ami láthatóan már egyáltalán nincs elérhetetlen távolságban a nagyközönség számára sem.
A 2018-ban alapított Runway startup neve korábban azzal vált ismertté, hogy a Stable Diffusion képgenerátor modellen dolgozott, majd februárban beszélt először saját videószerkesztő modelljéről, a Gen-1-ről, aminek utódját, a fejlettebb Gen-2-t nemrég leplezte le. A webalapú videószerkesztő formájában használható technológia elsősorban olyan intelligens feladatokat képes elvégezni algoritmusok segítségével, mint a háttér automatikus eltávolítása, vagy egyes pózok észlelése, de a vadiúj Gen-2 modellel kiegészítve a korábbinál még hasznosabbá válik.
A Gen-1 már meglévő videók átalakítására volt csak képes, különféle szempontok és parancsok szerint dolgozott át egy 3D-s animációt, vagy okostelefonos felvételt. Ezzel szemben a fejlettebb Gen-2-nek már semmilyen alapanyagra nincs szüksége videók létrehozásához, a felhasználónak elég megadnia pár szöveges parancsot arra vonatkozóan, milyen animációt szeretne látni.
Ünnepi mix a bértranszparenciától a kódoló vezetőkig Négy IT karrierrel kapcsolatos, érdekes témát csomagoltunk a karácsonyfa alá.
Korlátai természetesen vannak a technológiának: egyelőre rendkívül rövid klipeket készít, amelyek nem fotorealisztikusak, a minőség is hagy kivetnivalót maga után, ahogy a framerate is alacsony. Az eszközhöz való hozzáférés továbbá korlátozott, várólistán keresztül lehetséges a feliratkozás a cég Discord-csatornáján. A Runway szóvivője szerint a következő hetekben elindul a szélesebb körű hozzáférés megnyitása is.
Már a korai eredmények és klippek magukkal hozzák az aggodalmat, hogy a videószerkesztés új, automatizált módjával egyben a dezinformációs kampányok új lehetőségeket és eszközöket kapnak, ami kedvezhez a visszaéléseknek. Ugyan maga az ötlet nem új, és korábban már az Alphabet és a Meta is demózott MI-által generált videóklipeket, most először válhat elérhetővé ilyen eszköz a laboron kívül, átlagfelhasználók számára.
A bejelentés rávilágít, hogy a startupok ajtói mögött milyen elképesztő gyorsasággal haladnak a fejlesztések a generatív MI területén. A Runway 2021-ben még a Müncheni Egyetem kutatóival együttműködve hozta létre a Stable Diffusion első verzióját, amihez később csatlakozott a Stability AI brit startup. A GettyImages tulajdonosa jelenleg perli a Stability AI-t azzal a váddal, hogy engedély nélkül használta fel a képeit a mesterséges intelligencia kiképzésére, ami újabb megoldandó probléma a generatív MI korában.