Runway lanserer en ny nevrale nettverksmodell for å lage videoer fra en tekstbeskrivelse
Miscellanea / / April 02, 2023
Dette er en analog av Midjourney, men for korte videoer.
Kunstig intelligens som konverterer tekst til et bilde er nå ekte mainstream, men lignende nevrale nettverk for video får bare fart. I forkant av denne retningen er oppstarten Runway, som løslatt allerede den andre AI-modellen som genererer korte videoer basert på flere ord.
Runway tilbyr et nettbasert videoredigeringsprogram som spesialiserer seg på maskinlæringsverktøy som fjerning av bakgrunn. Dette selskapet var med på å utvikle Stable Diffusion tekst-til-bilde-modellen, og i februar annonsert sin første AI-videoredigeringsmodell Gen-1.
Gen-1 fokuserte på å konvertere eksisterende opptak, slik at brukere kan bruke en bestemt stil med overlegg fra bilde til rulle. Gen-2-modellen er mer fokusert på å lage videoer fra bunnen av.
Demoene som deles på Runway er korte, ustabile og absolutt ikke fotorealistiske, men selv slike rammer viser en god forståelse av AI for tredimensjonalt rom, proporsjoner og bevegelseslogikken gjenstander.
Selv om Gen-2 ikke er fritt tilgjengelig, forsikret en Runway-talsperson at selskapet vil "gi bred tilgang i de kommende ukene."
Utsiktene for introduksjonen av slik kunstig intelligens skremmer allerede eksperter. Tross alt lover nevrale nettverk for arbeid med video ikke bare nye kreative muligheter, men også nye trusler mot desinformasjon.
Les også🧐
- Fotorealisme og fem fingre: Midjourney nevrale nettverk har blitt oppdatert til versjon 5
- Midjourneys nevrale nettverk kombinerer nå bilder. Her er 15 morsomme "kryss"
- Midjourney nevrale nettverk trakk "de vakreste menneskene på planeten"