Försök OpenAI Sora

Skapa video från text/bild, generera loopvideo, förlänga video framåt och bakåt

Var den första att veta när Sora är live!

Om OpenAI Sora

Vad är Sora

OpenAI:s text-till-video-modell. Sora kan generera videor upp till en minut långa samtidigt som den bibehåller visuell kvalitet och följer användarens textinstruktioner.

Sora målet

Sora fungerar som en grund för modeller som kan förstå och simulera den verkliga världen, hjälpa människor att lösa problem som kräver interaktion i den verkliga världen.

Framsteg

Endast tillgänglig för röda teammedlemmar och inbjudna visuella konstnärer, designers och filmmakare.

Funktioner

Stöd för flera tecken, specifika rörelsetyper, ämnen och bakgrundsdetaljer med noggrannhet; Modeller förstår hur dessa saker existerar i den fysiska världen, flera tagningar inom en enda video.

Begränsningar

Svårigheter att noggrant simulera komplex fysik, Förvirring av spatiala detaljer, Spontan uppkomst av objekt och karaktärer, Oexakt fysisk modellering och onaturlig objektdeformation.

Säkerhet

Samarbeta med röda team för att genomföra adversarial testning för att identifiera och åtgärda säkerhetsproblem i modellen, Bygg verktyg för att hjälpa till att upptäcka vilseledande innehåll med hjälp av detektionsklassificerare och C2PA-metadata.

Visar - daglig uppdatering

Prompt

-

Prompt

Bubble Dragon

Prompt

Sora generates an imaginary video of the interview.

Prompt

an extreme close up shot of a woman's eye, with her iris appearing as earth

Prompt

fly through tour of a museum with many paintings and sculptures and beautiful works of art in all styles

Prompt

a red panda and a toucan are best friends taking a stroll through santorini during the blue hour

Prompt

a man BASE jumping over tropical hawaii waters. His pet macaw flies alongside him.

Prompt

a dark neon rainforest aglow with fantastical fauna and animals.

Prompt

Close-up of a majestic white dragon with pearlescent, silver-edged scales, icy blue eyes, elegant ivory horns, and misty breath. Focus on detailed facial features and textured scales, set against a softly blurred background.

Prompt

a scuba diver discovers a hidden futuristic shipwreck, with cybernetic marine life and advanced alien technology

Prompt

in a beautifully rendered papercraft world, a steamboat travels across a vast ocean with wispy clouds in the sky. vast grassy hills lie in the distant background, and some sealife is visible near the papercraft ocean's surface

Prompt

cinematic trailer for a group of samoyed puppies learning to become chefs.

Other AI video products

CompanyGeneration TypeMax LengthExtend?Camera Controls? (zoom, pan)Motion Control? (amount)Other FeaturesFormat
RunwayText-to-video, image-to-video, video-to-video4 secYesYesYesMotion brush, upscaleWebsite
PikaText-to-video, image-to-video3 secYesYesYesModify region, expand canvas, upscaleWebsite
GenmoText-to-video, image-to-video6 secNoYesYesFX presetsWebsite
KaiberText-to-video, image-to-video, video-to-video16 secNoNoNoSync to musicWebsite
StabilityImage-to-video4 secNoNoYesWebsiteLocal model, SDK
ZeroscopeText-to-video3 secNoNoNoLocal model
ModelScopeText-to-video3 secNoNoNoLocal model
Animate DiffText-to-video, image-to-video, video-to-video3 secNoNoNoLocal model
MorphText-to-video3 secNoNoNoDiscord bot
HotshotText-to-video2 secNoNoNoWebsite
MoonvalleyText-to-video, image-to-video3 secNoYesNoDiscord bot
DeforumText-to-video14 secNoYesNoFX presetsDiscord bot
LeonardoImage-to-video4 secNoNoYesWebsite
AssistiveText-to-video, Image-to-video4 secNoNoYesWebsite
Neural FramesText-to-video, image-to-video, video-to-videoUnlimitedNoNoNoSync to musicWebsite
MagicHourText-to-video, image-to-video, video-to-videoUnlimitedNoNoNoFace swap, sync to musicWebsite
VispunkText-to-video3 secNoYesNoWebsite
DecohereText-to-video, Image-to-video4 secNoNoYesWebsite
Domo AlImage-to-video, video-to-video3 secNoNoYesDiscord bot

Människor pratar om Sora på x

Vanliga frågor

  • Sora är en AI-modell utvecklad av OpenAI som kan skapa realistiska och fantasifulla videosekvenser från textinstruktioner. Den är utformad för att simulera den fysiska världen i rörelse, generera videor upp till en minut långa samtidigt som den bibehåller visuell kvalitet och följer användarens instruktioner.

  • Sora är en diffusionsmodell som börjar med en video som liknar statiskt brus och gradvis omvandlar den genom att ta bort bruset över många steg. Den använder en transformerarkitektur, liknande GPT-modeller, och representerar videor och bilder som samlingar av mindre dataenheter som kallas patchar.

  • Sora kan generera ett brett utbud av videor, inklusive komplexa scener med flera karaktärer, specifika typer av rörelser och exakta detaljer av ämnen och bakgrunder. Den kan också ta en befintlig stillbild och animera den, eller förlänga en befintlig video genom att fylla i saknade ramar.

  • Sora kan ha svårt att noggrant simulera fysiken i komplexa scener, förstå specifika fall av orsak och verkan, och behålla spatiala detaljer över tid. Det kan ibland skapa fysiskt osannolik rörelse eller blanda ihop spatiala detaljer.

  • OpenAI samarbetar med röda team för att adversarially testa modellen och bygger verktyg för att upptäcka vilseledande innehåll. De planerar att inkludera C2PA-metadata i framtiden och utnyttjar befintliga säkerhetsmetoder från sina andra produkter, såsom textklassificerare och bildklassificerare.

  • Sora är för närvarande tillgänglig för röda team för att bedöma kritiska områden för skador eller risker och för visuella konstnärer, designers och filmmakare för feedback om hur man kan främja modellen för kreativa yrkesverksamma.

  • Om du är en kreativ professionell kan du ansöka om tillgång till Sora genom OpenAI. När tillgång beviljats kan du använda modellen för att generera videor baserat på dina textprompter, förbättra dina kreativa projekt med unika och fantasifulla scener.

  • Sora fungerar som en grund för modeller som kan förstå och simulera den verkliga världen, vilket OpenAI anser är en viktig milstolpe mot att uppnå Artificiell Allmän Intelligens (AGI).

  • Sora har en djup förståelse för språk, vilket gör att den kan tolka textmeddelanden noggrant och skapa övertygande karaktärer och scener som uttrycker livliga känslor. Den kan skapa flera bilder inom en enda video samtidigt som den behåller konsekventa karaktärer och visuell stil.

  • Sora använder en transformerarkitektur, liknande GPT-modeller, och representerar videor och bilder som samlingar av mindre enheter av data som kallas patchar. Denna enhetliga datarepresentation gör att modellen kan tränas på ett bredare utbud av visuell data.

  • Genom att ge modellen förmåga att se flera ramar samtidigt kan Sora se till att ämnena förblir konsekventa även när de tillfälligt försvinner ur sikte.

  • Sora använder recaptioning-tekniken från DALL·E 3, vilket innebär att generera mycket beskrivande bildtexter för den visuella träningsdatan. Detta hjälper modellen att följa användarens textinstruktioner mer troget i de genererade videorna.

  • OpenAI planerar att vidta flera säkerhetsåtgärder innan man integrerar Sora i sina produkter, inklusive adversarial testning, utveckling av detektionsklassificerare och utnyttjande av befintliga säkerhetsmetoder från andra produkter som DALL·E 3.

  • Sora kan användas av filmmakare, animatörer, spelutvecklare och andra kreativa yrkesverksamma för att skapa videomaterial, storyboards eller till och med för att prototypa idéer snabbt och effektivt.

  • OpenAI samarbetar aktivt med beslutsfattare, pedagoger och konstnärer för att förstå bekymmer och identifiera positiva användningsfall för teknologin. De erkänner att även om de inte kan förutse alla fördelaktiga användningsområden eller missbruk, är det avgörande att lära sig av verklig användning för att skapa säkrare AI-system över tiden.

  • OpenAI har textklassificerare som kontrollerar och avvisar textinmatningsförslag som bryter mot användningspolicyer, såsom de som begär extremt våld, sexuellt innehåll, hatfulla bilder eller obehörig användning av immateriell egendom.

  • En 'världsmodell' inom AI syftar till en beräkningsmodell som simulerar den fysiska världen och dess dynamik, vilket gör det möjligt för AI att förstå och förutsäga hur objekt och enheter interagerar inom den. I Sora-sammanhanget innebär detta att modellen har tränats för att generera videor som inte bara följer textuella ledtrådar utan också följer de fysiska lagarna och beteendena i den verkliga världen, såsom tyngdkraft, rörelse och objektinteraktioner. Denna förmåga är avgörande för att skapa realistiskt och sammanhängande videoinnehåll från textbeskrivningar.