Tente OpenAI Sora
Criar vídeo a partir de texto/imagem, gerar vídeo em loop, estender vídeo para frente e para trás
Seja o primeiro a saber quando Sora estiver disponível!
Sobre OpenAI Sora
O que é Sora
O modelo de texto para vídeo da OpenAI. Sora pode gerar vídeos de até um minuto de duração, mantendo a qualidade visual e aderência às instruções de texto do usuário.
O objetivo de Sora
Sora serve como uma base para modelos que podem entender e simular o mundo real, ajudar as pessoas a resolver problemas que requerem interação no mundo real.
Progress
Apenas disponível para membros da equipe vermelha e artistas visuais, designers e cineastas convidados.
Recursos
Suporte a múltiplos caracteres, tipos específicos de movimento, assuntos e detalhes de fundo com precisão; Os modelos entendem como essas coisas existem no mundo físico, múltiplos tiros dentro de um único vídeo.
Limitações
Dificuldade em simular com precisão física complexa, Confusão de detalhes espaciais, aparecimento espontâneo de objetos e personagens, Modelagem física imprecisa e deformação não natural de objetos.
Segurança
Colaborar com equipes vermelhas para realizar testes adversários a fim de identificar e resolver problemas de segurança no modelo, Construir ferramentas para ajudar a detectar conteúdo enganoso usando classificadores de detecção e metadados do C2PA.
Mostra - atualização diária
Prompt
-
Prompt
Bubble Dragon
Prompt
Sora generates an imaginary video of the interview.
Prompt
an extreme close up shot of a woman's eye, with her iris appearing as earth
Prompt
fly through tour of a museum with many paintings and sculptures and beautiful works of art in all styles
Prompt
a red panda and a toucan are best friends taking a stroll through santorini during the blue hour
Prompt
a man BASE jumping over tropical hawaii waters. His pet macaw flies alongside him.
Prompt
a dark neon rainforest aglow with fantastical fauna and animals.
Prompt
Close-up of a majestic white dragon with pearlescent, silver-edged scales, icy blue eyes, elegant ivory horns, and misty breath. Focus on detailed facial features and textured scales, set against a softly blurred background.
Prompt
a scuba diver discovers a hidden futuristic shipwreck, with cybernetic marine life and advanced alien technology
Prompt
in a beautifully rendered papercraft world, a steamboat travels across a vast ocean with wispy clouds in the sky. vast grassy hills lie in the distant background, and some sealife is visible near the papercraft ocean's surface
Prompt
cinematic trailer for a group of samoyed puppies learning to become chefs.
Other AI video products
Company | Generation Type | Max Length | Extend? | Camera Controls? (zoom, pan) | Motion Control? (amount) | Other Features | Format |
---|---|---|---|---|---|---|---|
Runway | Text-to-video, image-to-video, video-to-video | 4 sec | Yes | Yes | Yes | Motion brush, upscale | Website |
Pika | Text-to-video, image-to-video | 3 sec | Yes | Yes | Yes | Modify region, expand canvas, upscale | Website |
Genmo | Text-to-video, image-to-video | 6 sec | No | Yes | Yes | FX presets | Website |
Kaiber | Text-to-video, image-to-video, video-to-video | 16 sec | No | No | No | Sync to music | Website |
Stability | Image-to-video | 4 sec | No | No | Yes | WebsiteLocal model, SDK | |
Zeroscope | Text-to-video | 3 sec | No | No | No | Local model | |
ModelScope | Text-to-video | 3 sec | No | No | No | Local model | |
Animate Diff | Text-to-video, image-to-video, video-to-video | 3 sec | No | No | No | Local model | |
Morph | Text-to-video | 3 sec | No | No | No | Discord bot | |
Hotshot | Text-to-video | 2 sec | No | No | No | Website | |
Moonvalley | Text-to-video, image-to-video | 3 sec | No | Yes | No | Discord bot | |
Deforum | Text-to-video | 14 sec | No | Yes | No | FX presets | Discord bot |
Leonardo | Image-to-video | 4 sec | No | No | Yes | Website | |
Assistive | Text-to-video, Image-to-video | 4 sec | No | No | Yes | Website | |
Neural Frames | Text-to-video, image-to-video, video-to-video | Unlimited | No | No | No | Sync to music | Website |
MagicHour | Text-to-video, image-to-video, video-to-video | Unlimited | No | No | No | Face swap, sync to music | Website |
Vispunk | Text-to-video | 3 sec | No | Yes | No | Website | |
Decohere | Text-to-video, Image-to-video | 4 sec | No | No | Yes | Website | |
Domo Al | Image-to-video, video-to-video | 3 sec | No | No | Yes | Discord bot |
As pessoas falam sobre Sora em x
SoraAI by OpenAI is wild.
— Alamin (@iam_chonchol) February 18, 2024
These are 100% generated only from text and take just 1 minute 🤯
10 wild examples ( 2nd is WOW ) pic.twitter.com/NLetbJVa2v
If you think OpenAI Sora is a creative toy like DALLE, ... think again. Sora is a data-driven physics engine. It is a simulation of many worlds, real or fantastical. The simulator learns intricate rendering, "intuitive" physics, long-horizon reasoning, and semantic grounding, all… pic.twitter.com/pRuiXhUqYR
— Jim Fan (@DrJimFan) February 15, 2024
"this close-up shot of a futuristic cybernetic german shepherd showcases its striking brown and black fur..."
— Bill Peebles (@billpeeb) February 18, 2024
Video generated by Sora. pic.twitter.com/Bopbl0yv0Y
Sora and Stable Video, text to video compare. pic.twitter.com/pZzSeSXPtN
— Retropunk (@RetropunkAI) February 17, 2024
OpenAI's Sora is the most advanced text-to-video tool yet. 💡
— Ringfence (@RingfenceAI) February 16, 2024
It can generate compellingly realistic characters, create multiple dynamic shots in a single video, with accurate details of both subjects and background.
Here's the 10 best generations so far
🧵👇 pic.twitter.com/FHp0cxt0Ll
OpenAI's Sora is going to change marketing forever, enabling anyone to unleash his inner creativity.
— William Briot (@WilliamBriot) February 15, 2024
Check this 100% AI-generated video of Mammoth generated with the new "text-to-video" OpenAI model: pic.twitter.com/DcDGPjpBXC
"a photorealistic video of a butterfly that can swim navigating underwater through a beautiful coral reef"
— Tim Brooks (@_tim_brooks) February 17, 2024
Video generated by Sora pic.twitter.com/nebCKLa09U
Another Sora video, Sora can generate multiple videos side-by-side simultaneously.
— 🅱️WhiteAfricanSpaceJesus (@zespacejesus) February 18, 2024
This is a single video sample from Sora. It is not stitched together; Sora decided it wanted to have five different viewpoints all at once! pic.twitter.com/q2rfxh61CQ
Sora can also generate stories involving a sequence of events, although it's far from perfect.
— Bill Peebles (@billpeeb) February 17, 2024
For this video, I asked that a golden retriever and samoyed should walk through NYC, then a taxi should stop to let the dogs pass a crosswalk, then they should walk past a pretzel and… pic.twitter.com/OhqVFqR5vA
https://t.co/uCuhUPv51N pic.twitter.com/nej4TIwgaP
— Sam Altman (@sama) February 15, 2024
https://t.co/P26vJHlw06 pic.twitter.com/AW9TfYBu3b
— Sam Altman (@sama) February 15, 2024
https://t.co/rPqToLo6J3 pic.twitter.com/nPPH2bP6IZ
— Sam Altman (@sama) February 15, 2024
https://t.co/WJQCMEH9QG pic.twitter.com/Qa51e18Vph
— Sam Altman (@sama) February 15, 2024
a wizard wearing a pointed hat and a blue robe with white stars casting a spell that shoots lightning from his hand and holding an old tome in his other hand
— biden or buster (@willofdoug) February 15, 2024
Perguntas Frequentes
Sora é um modelo de IA desenvolvido pela OpenAI que pode criar cenas de vídeo realistas e imaginativas a partir de instruções de texto. Ele foi projetado para simular o mundo físico em movimento, gerando vídeos de até um minuto de duração, mantendo a qualidade visual e seguindo a orientação do usuário.
Sora é um modelo de difusão que começa com um vídeo semelhante a ruído estático e gradualmente o transforma removendo o ruído ao longo de muitas etapas. Ele usa uma arquitetura de transformador, semelhante aos modelos GPT, e representa vídeos e imagens como coleções de unidades de dados menores chamadas patches.
Sora pode gerar uma ampla gama de vídeos, incluindo cenas complexas com múltiplos personagens, tipos específicos de movimento e detalhes precisos de assuntos e fundos. Também pode pegar uma imagem estática existente e animá-la, ou estender um vídeo existente preenchendo quadros em falta.
Sora pode ter dificuldade em simular com precisão a física de cenas complexas, entender instâncias específicas de causa e efeito e manter detalhes espaciais ao longo do tempo. Às vezes, pode criar movimentos fisicamente implausíveis ou misturar detalhes espaciais.
OpenAI está trabalhando com red teamers para testar adversarialmente o modelo e está construindo ferramentas para detectar conteúdo enganoso. Eles planejam incluir metadados C2PA no futuro e estão aproveitando métodos de segurança existentes de seus outros produtos, como classificadores de texto e classificadores de imagem.
Sora está atualmente disponível para red teamers para avaliar áreas críticas de danos ou riscos e para artistas visuais, designers e cineastas para obter feedback sobre como avançar o modelo para profissionais criativos.
Se você é um profissional criativo, pode solicitar acesso ao Sora através da OpenAI. Uma vez concedido o acesso, você pode usar o modelo para gerar vídeos com base em suas sugestões de texto, aprimorando seus projetos criativos com cenas únicas e imaginativas.
Sora serve como uma base para modelos que podem entender e simular o mundo real, o que a OpenAI acredita ser um marco importante para alcançar a Inteligência Artificial Geral (AGI).
Sora tem um profundo entendimento da linguagem, permitindo-lhe interpretar com precisão os textos e gerar personagens e cenas cativantes que expressam emoções vibrantes. Pode criar várias sequências dentro de um único vídeo, mantendo personagens e estilo visual consistentes.
Sora utiliza uma arquitetura de transformador, semelhante aos modelos GPT, e representa vídeos e imagens como coleções de unidades de dados menores chamadas patches. Esta unificação da representação de dados permite que o modelo seja treinado em uma gama mais ampla de dados visuais.
Ao dar ao modelo a capacidade de prever muitos quadros de uma só vez, Sora pode garantir que os objetos permaneçam consistentes mesmo quando saem temporariamente da vista.
Sora usa a técnica de recaptioning do DALL·E 3, que envolve a geração de legendas altamente descritivas para os dados de treinamento visual. Isso ajuda o modelo a seguir mais fielmente as instruções de texto do usuário nos vídeos gerados.
A OpenAI está planejando tomar várias medidas de segurança antes de integrar Sora em seus produtos, incluindo testes adversariais, desenvolvimento de classificadores de detecção e aproveitando métodos de segurança existentes de outros produtos como o DALL·E 3.
Sora pode ser usado por cineastas, animadores, desenvolvedores de jogos e outros profissionais criativos para gerar conteúdo de vídeo, storyboards ou até mesmo para prototipar ideias de forma rápida e eficiente.
OpenAI está envolvendo ativamente com legisladores, educadores e artistas para compreender preocupações e identificar casos de uso positivos para a tecnologia. Eles reconhecem que, embora não possam prever todos os usos benéficos ou abusos, aprender com o uso no mundo real é fundamental para criar sistemas de IA mais seguros ao longo do tempo.
OpenAI possui classificadores de texto que verificam e rejeitam prompts de entrada de texto que violam as políticas de uso, como aquelas que solicitam violência extrema, conteúdo sexual, imagens odiosas ou uso não autorizado de propriedade intelectual.
Um 'modelo de mundo' em IA refere-se a um modelo computacional que simula o mundo físico e sua dinâmica, permitindo que a IA entenda e preveja como objetos e entidades interagem dentro dele. No contexto de Sora, isso significa que o modelo foi treinado para gerar vídeos que não apenas seguem instruções textuais, mas também aderem às leis físicas e comportamentos do mundo real, como gravidade, movimento e interações de objetos. Essa capacidade é crucial para criar conteúdo de vídeo realista e coerente a partir de descrições textuais.