OpenAI anuncia Sora 2 — o seu modelo de vídeo e áudio de próxima geração
A OpenAI anunciou esta semana o lançamento do Sora 2, o seu novo modelo de geração de vídeo e áudio capaz de criar vídeos altamente detalhados e realistas a partir de descrições de texto fornecidas pelos utilizadores. Segundo relatos, o modelo supera o Veo 3 da Google em realismo e desempenho geral.
Por agora, o Sora 2 está disponível apenas nos Estados Unidos e no Canadá, e apenas por convite. A OpenAI afirmou que planeia expandir o acesso a outros países em breve.
Esta nova versão sucede ao seu antecessor, o Sora 1, trazendo melhorias significativas.
Principais melhorias do Sora 2
Gera vídeos de 30 a 60 segundos com detalhes mais nítidos do que o Sora 1.
Melhora a consistência temporal, reduzindo tremores e instabilidade entre fotogramas.
Produz movimentos mais fisicamente precisos, com melhor interação entre gravidade e objetos.
Totalmente integrado no ambiente do ChatGPT Pro, oferecendo maior acessibilidade do que o Veo 3 da Google.
No entanto, no que diz respeito ao áudio nativo (como diálogos de personagens e sons ambientais), o Veo 3 da Google continua na frente, já que o Sora 2 ainda não gera som.
Opinião: a geração de vídeo por IA ainda está a dar os primeiros passos
Na minha opinião, esta tecnologia de geração de vídeo por IA ainda está na infância — estamos a alguns anos de ver vídeos verdadeiramente perfeitos e com qualidade cinematográfica.
Em 2025, os utilizadores ainda precisam de gastar centenas de créditos (e uma boa quantia de dinheiro) para gerar vários clipes, muitos dos quais falham ou apresentam defeitos visuais.
Criar até um curta-metragem continua a ser um processo trabalhoso.
Por exemplo, um filme de 40 minutos equivale a 2.400 segundos. Se utilizasses clipes de 5 segundos, seriam necessários 480 vídeos individuais.
Isso representa centenas de créditos e dólares gastos num gerador vídeo IA — e poderia demorar semanas a concluir.
Se cada clipe de 5 segundos custar, em média, 60 créditos, o total chegaria a 28.800 créditos.
Provavelmente será melhor esperar mais um ou dois anos até surgir uma ferramenta de IA verdadeiramente capaz — que consiga criar vídeos mais longos e coerentes.
Por exemplo, o VEO 3 da Google já consegue gerar clipes até 60 segundos, mas quanto mais longo o vídeo, mais inconsistências tendem a surgir — objetos que desaparecem, pessoas com três mãos ou leis da física que simplesmente não fazem sentido.
Silvio Guerrinha
0 Comentários