Guia
Runway ML.
Gere e edite vídeos com inteligência artificial usando o Gen-4. Do primeiro clipe ao fluxo de produção profissional em 2026.
Leitura de 14 minutos. Inclui técnicas cinematográficas e comparação com Sora, Pika e Kling.
O que você vai aprender
- O que é o Runway ML e por que ele lidera a geração de vídeo com IA em 2026.
- Como criar conta e usar os 125 créditos gratuitos de forma estratégica.
- Como escrever prompts com linguagem cinematográfica para resultados profissionais.
- Diferença entre Text-to-Video, Image-to-Video e Video-to-Video.
- Como usar consistência de personagem, Act One e Camera Motion Controls.
- Fluxo de trabalho profissional: Runway + Midjourney + ElevenLabs.
- Erros comuns e como economizar créditos sem perder qualidade.
- Runway vs Sora vs Pika vs Kling em 2026.
Capítulo 1
O que é o Runway ML
O Runway ML é uma plataforma de criação de vídeo com inteligência artificial fundada em 2018 em Nova York. Em 2026, é a referência em ferramentas de geração de vídeo para criadores profissionais, estúdios e agências de publicidade. O modelo atual, Gen-4, representa um salto significativo em qualidade, duração de clipe, consistência de personagens e controle criativo em relação a gerações anteriores.
A empresa ficou conhecida pelo público geral em 2023 e 2024 com o Gen-2, o primeiro modelo de vídeo com IA acessível ao público. Desde então, o Runway acumulou parcerias com estúdios de Hollywood e grandes agências de publicidade no mundo todo. No Brasil, ganhou relevância entre diretores de criação, produtores de conteúdo digital e agências de marketing.
Diferente de ferramentas que geram apenas imagens, o Runway especializa-se na dimensão temporal do vídeo: como os elementos se movem, como a câmera se comporta e como cenas evoluem ao longo do tempo. Essa especialização faz dele a ferramenta preferida para quem precisa de clipes convincentes para anúncios, filmes curtos, apresentações e conteúdo para redes sociais.
Capítulo 2
Como criar conta e dar os primeiros passos
Acesse runwayml.com e clique em Get Started Free. Crie conta com Google ou e-mail. Ao criar a conta, você recebe 125 créditos gratuitos para explorar a plataforma. Não é necessário cartão de crédito para começar.
Após o login, você cai no dashboard principal. Clique em 'Generate' para acessar o Gen-4, o modelo de geração de vídeo mais recente. Você verá três opções de modo: Text to Video, Image to Video e Video to Video. Para iniciantes, recomendamos começar com Image to Video, que dá o maior controle visual desde o início.
No modo Image to Video, carregue uma imagem de referência (pode ser uma foto ou uma imagem gerada com Midjourney, DALL-E ou Stable Diffusion) e descreva no campo de texto como você quer que ela se anime. Exemplo: carregue uma foto de uma praia ao pôr do sol e descreva 'gentle waves moving, golden light glowing on water, birds flying across sky, cinematic'.
Antes de gerar, explore o painel de configurações à direita: duração (5 ou 10 segundos), resolução, intensidade do motion (movimento), e o painel Camera Motion. Para seu primeiro vídeo, deixe as configurações padrão e foque em aprender o prompt.
Capítulo 3
Gerando seu primeiro vídeo com resultado profissional
Um prompt eficiente no Runway tem três camadas: descrição do sujeito, descrição do movimento e descrição da câmera e iluminação. Exemplo fraco: 'uma mulher andando na rua'. Exemplo forte: 'a Brazilian woman in her 30s walking confidently down a busy São Paulo street, slow motion 50%, shallow depth of field, cinematic warm color grade, golden hour lighting, camera tracking from front to back'.
Os melhores termos técnicos para incluir nos prompts do Runway, com tradução em português: 'cinematic lighting' (iluminação cinematográfica), 'shallow depth of field' (desfoque de fundo), 'slow motion' (câmera lenta), 'tracking shot' (câmera que segue o sujeito), 'aerial view' (vista aérea), 'close-up' (plano fechado), 'wide shot' (plano aberto), 'dolly zoom' (efeito Vertigo), 'handheld camera' (câmera na mão, efeito documental).
Para controlar o movimento dos elementos da cena, descreva explicitamente o que deve se mover e como: 'leaves falling slowly', 'hair blowing in the wind', 'steam rising from coffee cup', 'car driving away into distance'. Quanto mais específico o movimento descrito, mais previsível é o resultado.
Se o resultado não agradou, identifique o que saiu errado antes de regenerar: (1) o sujeito não é o que você queria, (2) o movimento foi exagerado demais, (3) a câmera se comportou de forma estranha, ou (4) a qualidade de imagem ficou ruim. Para cada problema existe um ajuste específico no prompt ou no painel de configurações.
Capítulo 4
Funcionalidades principais do Gen-4
Consistência de personagem. A novidade mais importante do Gen-4 é a capacidade de manter um personagem visualmente consistente ao longo de múltiplos clipes. Você carrega uma imagem de referência do personagem e o Runway o mantém com a mesma aparência em diferentes cenas, ângulos e iluminações. Isso permite criar curtas-metragens e anúncios com protagonistas reconhecíveis.
Act One. Você liga a câmera do computador, atua uma cena com expressões e movimentos de rosto, e o Runway transere essa performance para o personagem gerado por IA. É uma forma de dar vida expressiva e autêntica a personagens virtuais sem precisar de equipamento de motion capture. Especialmente útil para criar cenas de diálogo realistas.
Camera Motion Controls. O painel de controle de câmera do Gen-4 permite definir precisamente como a câmera se move: Pan, Tilt, Zoom, Roll e Dolly com sliders de intensidade. Você pode criar movimentos de câmera sofisticados como dolly forward com um leve tilt up, combinando múltiplos movimentos simultâneos.
Extend Video. Assim como no Suno para música, no Runway você pode estender qualquer clipe gerado para continuar a ação de onde parou. O Runway mantém a aparência dos personagens, o estilo visual e o movimento de câmera ao longo da extensão. Isso permite criar cenas de 30 a 60 segundos conectando múltiplas gerações.
Inpainting e Remove Object. No modo de edição de vídeo, você pode selecionar qualquer área de um vídeo existente, apagá-la e substituir por novo conteúdo gerado por IA. Isso permite remover objetos indesejados de uma cena, trocar o fundo de um vídeo ou adicionar elementos que não estavam no original.
Color Grade e Presets. O Runway tem presets de color grade cinematográfico integrados, com estilos inspirados em cinematografias famosas: high contrast noir, warm summer blockbuster, desaturated drama, vibrant music video. Você aplica o preset ao vídeo gerado para dar acabamento visual profissional sem precisar de DaVinci Resolve.
Capítulo 5
Técnicas avançadas para resultados profissionais
Técnica de Image-to-Video com imagem gerada. Em vez de partir do zero com Text-to-Video, gere primeiro a imagem-chave da cena usando Midjourney ou DALL-E 3 com o estilo visual desejado, depois carregue essa imagem no Runway em modo Image-to-Video. Essa abordagem dá controle total sobre o frame inicial e produz resultados muito mais previsíveis que Text-to-Video puro.
Storyboard com múltiplos clipes. Para criar um vídeo completo de 30 a 60 segundos, faça o storyboard primeiro: escreva a sequência de cenas que você quer, crie cada clipe separadamente no Runway e depois monte no editor de vídeo de sua preferência (DaVinci Resolve, Premiere, CapCut ou o próprio editor do Runway). Isso é o fluxo de trabalho usado por diretores criativos profissionais.
Uso do Interpolation para slow motion. Se você tem dois frames de uma cena, o Runway pode criar todos os frames intermediários com qualidade de IA, produzindo um efeito de câmera lenta muito suave. Isso é útil para criar transições elegantes ou dramatizar momentos de impacto em vídeos de produto ou de esporte.
Combinar Runway com ElevenLabs. Para criar vídeos com narração ou diálogos, um fluxo de trabalho popular é: gerar o vídeo visual no Runway e gerar a trilha de voz no ElevenLabs, depois montar os dois no editor de vídeo. Esse fluxo de produção inteiramente com IA está sendo adotado por agências e criadores independentes para reduzir drasticamente o custo de produção de vídeos.
Prompts negativos. O Runway aceita prompts negativos para excluir elementos indesejados: 'no text overlay, no watermarks, no camera shake, no blurriness'. Use negativos para resolver problemas recorrentes nos seus resultados, como excesso de movimento ou artefatos visuais.
Capítulo 6
Erros comuns ao usar o Runway
1. Esperar que Text-to-Video produza cenas complexas. O Text-to-Video do Runway funciona melhor com cenas simples: um sujeito claro, uma ação específica, um ambiente bem descrito. Cenas com múltiplos personagens interagindo, física complexa ou mudanças rápidas de cena tendem a produzir resultados incoerentes. Comece simples.
2. Usar prompts muito longos e contraditórios. Mais de 80 palavras no prompt geralmente piora o resultado porque o modelo tenta atender todos os elementos e acaba não priorizando nenhum. Foque nos 3 a 5 elementos mais importantes da cena e seja preciso neles.
3. Ignorar o painel Camera Motion. Muito do apelo cinematográfico de um vídeo vem do movimento de câmera. Um clipe estático parece amador mesmo com excelente qualidade de imagem. Defina sempre um movimento de câmera, mesmo que sutil: um leve dolly forward ou um tilt up lento transforma completamente a sensação do clipe.
4. Não usar imagem de referência para personagens. Se o seu projeto tem um personagem que aparece em múltiplas cenas, crie uma imagem de referência consistente e use-a em cada geração. Sem isso, o personagem terá aparência diferente em cada clipe, tornando o projeto incoerente.
5. Desperdiçar créditos regenerando sem ajustar o prompt. Se o resultado não agradou, analise exatamente o que saiu errado antes de regenerar. Regenerar o mesmo prompt só gasta créditos sem resolver o problema. Ajuste um elemento específico por vez: primeiro o movimento, depois a câmera, depois a iluminação.
6. Não planejar a duração antes. Um projeto de 60 segundos precisa de aproximadamente 6 a 12 clipes de 5 a 10 segundos. Faça o cálculo de créditos necessários antes de começar para não ficar sem créditos no meio do projeto.
Capítulo 7
Runway vs alternativas: comparação em 2026
Runway Gen-4. Melhor para: produção profissional, consistência de personagens, projetos com múltiplas cenas, integração com fluxo de produção de vídeo. Interface mais completa e ferramentas de edição integradas. Plano Pro USD 28 por mês. Curva de aprendizado mais alta que concorrentes mais simples.
Sora (OpenAI). Melhor para: cenas com física realista e complexa, vídeos mais longos (até 1 minuto por geração), qualidade visual em cenas de ambiente. Disponível em ChatGPT Plus e Pro. Menos controle sobre câmera que o Runway. Sem ferramentas de edição integradas.
Pika Labs. Melhor para: iniciantes que querem resultados rápidos com curva de aprendizado mínima. Interface mais simples que o Runway. Resultados um nível abaixo do Gen-4 em qualidade. Plano gratuito mais generoso. Ótima opção para criar vídeos curtos para TikTok e Reels sem investimento.
Kling AI (Kuaishou). Modelo chinês com qualidade competitiva ao Runway, especialmente em cenas com pessoas em movimento. Acessível via plataforma web com plano gratuito generoso. Vale testar como alternativa ou complemento ao Runway para comparar resultados no seu tipo de conteúdo.
Recomendação para criadores brasileiros: se você cria conteúdo para redes sociais e quer experimentar vídeo com IA sem investimento inicial, comece com Pika Labs ou use os 125 créditos gratuitos do Runway. Se você trabalha com produção profissional de vídeo, publicidade ou conteúdo de marca, o plano Pro do Runway é a ferramenta certa em 2026.
Continue
Próximos passos.
FAQ
Perguntas sobre Runway ML.
O Runway ML é gratuito?+
Sim, o Runway tem plano gratuito com 125 créditos ao criar a conta. Cada segundo de vídeo gerado com Gen-4 consome entre 5 e 10 créditos, dependendo da resolução. O plano Standard custa USD 12 por mês com 625 créditos mensais. O plano Pro custa USD 28 por mês com 2.250 créditos. O plano Unlimited custa USD 76 por mês com geração ilimitada de vídeo em modo padrão. Para uso profissional e criação de conteúdo frequente, o plano Pro ou Unlimited é o mais prático.
Qual é a resolução máxima dos vídeos gerados no Runway?+
Com o Gen-4, o Runway gera vídeos em resolução de até 1280x768 pixels (aproximadamente HD) nativamente. Com o recurso de upscaling, é possível ampliar para 4K para exportação. A duração padrão por geração é de 5 ou 10 segundos. Para criar vídeos mais longos, você conecta múltiplas gerações usando o recurso de extensão. Os formatos de exportação incluem MP4 e GIF.
O Runway funciona com imagens em português ou precisa de inglês?+
O Runway aceita prompts em português, mas os melhores resultados ainda vêm de prompts em inglês. A razão é que o modelo foi treinado predominantemente com dados em inglês, então descritores técnicos de câmera, iluminação e movimento funcionam melhor em inglês. Para uso casual, português funciona. Para resultados profissionais, vale escrever em inglês usando termos como 'cinematic lighting', 'slow motion', 'dolly shot', 'close-up'. Neste guia, explicamos as principais tags técnicas em inglês que fazem diferença.
Qual é a diferença entre o Runway e o Sora da OpenAI?+
Em 2026, o Sora e o Runway Gen-4 são concorrentes diretos na geração de vídeo com IA. O Runway tem vantagem na consistência de personagens ao longo de múltiplos clipes (usando Act One e o modo de referência), em ferramentas de edição integradas e em acesso mais amplo com planos mais acessíveis. O Sora tem vantagem em cenas complexas com física realista e em vídeos mais longos. Para criadores de conteúdo que precisam de um personagem consistente em múltiplas cenas, o Runway Gen-4 é atualmente a escolha mais sólida.
O Runway consegue manter personagens consistentes entre clipes?+
Sim. O Gen-4 introduziu o modo de referência de personagem, que permite carregar uma imagem de referência do personagem e mantê-lo visualmente consistente entre diferentes clipes e cenas. Isso resolve um dos maiores problemas das ferramentas de geração de vídeo com IA anteriores, onde o rosto e aparência do personagem mudavam entre clipes. É a funcionalidade que mais diferencia o Runway Gen-4 de concorrentes em 2026.
Posso usar vídeos gerados no Runway comercialmente?+
Depende do plano. No plano gratuito, os vídeos têm marca d'água e não podem ser usados comercialmente. No plano Standard, você pode usar os vídeos para projetos não comerciais sem marca d'água. Nos planos Pro e Unlimited, você tem direitos comerciais completos sobre os vídeos gerados e pode usá-los em anúncios, filmes, vídeos para clientes e qualquer outro projeto pago. Para uso profissional e comercial, o plano Pro é o mínimo recomendado.
Quais são os modos de geração de vídeo do Runway?+
O Runway oferece três modos principais: (1) Texto para vídeo (Text-to-Video): você descreve a cena em texto e o Runway gera o clipe. (2) Imagem para vídeo (Image-to-Video): você carrega uma imagem e descreve como ela deve se mover. É o modo mais preciso para controlar o resultado visual. (3) Vídeo para vídeo (Video-to-Video): você carrega um vídeo existente e aplica um novo estilo ou modifica a cena. Para iniciantes, imagem para vídeo é o mais fácil de dominar com resultados consistentes.
O que é o Act One no Runway?+
O Act One é uma funcionalidade do Runway que permite capturar a performance facial e de expressões de um ator real usando a câmera do computador e transferi-la para um personagem virtual gerado por IA. Em outras palavras, você atua na câmera e o Runway aplica essa atuação ao personagem do vídeo. É uma ferramenta poderosa para criadores que precisam de expressividade realista em personagens gerados por IA, sem precisar de motion capture profissional.
Como controlar o movimento da câmera no Runway?+
O Runway Gen-4 tem um painel de controle de câmera chamado Camera Motion. Você pode definir: Pan (movimento lateral), Tilt (movimento vertical), Zoom, Roll (rotação), Dolly (aproximação frontal). Além do painel, você pode descrever o movimento no prompt de texto: 'slow dolly forward', 'handheld camera, slight shake', 'aerial drone shot descending', 'tracking shot following subject left to right'. Combinar o painel de câmera com descrições textuais dá o maior controle sobre o movimento.
O Runway tem edição de vídeo tradicional além da geração?+
Sim. Além de gerar vídeos do zero, o Runway tem uma suite de ferramentas de edição: Remove Background (remover fundo), Inpainting (apagar e substituir partes de um vídeo), Interpolation (criar frames intermediários para slowmotion), Erase and Replace (apagar objetos de uma cena), Color Grade com presets cinematográficos, e a linha de montagem tradicional. Para edição básica a intermediária de vídeos existentes, o Runway pode substituir parte do fluxo de trabalho do Premiere ou DaVinci Resolve.
Quanto tempo leva para gerar um vídeo no Runway?+
Com o Gen-4, um clipe de 5 segundos leva entre 30 segundos e 2 minutos para ser gerado, dependendo da carga nos servidores. Vídeos de 10 segundos levam entre 1 e 4 minutos. Em horários de pico (manhã nos EUA, que equivale à tarde no Brasil), o tempo de espera pode aumentar. O Runway processa em fila, então você pode colocar várias gerações na fila e voltar para ver os resultados.