IA Créative • 12 mai 2026

Scenario transforme les workflows créatifs en graphes générés par prompt

Scenario a lancé le 6 mai 2026 un Node Agent capable de construire ou modifier un graphe de production IA à partir d’une instruction en langage naturel. L’outil s’adresse aux studios qui utilisent déjà des pipelines par nœuds, mais veulent réduire la friction technique.

Le signal est clair : le prompt ne sert plus seulement à produire une image, il sert à assembler la chaîne de production. Scenario annonce 500 modèles chez 50 fournisseurs, couvrant image, vidéo, 3D, audio, motion capture, rigging et édition. Source : Scenario. Pour les équipes créatives qui structurent leurs méthodes, c’est le même terrain que les formations IA générative de CreativeAI.fr.

BACH transforme une idée en film multi-plan de 30 secondes

Video Rebirth a lancé BACH le 7 mai 2026, un moteur vidéo IA conçu pour produire des films multi-plans de 30 secondes à partir d’une intention de réalisation. La société affirme que BACH interprète quatre dimensions : identité du personnage, performance émotionnelle, langage caméra et structure narrative.

La promesse intéressante n’est pas « générer une belle vidéo ». C’est faire passer la vidéo IA du clip isolé vers une grammaire de réalisateur. Video Rebirth indique que BACH était classé numéro 6 mondial sur Artificial Analysis à son lancement. Source : PR Newswire / Video Rebirth.

Vidu Q3 renforce la vidéo référencée pour les récits cohérents

ShengShu Technology a lancé Vidu Q3 Reference-to-Video pour créer des vidéos à partir de références multiples, dont sujets, environnements, costumes, accessoires et styles visuels. Cette approche répond au problème central des films génératifs : garder les mêmes éléments d’un plan à l’autre.

Le modèle ajoute des effets visuels, du son et de la composition de scène dans le même workflow. La page Vidu indique que Reference-to-Video accepte jusqu’à 7 références pour maintenir personnages, objets et décors cohérents. Source : Vidu AI et communiqué ShengShu.

Google DeepMind montre que les générateurs d’images apprennent la vision

Google DeepMind a publié le 22 avril 2026 une recherche montrant que l’entraînement à la génération d’images produit aussi des représentations visuelles utiles pour comprendre les images. Le modèle présenté, Vision Banana, est construit à partir de Nano Banana Pro.

Définition courte : un générateur d’images devient ici un modèle de vision lorsqu’il ne se contente plus de créer des pixels, mais apprend aussi à segmenter, estimer la profondeur et raisonner sur une scène. DeepMind indique que Vision Banana rivalise avec des spécialistes sur des tâches 2D et 3D. Source : Google DeepMind.

Autodesk rapproche génération 3D, animation et outils de production

Autodesk a détaillé de nouvelles fonctions IA pour Maya, 3ds Max, Flow Studio et Arnold, avec un axe simple : générer plus vite sans sortir du pipeline 3D éditable. Wonder 3D permet de créer des personnages ou objets 3D depuis un prompt ou une image de référence.

Le point utile pour les créatifs n’est pas l’automatisation brute, mais la réversibilité. Autodesk précise que les assets générés peuvent être raffinés, remixés, réutilisés, puis exportés vers 3ds Max, Maya, Blender ou Unreal. MotionMaker ajoute aussi un archétype cheval aux mouvements bipèdes et canins. Source : Autodesk.

Derniers Guides

Seedance 2.0 - Le Guide Complet 2026 pour les créatifs

Seedance 2.0 • Le guide Complet 2026

Dominez la vidéo IA avec Seedance 2.0 de ByteDance. Découvrez les secrets de production, le système de balises @ et le workflow professionnel par plans.

Accéder au guide

Frameworks de storytelling pour films et séries IA : le guide complet pour structurer un récit génératif

Frameworks de storytelling pour films et séries IA

Les frameworks de storytelling aident à transformer une idée de film ou de série IA en récit cohérent. Ils structurent le désir du personnage, le conflit, les scènes, le rythme, les prompts et la continuité.

Accéder au guide

ChatGPT Images 2.0, le manuel

ChatGPT Images 2.0 • Le manuel

On ne prompte plus, on spécifie. L’image devient une structure sémantique que le modèle compose, édite et révise. Le prompt cesse d’être une invocation, il devient une architecture.

Accéder au manuel

formations IA

Réinventer son processus créatif avec l’IA générative

Durée : 5 jours (35h). Public : DA, graphistes, designers

Gemini & Nano Banana 2 : du brief à l’image finale

Content Factory Pilot 30 jours : construire un système éditorial IA réellement utilisable

Durée : 30 jours (accompagnement). Public : dirigeants, équipes marketing & communication

Le studio de production 360° : de la photo à la vidéo avec l’IA Google

Durée : 2 jours (14h). Public : responsables e-commerce, équipes marketing & communication


actualités

  • Scenario transforme les workflows créatifs en graphes générés par prompt Scenario a lancé le 6 mai 2026 un Node Agent…

    Lire la suite

  • Runway pousse les agents vidéo via son hackathon API Runway organise du 8 au 11 mai 2026 un hackathon virtuel…

    Lire la suite

  • Google teste un modèle Omni vidéo audio natif avant Google I/O 2026 Google teste un nouveau modèle baptisé Omni qui…

    Lire la suite