Runway publie Characters, des personnages vidéo à 37 millisecondes par image
Runway a lancé Characters, un modèle qui transforme une image fixe en personnage vidéo conversationnel à 24 images par seconde, avec 37 millisecondes de calcul par image et 1,75 seconde de latence serveur entre la fin de la parole de l’utilisateur et la première réponse animée (Runway).
Le geste n’est pas anodin. La conversation visuelle entre dans la zone du temps réel, là où le casting IA cessait jusqu’ici d’être crédible. Les studios qui produisent des présentateurs, des avatars de marque ou des dialogues fictionnels gagnent une nouvelle latitude. C’est le début d’un casting génératif où la direction d’acteur revient au prompt et au montage, plus au rendu.
Adobe Firefly ouvre des générations illimitées jusqu’au 20 mai
Adobe a ouvert sur Firefly une fenêtre de générations illimitées jusqu’au 20 mai 2026, sur les modèles partenaires les plus lourds (Adobe).
Sora 2, Veo 3.1, Runway Gen-4.5, Kling 2.5 Turbo et Ray3 HDR cohabitent dans la même interface, sans coût marginal pendant douze jours. Ce n’est pas une promo, c’est un test grandeur nature pour saturer les pipelines de moodboards, de previs et de tests stylistiques. À utiliser pour cadrer des choix éditoriaux, pas pour produire en masse. Une bonne occasion d’éprouver les modèles face à un brief réel, comme on le fait dans nos formations IA générative sur creativeai.fr.
Obsidian Studio signe Longchamp avec un manifeste anti-effet IA
Obsidian Studio a réalisé la dernière campagne pour Longchamp en s’appuyant sur des outils génératifs, en posant une règle simple en interne : « si c’est détectable comme IA, vous avez échoué » (Hollywood Reporter).
Cette phrase mérite d’être encadrée. Depuis trois ans, l’IA est passée du statut de prouesse visible à celui d’outil invisible. La valeur ne se trouve plus dans le pixel impossible, elle se trouve dans le fait que rien ne trahisse la machine. Le luxe, qui vit de discrétion, sert ici de banc d’essai accéléré pour le reste du marché.
Autodesk Wonder 3D génère des assets éditables depuis un texte ou une image
Autodesk a lancé Wonder 3D dans Flow Studio, un modèle qui transforme un texte ou une image en assets 3D directement éditables, pensé pour les artistes et les studios (Autodesk News).
Le point clé n’est pas la génération, c’est l’éditabilité. La 3D générative s’aligne enfin sur le standard de l’image, avec une sortie modifiable, intégrable dans une chaîne de production, plutôt qu’un objet figé à reprendre. Pour les équipes design produit, packaging ou previs cinéma, c’est le premier passage crédible du prompt au prototype.
ByteDance unifie image, vidéo et compréhension dans Mamoda2.5
ByteDance a publié Mamoda2.5, un cadre Autoregressive-Diffusion mixte qui réunit compréhension multimodale, génération d’image et génération ou édition vidéo dans une seule architecture DiT-MoE (Crescendo AI News).
Le mouvement de fond est clair. Là où les studios assemblent aujourd’hui trois ou quatre modèles spécialisés, les laboratoires construisent un modèle unique qui comprend, génère et édite. Les workflows créatifs de 2027 ressembleront moins à une chaîne d’outils qu’à une conversation continue avec un seul système.
Derniers Guides

Seedance 2.0 • Le guide Complet 2026
Dominez la vidéo IA avec Seedance 2.0 de ByteDance. Découvrez les secrets de production, le système de balises @ et le workflow professionnel par plans.

Termes cinéma & IA • diriger l’image comme un réalisateur
Le cinéma a mis plus d’un siècle à construire un vocabulaire pour parler de distance, de regard, de tension, de lumière et de mouvement. Les modèles IA lisent ce vocabulaire comme une série de commandes visuelles.
formations IA
Réaliser des vidéos IA : prompts, plans, personnages et montage
Durée : 2 jours (14h). Public : DA
Réinventer son processus créatif avec l’IA générative
Durée : 5 jours (35h). Public : DA, graphistes, designers
Gemini & Nano Banana 2 : du brief à l’image finale
Durée : 1 jour (7h). Public : graphistes, designers, drecteurs artistiques
L’IA générative pour les créatifs : panorama et expérimentation des outils essentiels
Durée : 1 jour (7h). Public : DA, dirigeants, designers
Content Factory Pilot 30 jours : construire un système éditorial IA réellement utilisable
Durée : 30 jours (accompagnement). Public : dirigeants, équipes marketing & communication
Le studio de production 360° : de la photo à la vidéo avec l’IA Google
Durée : 2 jours (14h). Public : responsables e-commerce, équipes marketing & communication
actualités
-
OpenAI retire DALL-E le 12 mai et bascule tout sur ChatGPT Images 2.0 OpenAI a confirmé que DALL-E 2 et…
-
Runway publie Characters, des personnages vidéo à 37 millisecondes par image Runway a lancé Characters, un modèle qui transforme une…
-
Claude Design transforme les briefs en prototypes et decks éditables Anthropic a lancé Claude Design le 17 avril 2026 pour…
