IA Créative • 8 mai 2026

Runway publie Characters, des personnages vidéo à 37 millisecondes par image

Runway a lancé Characters, un modèle qui transforme une image fixe en personnage vidéo conversationnel à 24 images par seconde, avec 37 millisecondes de calcul par image et 1,75 seconde de latence serveur entre la fin de la parole de l’utilisateur et la première réponse animée (Runway).

Le geste n’est pas anodin. La conversation visuelle entre dans la zone du temps réel, là où le casting IA cessait jusqu’ici d’être crédible. Les studios qui produisent des présentateurs, des avatars de marque ou des dialogues fictionnels gagnent une nouvelle latitude. C’est le début d’un casting génératif où la direction d’acteur revient au prompt et au montage, plus au rendu.


Adobe Firefly ouvre des générations illimitées jusqu’au 20 mai

Adobe a ouvert sur Firefly une fenêtre de générations illimitées jusqu’au 20 mai 2026, sur les modèles partenaires les plus lourds (Adobe).

Sora 2, Veo 3.1, Runway Gen-4.5, Kling 2.5 Turbo et Ray3 HDR cohabitent dans la même interface, sans coût marginal pendant douze jours. Ce n’est pas une promo, c’est un test grandeur nature pour saturer les pipelines de moodboards, de previs et de tests stylistiques. À utiliser pour cadrer des choix éditoriaux, pas pour produire en masse. Une bonne occasion d’éprouver les modèles face à un brief réel, comme on le fait dans nos formations IA générative sur creativeai.fr.


Obsidian Studio signe Longchamp avec un manifeste anti-effet IA

Obsidian Studio a réalisé la dernière campagne pour Longchamp en s’appuyant sur des outils génératifs, en posant une règle simple en interne : « si c’est détectable comme IA, vous avez échoué » (Hollywood Reporter).

Cette phrase mérite d’être encadrée. Depuis trois ans, l’IA est passée du statut de prouesse visible à celui d’outil invisible. La valeur ne se trouve plus dans le pixel impossible, elle se trouve dans le fait que rien ne trahisse la machine. Le luxe, qui vit de discrétion, sert ici de banc d’essai accéléré pour le reste du marché.


Autodesk Wonder 3D génère des assets éditables depuis un texte ou une image

Autodesk a lancé Wonder 3D dans Flow Studio, un modèle qui transforme un texte ou une image en assets 3D directement éditables, pensé pour les artistes et les studios (Autodesk News).

Le point clé n’est pas la génération, c’est l’éditabilité. La 3D générative s’aligne enfin sur le standard de l’image, avec une sortie modifiable, intégrable dans une chaîne de production, plutôt qu’un objet figé à reprendre. Pour les équipes design produit, packaging ou previs cinéma, c’est le premier passage crédible du prompt au prototype.


ByteDance unifie image, vidéo et compréhension dans Mamoda2.5

ByteDance a publié Mamoda2.5, un cadre Autoregressive-Diffusion mixte qui réunit compréhension multimodale, génération d’image et génération ou édition vidéo dans une seule architecture DiT-MoE (Crescendo AI News).

Le mouvement de fond est clair. Là où les studios assemblent aujourd’hui trois ou quatre modèles spécialisés, les laboratoires construisent un modèle unique qui comprend, génère et édite. Les workflows créatifs de 2027 ressembleront moins à une chaîne d’outils qu’à une conversation continue avec un seul système.

Derniers Guides

Seedance 2.0 - Le Guide Complet 2026 pour les créatifs

Seedance 2.0 • Le guide Complet 2026

Dominez la vidéo IA avec Seedance 2.0 de ByteDance. Découvrez les secrets de production, le système de balises @ et le workflow professionnel par plans.

Accéder au guide

Termes cinéma & IA • diriger l’image comme un réalisateur

Le cinéma a mis plus d’un siècle à construire un vocabulaire pour parler de distance, de regard, de tension, de lumière et de mouvement. Les modèles IA lisent ce vocabulaire comme une série de commandes visuelles.

Accéder au guide

ChatGPT Images 2.0, le manuel

ChatGPT Images 2.0 • Le manuel

On ne prompte plus, on spécifie. L’image devient une structure sémantique que le modèle compose, édite et révise. Le prompt cesse d’être une invocation, il devient une architecture.

Accéder au manuel

formations IA

Réinventer son processus créatif avec l’IA générative

Durée : 5 jours (35h). Public : DA, graphistes, designers

Gemini & Nano Banana 2 : du brief à l’image finale

Content Factory Pilot 30 jours : construire un système éditorial IA réellement utilisable

Durée : 30 jours (accompagnement). Public : dirigeants, équipes marketing & communication

Le studio de production 360° : de la photo à la vidéo avec l’IA Google

Durée : 2 jours (14h). Public : responsables e-commerce, équipes marketing & communication


actualités

  • OpenAI retire DALL-E le 12 mai et bascule tout sur ChatGPT Images 2.0 OpenAI a confirmé que DALL-E 2 et…

    Lire la suite

  • Runway publie Characters, des personnages vidéo à 37 millisecondes par image Runway a lancé Characters, un modèle qui transforme une…

    Lire la suite

  • Claude Design transforme les briefs en prototypes et decks éditables Anthropic a lancé Claude Design le 17 avril 2026 pour…

    Lire la suite