OpenAI retire DALL-E le 12 mai et bascule tout sur ChatGPT Images 2.0
OpenAI a confirmé que DALL-E 2 et DALL-E 3 seront définitivement retirés le 12 mai 2026, remplacés par défaut par ChatGPT Images 2.0 dans ChatGPT comme dans l’API (OpenAI).
Le nouveau modèle, sorti le 21 avril, raisonne nativement, génère jusqu’à 8 images cohérentes par prompt en 2K, et tient la continuité de visage et d’objet dans une même série (TechCrunch). Pour les studios, c’est moins une nouvelle capacité qu’une simplification. Un seul modèle, un seul appel, des séries cohérentes en sortie. Les workflows multi-prompts patiemment bricolés depuis 2023 deviennent caducs en trois jours.
Claude pilote désormais 50 outils Adobe via le connecteur Adobe for Creativity
Adobe a publié en mai un connecteur Adobe for Creativity qui permet à Claude d’orchestrer en conversation plus de 50 outils Adobe, de Photoshop à Premiere en passant par Firefly (Blue Lightning TV).
C’est l’extension logique du Firefly AI Assistant entré en bêta publique le 27 avril (Adobe). Un agent créatif IA, défini comme un système qui exécute en plusieurs étapes une intention décrite en langage naturel, ne reste plus enfermé dans une suite. Il devient interopérable. La direction artistique se rapproche du brief écrit, l’exécution s’éloigne du clic. Sujet creusé dans les modules d’orchestration des formations IA générative de creativeai.fr.
Abundantia et InVideo signent une slate de cinq films IA en trois ans
Le studio indien Abundantia Entertainment et la plateforme InVideo ont annoncé une production conjointe de cinq films pilotés par IA sur trois ans, via la division aiON d’Abundantia (Variety).
L’accord ne crée pas un coup, il crée un calendrier. Une slate, c’est-à-dire une programmation continue de longs métrages, change la nature du débat. La question n’est plus « peut-on faire un film en IA ? », mais « comment industrialise-t-on cinq sorties en trois ans ? ». Bombay devient au passage l’un des laboratoires les plus avancés sur la production IA narrative grand public.
MOTHER.Tech lève 15 millions de dollars pour Degen, un studio créatif sans prompts
La startup new-yorkaise MOTHER.Tech a levé 15 millions de dollars pour lancer Degen, une application qui remplace l’écriture de prompts par des « gens », des modules visuels conçus par des artistes et des designers (AlleyWatch).
L’utilisateur choisit un module, l’alimente avec ses propres images ou textes, et reçoit images, vidéos, mèmes ou carrousels prêts à publier. Le geste compte. Le prompt, héritage technique de 2022, commence à s’effacer derrière une interface modulaire pensée pour des créateurs sans culture machine. C’est la prochaine couche de logiciels créatifs qui s’ouvre, discrètement.
Une équipe propose une taxonomie en cinq niveaux pour la génération visuelle
Un papier récent publié sur arXiv, « Visual Generation in the New Era », propose une taxonomie en cinq niveaux qui va de la génération atomique au modèle de monde, en passant par la génération conditionnelle, contextuelle et agentique (arXiv).
L’intérêt est moins théorique que cartographique. Les chercheurs distinguent ce qui rend, ce qui compose, ce qui maintient la cohérence, ce qui interagit, ce qui simule un monde. Pour les studios, c’est une grille pour situer ses outils et anticiper la marche d’après. La plupart des pipelines de marque vivent encore au niveau 2, quand les projets les plus ambitieux flirtent déjà avec le niveau 4.
Derniers Guides

Seedance 2.0 • Le guide Complet 2026
Dominez la vidéo IA avec Seedance 2.0 de ByteDance. Découvrez les secrets de production, le système de balises @ et le workflow professionnel par plans.

Termes cinéma & IA • diriger l’image comme un réalisateur
Le cinéma a mis plus d’un siècle à construire un vocabulaire pour parler de distance, de regard, de tension, de lumière et de mouvement. Les modèles IA lisent ce vocabulaire comme une série de commandes visuelles.
formations IA
Réaliser des vidéos IA : prompts, plans, personnages et montage
Durée : 2 jours (14h). Public : DA
Réinventer son processus créatif avec l’IA générative
Durée : 5 jours (35h). Public : DA, graphistes, designers
Gemini & Nano Banana 2 : du brief à l’image finale
Durée : 1 jour (7h). Public : graphistes, designers, drecteurs artistiques
L’IA générative pour les créatifs : panorama et expérimentation des outils essentiels
Durée : 1 jour (7h). Public : DA, dirigeants, designers
Content Factory Pilot 30 jours : construire un système éditorial IA réellement utilisable
Durée : 30 jours (accompagnement). Public : dirigeants, équipes marketing & communication
Le studio de production 360° : de la photo à la vidéo avec l’IA Google
Durée : 2 jours (14h). Public : responsables e-commerce, équipes marketing & communication
actualités
-
OpenAI retire DALL-E le 12 mai et bascule tout sur ChatGPT Images 2.0 OpenAI a confirmé que DALL-E 2 et…
-
Runway publie Characters, des personnages vidéo à 37 millisecondes par image Runway a lancé Characters, un modèle qui transforme une…
-
Claude Design transforme les briefs en prototypes et decks éditables Anthropic a lancé Claude Design le 17 avril 2026 pour…
