IA Créative • 9 mai 2026

OpenAI retire DALL-E le 12 mai et bascule tout sur ChatGPT Images 2.0

OpenAI a confirmé que DALL-E 2 et DALL-E 3 seront définitivement retirés le 12 mai 2026, remplacés par défaut par ChatGPT Images 2.0 dans ChatGPT comme dans l’API (OpenAI).

Le nouveau modèle, sorti le 21 avril, raisonne nativement, génère jusqu’à 8 images cohérentes par prompt en 2K, et tient la continuité de visage et d’objet dans une même série (TechCrunch). Pour les studios, c’est moins une nouvelle capacité qu’une simplification. Un seul modèle, un seul appel, des séries cohérentes en sortie. Les workflows multi-prompts patiemment bricolés depuis 2023 deviennent caducs en trois jours.


Claude pilote désormais 50 outils Adobe via le connecteur Adobe for Creativity

Adobe a publié en mai un connecteur Adobe for Creativity qui permet à Claude d’orchestrer en conversation plus de 50 outils Adobe, de Photoshop à Premiere en passant par Firefly (Blue Lightning TV).

C’est l’extension logique du Firefly AI Assistant entré en bêta publique le 27 avril (Adobe). Un agent créatif IA, défini comme un système qui exécute en plusieurs étapes une intention décrite en langage naturel, ne reste plus enfermé dans une suite. Il devient interopérable. La direction artistique se rapproche du brief écrit, l’exécution s’éloigne du clic. Sujet creusé dans les modules d’orchestration des formations IA générative de creativeai.fr.


Abundantia et InVideo signent une slate de cinq films IA en trois ans

Le studio indien Abundantia Entertainment et la plateforme InVideo ont annoncé une production conjointe de cinq films pilotés par IA sur trois ans, via la division aiON d’Abundantia (Variety).

L’accord ne crée pas un coup, il crée un calendrier. Une slate, c’est-à-dire une programmation continue de longs métrages, change la nature du débat. La question n’est plus « peut-on faire un film en IA ? », mais « comment industrialise-t-on cinq sorties en trois ans ? ». Bombay devient au passage l’un des laboratoires les plus avancés sur la production IA narrative grand public.


MOTHER.Tech lève 15 millions de dollars pour Degen, un studio créatif sans prompts

La startup new-yorkaise MOTHER.Tech a levé 15 millions de dollars pour lancer Degen, une application qui remplace l’écriture de prompts par des « gens », des modules visuels conçus par des artistes et des designers (AlleyWatch).

L’utilisateur choisit un module, l’alimente avec ses propres images ou textes, et reçoit images, vidéos, mèmes ou carrousels prêts à publier. Le geste compte. Le prompt, héritage technique de 2022, commence à s’effacer derrière une interface modulaire pensée pour des créateurs sans culture machine. C’est la prochaine couche de logiciels créatifs qui s’ouvre, discrètement.


Une équipe propose une taxonomie en cinq niveaux pour la génération visuelle

Un papier récent publié sur arXiv, « Visual Generation in the New Era », propose une taxonomie en cinq niveaux qui va de la génération atomique au modèle de monde, en passant par la génération conditionnelle, contextuelle et agentique (arXiv).

L’intérêt est moins théorique que cartographique. Les chercheurs distinguent ce qui rend, ce qui compose, ce qui maintient la cohérence, ce qui interagit, ce qui simule un monde. Pour les studios, c’est une grille pour situer ses outils et anticiper la marche d’après. La plupart des pipelines de marque vivent encore au niveau 2, quand les projets les plus ambitieux flirtent déjà avec le niveau 4.

Derniers Guides

Seedance 2.0 - Le Guide Complet 2026 pour les créatifs

Seedance 2.0 • Le guide Complet 2026

Dominez la vidéo IA avec Seedance 2.0 de ByteDance. Découvrez les secrets de production, le système de balises @ et le workflow professionnel par plans.

Accéder au guide

Termes cinéma & IA • diriger l’image comme un réalisateur

Le cinéma a mis plus d’un siècle à construire un vocabulaire pour parler de distance, de regard, de tension, de lumière et de mouvement. Les modèles IA lisent ce vocabulaire comme une série de commandes visuelles.

Accéder au guide

ChatGPT Images 2.0, le manuel

ChatGPT Images 2.0 • Le manuel

On ne prompte plus, on spécifie. L’image devient une structure sémantique que le modèle compose, édite et révise. Le prompt cesse d’être une invocation, il devient une architecture.

Accéder au manuel

formations IA

Réinventer son processus créatif avec l’IA générative

Durée : 5 jours (35h). Public : DA, graphistes, designers

Gemini & Nano Banana 2 : du brief à l’image finale

Content Factory Pilot 30 jours : construire un système éditorial IA réellement utilisable

Durée : 30 jours (accompagnement). Public : dirigeants, équipes marketing & communication

Le studio de production 360° : de la photo à la vidéo avec l’IA Google

Durée : 2 jours (14h). Public : responsables e-commerce, équipes marketing & communication


actualités

  • OpenAI retire DALL-E le 12 mai et bascule tout sur ChatGPT Images 2.0 OpenAI a confirmé que DALL-E 2 et…

    Lire la suite

  • Runway publie Characters, des personnages vidéo à 37 millisecondes par image Runway a lancé Characters, un modèle qui transforme une…

    Lire la suite

  • Claude Design transforme les briefs en prototypes et decks éditables Anthropic a lancé Claude Design le 17 avril 2026 pour…

    Lire la suite