Adobe et Google Cloud étendent leur partenariat pour intégrer les modèles Gemini, Veo et Imagen dans l’écosystème créatif et entrepreneurial

Crayon élargit son partenariat avec Google Cloud pour accélérer l'adoption de l'IA dans les entreprises de taille intermédiaire.

Dans le cadre de Adobe MAX 2025, Adobe et Google Cloud ont annoncé une extension stratégique de leur partenariat visant à intégrer directement dans les applications Adobe les modèles d’IA de Google — Gemini, Veo et Imagen —. L’objectif est d’ouvrir une nouvelle ère de création assistée par IA, offrant plus de précision, de contrôle et de diversité de modèles au service des professionnels créatifs, des marques et des équipes marketing.

Ce partenariat se traduit concrètement pour les utilisateurs par un accès aux modèles de Google via Firefly, Photoshop, Adobe Express, Premiere et autres applications Adobe, ainsi que depuis la plateforme GenStudio dans un contexte d’entreprise. À une étape ultérieure, les sociétés prévoient que les clients professionnels puissent personnaliser et déployer des modèles « de marque » via Adobe Firefly Foundry, entraînés sur leur propre propriété intellectuelle et exécutés sur Vertex AI, conformément aux engagements de confidentialité des données de Google (sans réutilisation des données clients pour réentraîner les modèles de base).

Concrètement, que signifie cette alliance ?

Ce partenariat va au-delà d’un simple accord marketing : il unifie dans un même environnement de travail les meilleurs modèles du secteur avec les outils d’édition professionnels que les créatifs maîtrisent déjà.

  • Dans les applications Adobe (Firefly, Photoshop, Express, Premiere…) : possibilité de choisir le modèle le plus adapté à chaque tâche — par exemple, Imagen pour la génération photoréaliste, Veo pour la vidéo ou Gemini pour les flux multimodaux —, et continuer à éditer avec une précision « pixel par pixel » dans le logiciel habituel.
  • Pour l’entreprise (GenStudio + Vertex AI) : accès aux modèles Google avec gouvernance et sécurité renforcée sur les données d’entreprise, automatisation des chaînes de contenu et, à terme, modèles personnalisés via Firefly Foundry pour générer des actifs alignés à la marque à grande échelle.
  • En stratégie go-to-market : Adobe et Google Cloud coordonnent leurs actions commerciales et d’adoption pour amener ces avancées à des clients du monde entier, en se concentrant sur une productivité créative mesurable (moins de temps pour les tâches répétitives, plus de cohérence et de gestion de versions).

Pour les équipes, la grande transformation est opérationnelle : au lieu de jongler entre différents portails et models, les options d’IA s’intègrent directement dans le flux de travail : on choisit le modèle, on génère le contenu, on édite avec les outils habituels et on publie ou on orchestre via les canaux classiques.

Pourquoi maintenant (et pourquoi ensemble) ?

Les deux entreprises s’appuient sur des éléments éprouvés. Adobe a fait évoluer Firefly en un studio complet d’IA, a injecté des fonctionnalités génératives (comme le REMPLISSAGE GÉNÉRATIF, l’UPSCALing génératif, le masquage d’objets, l’Harmonisation…) dans Creative Cloud et a étendu GenStudio aux chaînes d’approvisionnement de contenu. Google, de son côté, a fait monter en gamme Vertex AI avec une offre multimodèle (Gemini, Imagen, Veo) et des engagements de gestion des données d’entreprise, en plus d’une infrastructure mondiale optimisée pour l’IA.

L’enjeu est double :

  1. Offrir un choix réel de modèles sans perturber le flux créatif.
  2. Permettre une personnalisation sécurisée (modèles de marque via Foundry) en production, avec traçabilité et gestion des droits.

Cette convergence entre créativité et IA impose justement cet équilibre : des outils précis pour le professionnel — sans abdication du contrôle — et des systèmes gouvernés pour l’entreprise — intégrant données, processus et politiques.

Impacts sur la création au quotidien

  • Une qualité accrue dès le premier brouillon. Choisir Imagen ou Gemini comme moteur dans Generative Fill ou Firefly peut réduire les itérations lorsque l’on vise le photoréalisme ou la cohérence stylistique.
  • Une vidéo avec IA « authentique ». Veo ouvre des voies pour le text-to-video et l’image-to-video dans des flux connectés à Premiere, raccourcissant la distance entre storyboard et montage.
  • Moins de friction pour les petites équipes. Ceux qui travaillent « à marche forcée » (dans le social, le e-commerce, la presse) gagnent en rapidité grâce à des modèles ets templates adaptés à chaque exigence, sans quitter l’environnement Adobe.
  • Contrôle précis au pixel près. L’IA ne remplace pas le jugement professionnel : Photoshop, Premiere et Lightroom continuent à fournir les outils fins pour achever le projet, avec l’IA comme assistante.

Ce que cela apporte à l’entreprise (marketing, contenu, identité)

  • Modèles « de marque » : avec Firefly Foundry, entraînés sur IP propre et sécurisés commercialement, conçus pour générer des séries à l’image pour les campagnes, le retail media, le performance marketing et le contenu multiformat.
  • Exécution sur Vertex AI avec des engagements de gestion des données : séparation claire entre données clients et modèles de base, avec des options de personnalisation sans fuite de savoir-faire vers des tiers.
  • Operationalisation du contenu : GenStudio intègre planification, production, activation et mesure ; l’IA devient un système productif avec des KPIs de temps, coût et performance.

Un écosystème qui s’élargit (et se connecte à YouTube)

La collaboration avec Google intervient peu après l’annonce par Adobe d’un espace de création pour Shorts sur Premiere mobileCreate for YouTube Shorts»), permettant d’éditer et publier directement sur la plateforme Google. La synergie est claire : modèles Google dans le workflow Adobe, édition et publication sans quitter l’application mobile, et canaux à large audience. Pour le créateur, moins de friction ; pour la marque, plus de contrôle et de cohérence dans la diffusion.

Voix de l’alliance

Shantanu Narayen, CEO d’Adobe, résume l’esprit du partenariat : “Cette alliance unit l’ADN créatif d’Adobe avec les modèles d’IA de Google pour donner aux créateurs et aux marques les moyens de faire évoluer Firefly, Creative Cloud et Firefly Foundry”. Pour Thomas Kurian, CEO de Google Cloud, la clé est d’intégrer les modèles de Google dans l’écosystème Adobe afin que créateurs, professionnels et marques disposent des outils et plateformes pour accélérer la création et rendre possible ce qui était auparavant impensable.

Risques et précautions

Les deux sociétés rappellent que ces déclarations sont prospectives : la disponibilité régionale, le catalogue initial de modèles et la vitesse de déploiement peuvent varier. En entreprise, la réussite nécessitera :

  • Gouvernance des données et rôles dans GenStudio/Vertex.
  • Nettoyage de l’IP utilisée pour entraîner les modèles de marque.
  • Formation des équipes au prompting, aux bonnes pratiques et au contrôle qualité.
  • Métriques d’impact (temps par contenu, coût par variante, amélioration des campagnes).

Message au marché

L’intégration modèle-indépendante au sein d’Adobe — désormais avec Gemini, Veo et Imagen — confirme une tendance : le créateur choisit le modèle en fonction du travail, et non l’inverse. Et dans l’entreprise, la combinaison GenStudio + Vertex AI + Foundry suggère une évolution des outils silos vers des plateformes intégrées et orchestrées, où l’IA occupe une place centrale dans le flux créatif et opérationnel.


Questions fréquentes

Est-il possible de choisir un modèle Google dans Photoshop, Firefly ou Premiere ?
Oui. La collaboration permet l’accès aux modèles de Google directement dans les applications Adobe et GenStudio, pour que le créateur sélectionne celui qui correspond le mieux à son objectif (image, vidéo, multimodal) et continue à éditer avec précision.

Quelles garanties sur mes données si je personnalise des modèles de marque ?
Pour les clients entreprise, les modèles Google s’exécutent sur Vertex AI avec engagements de gestion des données : les données du client ne sont pas utilisées pour entraîner les modèles fondamentaux de Google. La personnalisation via Firefly Foundry repose sur IP propre et des modèles Firefly conçus pour une utilisation commerciale sécurisée.

Quand sera-t-il disponible et où ?
Adobe et Google Cloud évoquent un déploiement mondial avec des activités conjointes de mise sur le marché. La disponibilité pourra varier selon la région et le produit, et certaines fonctionnalités seront déployées progressivement. Suivez les annonces d’Adobe MAX et le Newsroom officiel.

Comment cela s’intègre-t-il avec le nouveau espace de création pour YouTube Shorts ?
La collaboration avec YouTube introduit “Create for YouTube Shorts” dans Premiere mobile — permettant d’éditer et publier directement sur la plateforme Google. La synergie réduit la friction entre la création et la publication dans l’écosystème Google, offrant une expérience fluide pour le créateur et plus de contrôle pour la marque.

le dernier