De « pari sûr » à terrain instable : pourquoi l’informatique ne garantit plus l’emploi (et comment s’adapter)

De « pari sûr » à terrain instable : pourquoi l'informatique ne garantit plus l'emploi (et comment s'adapter)

En seulement quatre ans, la narration dominante sur les carrières en sciences de l’informatique a connu un virage brusque : du « futur à l’épreuve de la crise » à une incertitude structurelle. Les universités qui peinaient à dispenser leurs cours voient aujourd’hui des diplômés célébrer une seule offre là où auparavant il y en avait plusieurs. Que s’est-il passé — au-delà de l’impact de l’IA — et que peuvent faire étudiants, entreprises et établissements pour recontextualiser leur préparation professionnelle ?


Ce qui a changé (au-delà du slogan « l’IA a tout bouleversé »)

1) Surplus de demande → surabondance (localement et temporairement).
L’explosion des inscriptions entre 2016 et 2022 a généré des cohortes très volumineuses qui arrivent sur le marché en période de ralentissement : réduction des effectifs, réorganisation des priorités, et introduction de filtres plus sélectifs.

2) Reconfiguration des tâches par l’IA générative.
Les outils d’assistance à la programmation et les agents conversationnels réduisent les délais de développement sur des tâches standards ( scaffolding, refactoring simple, tests), ce qui compresse la valeur des profils juniors centrés uniquement sur l’implémentation. La productivité augmente, et la besoin en effectifs dans certains équipes diminue ou se déplace.

3) Réduction organisationnelle (“Thin out”).
De nombreuses entreprises ont réduit leurs couches intermédiaires et externalisé les travaux non différenciants. Les équipes restantes sont plus petites, polyvalentes et orientées produit.

4) Déplacement de la prime salariale.
La prime ne réside plus dans « coder » simplement, mais dans résoudre des problèmes avec des produits qui améliorent des métriques, intégrer l’IA avec des données, et opérer des systèmes. La distance entre contribution standard et differencielle s’est creusée.


Signes sur le campus (et dans les offres d’emploi)

  • Moins de offres multiples pour stages et premiers emplois ; processus plus longs et techniquement exigeants.
  • Une importance accrue aux questions sur l’architecture, les données et le produit au-delà de l’algorithme.
  • Recherche de profils “T-shaped” : large base (systèmes, réseaux, données, sécurité) + spécialisations connectant à une valeur métier.

La programmation « morte » ? Non : l’éventail de compétences a changé et s’élargit

Ce qui conserve sa valeur (et augmente) :

  • Fondamentaux : structures de données, concurrence, réseaux, systèmes d’exploitation, architecture des ordinateurs.
  • Science des données appliquée : préparation de données, évaluation de modèles, prompting et tooling MLOps.
  • Ingénierie de produit : conception d’API, métriques, UX de base, A/B testing.
  • Plateforme et opérations : cloud, conteneurs, CI/CD, observabilité, gestion des coûts / finops.
  • Sécurité : secure by design, threat modeling, conformité de base.

Ce qui se banalise plus vite :

  • Implémentations répétitives sans contexte produit.
  • « Savoir utiliser une librairie » sans comprendre patterns ou trade-offs.

Recommandations par acteur

Pour les étudiants (ou bootcampers) :

  1. Apprenez à collaborer avec l’IA, pas contre elle.
    Utilisez copilots et agents au quotidien : spécification claire, vérification et évaluation des résultats font désormais partie des compétences professionnelles.
  2. Un portfolio avec un impact tangible, pas seulement des démonstrations.
    Projets montrant une livraison de bout en bout : problème → données → solution → métrique (ex. latence, rétention, coût). Documentez décisions et post-mortems.
  3. Élargissez votre base et développez les compétences adjacentes.
    Combinez informatique avec un domaine (santé, finance, logistique, juridique). Le contexte industriel vous différencie du simple « code pour code ».
  4. Communiquez comme un ingénieur de produit.
    Racontez des histoires avec des données, priorisez, estimez, négociez la portée. Le « pourquoi » est aussi important que le « comment ».
  5. Itérez votre recherche comme un sprint.
    Mesurez votre funnel : candidatures → entretiens → callbacks. Ajustez CV/portfolio et pratiquez la technique toutes les 2-3 semaines ; demandez un feedback précis.

Pour les universités :

  • Un tronc commun solide (systèmes, réseaux, architecture, données, sécurité), avec laboratoires intégrant l’IA et plateforme.
  • Modules intermédiaires avec droit, santé, affaires, humanités : résolution de cas réels, éthique et responsabilité de l’IA.
  • Projets « capstone » multi-partners : travaux avec des entreprises ou ONG, où la livrable dépasse le simple toy app.
  • Centre de carrière orienté portfolio et obtention de certifications externes (certifications sélectives, contributions open source).

Pour les employeurs :

  • Évaluations plus réalistes : moins d’énigmes ; davantage de défis intégrant l’IA dans le processus, débogage, observabilité et prise de décisions de conception sous contrainte.
  • Junior + apprentissage IA : intégration encadrée par des mentors avec des objectifs mesurant apprentissage, qualité et impact, pas uniquement la clôture des tickets.
  • Reconversion interne : créer des parcours pour passer du QA / Support / IT vers plateforme, données ou sécurité avec des sprints d’apprentissage et des stages.

Stratégies concrètes pour l’ère de l’IA

  • Adoptez une démarche « IA-centrée » : identifiez où les copilots/agents gagnent du temps et où nécessitent une revue humaine. Documentez les points de contrôle.
  • Utilisez des KPIs de valeur : adoptez des indicateurs combinés (ex. délai de livraison + taux de défauts + coût GPU par fonctionnalité).
  • Intégrez l’éthique et la conformité de façon pragmatique : checklists pour une utilisation responsable de l’IA, respect de la vie privée et sécurité intégrée dans les processus et pipelines.
  • Favorisez un apprentissage continu : changez de domaine tous les 6-9 mois pour explorer des secteurs adjacents (données ↔ backend ↔ plateforme).

Narratives erronées (et comment les corriger)

  • “L’IA va supprimer des emplois en informatique” → L’IA redéfinit les tâches ; elle déplace la valeur vers l’intégration, l’évaluation et l’exploitation.
  • “Il suffit d’apprendre la librairie X” → Ce qui compte, ce sont patterns et fondamentaux ; la librairie évolue, le critère reste.
  • “Tout se résume au prompting → Sans données propres, systèmes robustes et métriques, le prompt ne sauve pas le projet.

Signes de reprise (à observer en 2025–2026)

  • Augmentation des offres mentionnant agents, observation de l’IA, MLOps et coût par inférence.
  • Reprise des pratiques à des niveaux proches de ceux d’avant (ratio offres/démande) dans le cloud, la données et la sécurité.
  • Croissance dans les rôles liés à plateforme et à fiabilité pour déploiements d’IA (AI SRE, AI Infra).

L’essentiel

Les sciences de l’informatique n’ont pas perdu leur valeur ; elles ont cessé d’être automatiques. L’avantage n’est plus dans « savoir programmer » en théorie, mais dans transformer des problèmes réels en solutions mesurables, soutenues par l’IA — avec jugement technique, compréhension du domaine et responsabilité. Sur ce terrain, celles et ceux qui adoptent et orchestrent l’IA surpasseront ceux qui la ignorent.

Pour les étudiants, les universités et les entreprises, la tâche n’est pas de revenir en arrière vers 2019, mais de concevoir 2026 avec une palette de compétences plus équilibrée, interdisciplinaire et opérationnelle. Et cela, loin d’être une menace, représente une opportunité pour que l’informatique retrouve ce qu’elle a toujours promis : résoudre des problèmes importants avec technologie et jugement.

via : techspot

le dernier