Catégorie : Cloud

2025, l'année où la refroidissement liquide a cessé d'être « optionnel » dans les centres de données

2025, l’année où la refroidissement liquide a cessé d’être « optionnel » dans les centres de données

Depuis des années, le débat sur la refroidissement dans les centres de données se résolvait par un mantra simple : si l’air supporte, il ne faut rien changer. Mais 2025 a changé la donne. L’expansion de l’Intelligence Artificielle — avec des GPU et des accélérateurs de plus en plus denses — a poussé de nombreux opérateurs à un point délicat : la chaleur n’est plus un simple problème technique isolé, mais un facteur qui influence la capacité, les délais de livraison et, en fin de compte, la rentabilité. Cette tendance s’explique par une somme de pressions. D’une part, la demande électrique des centres de données continue de croître, et les régulateurs européens ont commencé à exiger davantage de transparence, en

L'Europe risque de prendre du retard en intelligence artificielle et en technologie en raison d'une réglementation complexe

Dernières heures pour donner votre avis : la Commission européenne clôture aujourd’hui la consultation sur les écosystèmes numériques ouverts

La Commission européenne accélère aujourd’hui, 3 février, la date limite pour participer à sa « appel à données » sur « Vers des écosystèmes numériques ouverts en Europe ». Cette initiative vise à renforcer le rôle du logiciel open source dans la souveraineté technologique, la compétitivité et la cybersécurité de l’Union. Proposée par la Direction Générale des Réseaux de Communication, du Contenu et des Technologies et la Direction Générale des Services Numériques, cette démarche devrait aboutir, au premier trimestre 2026, à une Communication adressée au Parlement européen et au Conseil de l’Union européenne. Pourquoi cette consultation est importante (et pourquoi elle arrive maintenant) Depuis quelque temps, Bruxelles alerte sur un diagnostic difficile : l’Europe dépend excessivement de pays tiers dans

Nvidia GB200 pousse le secteur des boîtiers vers le refroidissement liquide et l'intégration "au niveauRack"

Nvidia GB200 pousse le secteur des boîtiers vers le refroidissement liquide et l’intégration « au niveauRack »

Depuis plusieurs années, l’industrie du matériel pour centres de données est habituée aux cycles rapides de lancement de nouveaux produits. Cependant, la vague de l’intelligence artificielle (IA) bouleverse quelque chose de plus profond : la manière dont la valeur est capturée tout au long de la chaîne d’approvisionnement. Avec l’arrivée de la plateforme Nvidia GB200 (famille Blackwell) en phase de fabrication de masse et préparant le terrain pour des systèmes « rack-scale », les fabricants de châssis et de racks sortent de leur rôle traditionnel de simples fournisseurs de métal et de mécanique. Ils deviennent désormais des integrateurs de systèmes thermiques et d’infrastructures complètes de rack. Cet envol, qui était autrefois la prérogative des grands ODM, s’accélère principalement en raison d’un enjeu

Le matériel le plus fiable en 2025 selon Puget Systems : surprises dans les CPU, GPU et SSD

Le matériel le plus fiable en 2025 selon Puget Systems : surprises dans les CPU, GPU et SSD

Lorsqu’on évoque le terme « matériel fiable », la conversation a tendance à rester au niveau des impressions : « cette marque ne m’a jamais fait défaut » ou « ce modèle est défectueux ». Il est donc intéressant de noter que Puget Systems, un fabricant reconnu de stations de travail et de serveurs pour créateurs et professionnels, a publié à nouveau son analyse annuelle de fiabilité basée sur ses données internes de 2025. La démarche est simple : examiner son historique de RMA (retours et remplacements) ainsi que les défaillances détectées lors du processus d’assemblage et de burn-in (tests de stress avant envoi), pour mettre en avant les marques et modèles qui, au sein de leur catalogue, ont affiché

OpenAI et NVIDIA signent une alliance historique : jusqu'à 10 GW de « usines d'IA » avec des millions de GPU et un investissement potentiel de 100 milliards de dollars

Le méga accord NVIDIA–OpenAI se refroidit : doutes internes, rivalité croissante et facture de l’informatique

Le marché de l’Intelligence Artificielle vit depuis des mois au rythme de chiffres colossaux, mais aussi de nuances qui modifient la signification des titres. Le dernier épisode met en scène NVIDIA et OpenAI, dont l’alliance annoncée en 2025—avec un engagement parfois évoqué comme pouvant atteindre 100 milliards de dollars et lié à la fourniture d’une capacité de calcul « multigigawatt »—est aujourd’hui scrutée pour son manque de concrétisation et le scepticisme grandissant du côté des fournisseurs de matériel. La clé ne réside pas uniquement dans le montant du chèque, mais dans le type d’infrastructure promis : une capacité électrique à échelle réseau, et non « un grand cluster ». Lorsqu’on parle en gigawatts, le business ne ressemble plus seulement à

Oracle renforce son engagement pour la santé : une plateforme de données avec IA et « agents » pour accélérer la recherche

Oracle renforce son engagement pour la santé : une plateforme de données avec IA et « agents » pour accélérer la recherche

Oracle a annoncé le lancement de Oracle Life Sciences AI Data Platform, une nouvelle plateforme conçue pour unifier les données dispersées (proprees, tierces et publiques) et pour appliquer de l’Intelligence Artificielle générative en y intégrant des capacités “agentiques” afin d’accélérer les processus allant de la recherche et du développement (R&D) aux essais cliniques, à la pharmacovigilance et à la commercialisation. Cette annonce a été faite le 29 janvier 2026 depuis Austin (Texas), avec un message clair : dans les sciences de la vie, le principal obstacle n’est pas toujours le manque d’idées, mais plutôt la fragmentation des données et la difficulté à les transformer en preuves exploitables dans les flux de travail cliniques et de recherche. Un problème bien connu

2025, l'année où la refroidissement liquide a cessé d'être « optionnel » dans les centres de données

2025, l’année où la refroidissement liquide a cessé d’être « optionnel » dans les centres de données

Depuis des années, le débat sur la refroidissement dans les centres de données se résolvait par un mantra simple : si l’air supporte, il ne faut rien changer. Mais 2025 a changé la donne. L’expansion de l’Intelligence Artificielle — avec des GPU et des accélérateurs de plus en plus denses — a poussé de nombreux opérateurs à un point délicat : la chaleur n’est plus un simple problème technique isolé, mais un facteur qui influence la capacité, les délais de livraison et, en fin de compte, la rentabilité. Cette tendance s’explique par une somme de pressions. D’une part, la demande électrique des centres de données continue de croître, et les régulateurs européens ont commencé à exiger davantage de transparence, en

L'Europe risque de prendre du retard en intelligence artificielle et en technologie en raison d'une réglementation complexe

Dernières heures pour donner votre avis : la Commission européenne clôture aujourd’hui la consultation sur les écosystèmes numériques ouverts

La Commission européenne accélère aujourd’hui, 3 février, la date limite pour participer à sa « appel à données » sur « Vers des écosystèmes numériques ouverts en Europe ». Cette initiative vise à renforcer le rôle du logiciel open source dans la souveraineté technologique, la compétitivité et la cybersécurité de l’Union. Proposée par la Direction Générale des Réseaux de Communication, du Contenu et des Technologies et la Direction Générale des Services Numériques, cette démarche devrait aboutir, au premier trimestre 2026, à une Communication adressée au Parlement européen et au Conseil de l’Union européenne. Pourquoi cette consultation est importante (et pourquoi elle arrive maintenant) Depuis quelque temps, Bruxelles alerte sur un diagnostic difficile : l’Europe dépend excessivement de pays tiers dans

Nvidia GB200 pousse le secteur des boîtiers vers le refroidissement liquide et l'intégration "au niveauRack"

Nvidia GB200 pousse le secteur des boîtiers vers le refroidissement liquide et l’intégration « au niveauRack »

Depuis plusieurs années, l’industrie du matériel pour centres de données est habituée aux cycles rapides de lancement de nouveaux produits. Cependant, la vague de l’intelligence artificielle (IA) bouleverse quelque chose de plus profond : la manière dont la valeur est capturée tout au long de la chaîne d’approvisionnement. Avec l’arrivée de la plateforme Nvidia GB200 (famille Blackwell) en phase de fabrication de masse et préparant le terrain pour des systèmes « rack-scale », les fabricants de châssis et de racks sortent de leur rôle traditionnel de simples fournisseurs de métal et de mécanique. Ils deviennent désormais des integrateurs de systèmes thermiques et d’infrastructures complètes de rack. Cet envol, qui était autrefois la prérogative des grands ODM, s’accélère principalement en raison d’un enjeu

Le matériel le plus fiable en 2025 selon Puget Systems : surprises dans les CPU, GPU et SSD

Le matériel le plus fiable en 2025 selon Puget Systems : surprises dans les CPU, GPU et SSD

Lorsqu’on évoque le terme « matériel fiable », la conversation a tendance à rester au niveau des impressions : « cette marque ne m’a jamais fait défaut » ou « ce modèle est défectueux ». Il est donc intéressant de noter que Puget Systems, un fabricant reconnu de stations de travail et de serveurs pour créateurs et professionnels, a publié à nouveau son analyse annuelle de fiabilité basée sur ses données internes de 2025. La démarche est simple : examiner son historique de RMA (retours et remplacements) ainsi que les défaillances détectées lors du processus d’assemblage et de burn-in (tests de stress avant envoi), pour mettre en avant les marques et modèles qui, au sein de leur catalogue, ont affiché

OpenAI et NVIDIA signent une alliance historique : jusqu'à 10 GW de « usines d'IA » avec des millions de GPU et un investissement potentiel de 100 milliards de dollars

Le méga accord NVIDIA–OpenAI se refroidit : doutes internes, rivalité croissante et facture de l’informatique

Le marché de l’Intelligence Artificielle vit depuis des mois au rythme de chiffres colossaux, mais aussi de nuances qui modifient la signification des titres. Le dernier épisode met en scène NVIDIA et OpenAI, dont l’alliance annoncée en 2025—avec un engagement parfois évoqué comme pouvant atteindre 100 milliards de dollars et lié à la fourniture d’une capacité de calcul « multigigawatt »—est aujourd’hui scrutée pour son manque de concrétisation et le scepticisme grandissant du côté des fournisseurs de matériel. La clé ne réside pas uniquement dans le montant du chèque, mais dans le type d’infrastructure promis : une capacité électrique à échelle réseau, et non « un grand cluster ». Lorsqu’on parle en gigawatts, le business ne ressemble plus seulement à

Oracle renforce son engagement pour la santé : une plateforme de données avec IA et « agents » pour accélérer la recherche

Oracle renforce son engagement pour la santé : une plateforme de données avec IA et « agents » pour accélérer la recherche

Oracle a annoncé le lancement de Oracle Life Sciences AI Data Platform, une nouvelle plateforme conçue pour unifier les données dispersées (proprees, tierces et publiques) et pour appliquer de l’Intelligence Artificielle générative en y intégrant des capacités “agentiques” afin d’accélérer les processus allant de la recherche et du développement (R&D) aux essais cliniques, à la pharmacovigilance et à la commercialisation. Cette annonce a été faite le 29 janvier 2026 depuis Austin (Texas), avec un message clair : dans les sciences de la vie, le principal obstacle n’est pas toujours le manque d’idées, mais plutôt la fragmentation des données et la difficulté à les transformer en preuves exploitables dans les flux de travail cliniques et de recherche. Un problème bien connu