Auteur : Info Cloud

TurboTax : Google met en garde contre la mémoire qui entrave les grands modèles

TurboTax : Google met en garde contre la mémoire qui entrave les grands modèles

Durant plusieurs mois, l’industrie de l’intelligence artificielle a évoqué la nécessité de développer des modèles plus grands, avec davantage de contexte et de puissance de calcul. Toutefois, en pratique, l’un des enjeux majeurs ne réside pas seulement dans l’entraînement de ces systèmes, mais aussi dans leur maintenance pour assurer une exploitation efficace en production. Google Research focalise désormais ses efforts sur ce point avec TurboQuant, une technique de compression dévoilée le 24 mars 2026, visant à atténuer l’un des principaux goulots d’étranglement des grands modèles de langage : la mémoire consommée par le cache clé-valeur, connu sous le nom de KV cache. Ce lancement intervient dans un contexte où la pression sur l’infrastructure devient croissante. Plus un modèle doit gérer

Samsung redouble son pari sur le « DTCO » : ainsi, elle souhaite exploiter chaque nanomètre en combinant conception et procédé pour améliorer les performances, la surface et la consommation

Samsung déplace le capteur thermique vers le câblage du puce pour gagner en espace et en efficacité en 2 nm

Samsung Foundry a présenté lors de ISSCC 2026 une nouvelle IP de capteur de température conçue pour répondre à l’un des principaux défis des processus avancés : mieux gérer la dissipation thermique sans sacrifier l’espace utile à l’intérieur du puce. La solution consiste à déplacer le capteur depuis la zone FEoL, où résident les transistors, vers la couche supérieure d’interconnexions BEoL, en utilisant une résistance métallique à faible coefficient thermique. Dans le programme officiel du congrès, Samsung décrit cette solution comme un “capteur de température entièrement empilé basé sur RC” pour la technologie 2 nm Gate-All-Around, avec une superficie de 625 μm², fonctionnant à 0,6 V, avec une approche orientée vers une meilleure balance entre précision, consommation et encombrement. Ce

Twenty veut être l'alternative open source à Salesforce et se targue déjà d'un CRM moderne, modulaire et auto-hébergé

Twenty veut être l’alternative open source à Salesforce et se targue déjà d’un CRM moderne, modulaire et auto-hébergé

Le marché du CRM est depuis plusieurs années dominé par des plateformes propriétaires, coûteuses et difficiles à abandonner une fois que les données et processus de l’équipe sont enfermés dans ces solutions. Dans ce contexte, Twenty s’impose comme l’une des propositions open source les plus ambitieuses du moment, avec un message clair : construire une alternative moderne à Salesforce, soutenue par la communauté et conçue pour des équipes souhaitant avoir un contrôle accru sur leur outil et leurs données. Cela est confirmé autant par son repository officiel sur GitHub que par son site web institutionnel. Le projet se présente comme “Le #1 CRM Open Source” et combine une interface inspirée d’outils modernes tels que Notion, Airtable ou Linear avec une

Uptime Institute souligne une baisse de confiance dans l'IA et un besoin d'amélioration des métriques de durabilité dans les centres de données

Mphasis et Flagstar achèvent la première phase d’une grande modernisation technologique bancaire aux États-Unis

Mphasis et Flagstar Bank ont annoncé la réussite de la première phase d’un programme de modernisation technologique qui, en seulement un an, a permis à la banque américaine de déployer une nouvelle infrastructure de centres de données et de cloud pour soutenir sa transformation digitale. Selon la documentation officielle communiquée par Mphasis aux marchés, ce projet a permis de créer une plateforme technologique scalable, renforçant la résilience opérationnelle, améliorant la performance et préparant Flagstar pour sa prochaine étape de croissance en tant que banque régionale aux États-Unis. Le point le plus notable du projet réside dans la consolidation de six anciens centres de données en deux nouveaux centres de nouvelle génération, opération que Mphasis affirme avoir réalisé en environ 12

L'invisibilité de la maintenance : Le travail en coulisse dans l'hébergement des services

La mémoire menace de dévorer la dépense cloud des hyperéchelle

La próxima gran ola de tensión en el sector de la inteligencia artificial no parece centrarse únicamente en las GPU. Cada vez más analistas y fabricantes enfocan su atención en la memoria, hasta el punto de hablar ya de una nueva fase del ciclo: una infraestructura de IA donde la DRAM, LPDDR5 y HBM representan una proporción cada vez mayor en el coste total de los sistemas y en el capex de los grandes operadores de la nube. La hipótesis más atrevida la plantea SemiAnalysis, que estima que la memoria pasará de representar cerca del 8 % del gasto total de los hiperescalares en 2023 y 2024 a aproximadamente el 30 % en 2026, con una presión aún mayor en

Virginia se part en los centros de datos : l'exemption fiscale de 5,3 % est en jeu et l'horloge tourne vers 2027

La course des centres de données pour l’IA bute contre un autre mur : transformateurs, batteries et réseau électrique

Les États-Unis découvrent que la construction de centres de données pour l’Intelligence Artificielle ne dépend pas uniquement de l’achat accru de GPU. Selon Bloomberg, près de la moitié des projets de centres de données prévus d’ici 2026 pourraient être retardés ou annulés en raison de la pénurie d’équipements électriques essentiels, tels que transformateurs, cellules moyenne tension et batteries. Beaucoup de ces composants sont fabriqués en Chine ou fortement dépendants de chaînes d’approvisionnement mondiales où la Chine joue un rôle déterminant. Bloomberg met en évidence que le problème réside principalement dans l’infrastructure électrique, et non dans le financement ou la demande en chips. Ce détail est important. Il ne s’agit pas simplement d’une annulation massive de projets, mais d’un risque significatif

TurboTax : Google met en garde contre la mémoire qui entrave les grands modèles

TurboTax : Google met en garde contre la mémoire qui entrave les grands modèles

Durant plusieurs mois, l’industrie de l’intelligence artificielle a évoqué la nécessité de développer des modèles plus grands, avec davantage de contexte et de puissance de calcul. Toutefois, en pratique, l’un des enjeux majeurs ne réside pas seulement dans l’entraînement de ces systèmes, mais aussi dans leur maintenance pour assurer une exploitation efficace en production. Google Research focalise désormais ses efforts sur ce point avec TurboQuant, une technique de compression dévoilée le 24 mars 2026, visant à atténuer l’un des principaux goulots d’étranglement des grands modèles de langage : la mémoire consommée par le cache clé-valeur, connu sous le nom de KV cache. Ce lancement intervient dans un contexte où la pression sur l’infrastructure devient croissante. Plus un modèle doit gérer

Samsung redouble son pari sur le « DTCO » : ainsi, elle souhaite exploiter chaque nanomètre en combinant conception et procédé pour améliorer les performances, la surface et la consommation

Samsung déplace le capteur thermique vers le câblage du puce pour gagner en espace et en efficacité en 2 nm

Samsung Foundry a présenté lors de ISSCC 2026 une nouvelle IP de capteur de température conçue pour répondre à l’un des principaux défis des processus avancés : mieux gérer la dissipation thermique sans sacrifier l’espace utile à l’intérieur du puce. La solution consiste à déplacer le capteur depuis la zone FEoL, où résident les transistors, vers la couche supérieure d’interconnexions BEoL, en utilisant une résistance métallique à faible coefficient thermique. Dans le programme officiel du congrès, Samsung décrit cette solution comme un “capteur de température entièrement empilé basé sur RC” pour la technologie 2 nm Gate-All-Around, avec une superficie de 625 μm², fonctionnant à 0,6 V, avec une approche orientée vers une meilleure balance entre précision, consommation et encombrement. Ce

Twenty veut être l'alternative open source à Salesforce et se targue déjà d'un CRM moderne, modulaire et auto-hébergé

Twenty veut être l’alternative open source à Salesforce et se targue déjà d’un CRM moderne, modulaire et auto-hébergé

Le marché du CRM est depuis plusieurs années dominé par des plateformes propriétaires, coûteuses et difficiles à abandonner une fois que les données et processus de l’équipe sont enfermés dans ces solutions. Dans ce contexte, Twenty s’impose comme l’une des propositions open source les plus ambitieuses du moment, avec un message clair : construire une alternative moderne à Salesforce, soutenue par la communauté et conçue pour des équipes souhaitant avoir un contrôle accru sur leur outil et leurs données. Cela est confirmé autant par son repository officiel sur GitHub que par son site web institutionnel. Le projet se présente comme “Le #1 CRM Open Source” et combine une interface inspirée d’outils modernes tels que Notion, Airtable ou Linear avec une

Uptime Institute souligne une baisse de confiance dans l'IA et un besoin d'amélioration des métriques de durabilité dans les centres de données

Mphasis et Flagstar achèvent la première phase d’une grande modernisation technologique bancaire aux États-Unis

Mphasis et Flagstar Bank ont annoncé la réussite de la première phase d’un programme de modernisation technologique qui, en seulement un an, a permis à la banque américaine de déployer une nouvelle infrastructure de centres de données et de cloud pour soutenir sa transformation digitale. Selon la documentation officielle communiquée par Mphasis aux marchés, ce projet a permis de créer une plateforme technologique scalable, renforçant la résilience opérationnelle, améliorant la performance et préparant Flagstar pour sa prochaine étape de croissance en tant que banque régionale aux États-Unis. Le point le plus notable du projet réside dans la consolidation de six anciens centres de données en deux nouveaux centres de nouvelle génération, opération que Mphasis affirme avoir réalisé en environ 12

L'invisibilité de la maintenance : Le travail en coulisse dans l'hébergement des services

La mémoire menace de dévorer la dépense cloud des hyperéchelle

La próxima gran ola de tensión en el sector de la inteligencia artificial no parece centrarse únicamente en las GPU. Cada vez más analistas y fabricantes enfocan su atención en la memoria, hasta el punto de hablar ya de una nueva fase del ciclo: una infraestructura de IA donde la DRAM, LPDDR5 y HBM representan una proporción cada vez mayor en el coste total de los sistemas y en el capex de los grandes operadores de la nube. La hipótesis más atrevida la plantea SemiAnalysis, que estima que la memoria pasará de representar cerca del 8 % del gasto total de los hiperescalares en 2023 y 2024 a aproximadamente el 30 % en 2026, con una presión aún mayor en

Virginia se part en los centros de datos : l'exemption fiscale de 5,3 % est en jeu et l'horloge tourne vers 2027

La course des centres de données pour l’IA bute contre un autre mur : transformateurs, batteries et réseau électrique

Les États-Unis découvrent que la construction de centres de données pour l’Intelligence Artificielle ne dépend pas uniquement de l’achat accru de GPU. Selon Bloomberg, près de la moitié des projets de centres de données prévus d’ici 2026 pourraient être retardés ou annulés en raison de la pénurie d’équipements électriques essentiels, tels que transformateurs, cellules moyenne tension et batteries. Beaucoup de ces composants sont fabriqués en Chine ou fortement dépendants de chaînes d’approvisionnement mondiales où la Chine joue un rôle déterminant. Bloomberg met en évidence que le problème réside principalement dans l’infrastructure électrique, et non dans le financement ou la demande en chips. Ce détail est important. Il ne s’agit pas simplement d’une annulation massive de projets, mais d’un risque significatif